From a9bb03ffa85f66e2a01cf4122859450cded97425 Mon Sep 17 00:00:00 2001 From: lorenzejay Date: Thu, 15 Jan 2026 14:37:16 -0800 Subject: [PATCH] docs update here --- docs/en/concepts/llms.mdx | 43 +++++++++++++++++++++++++++++++----- docs/ko/concepts/llms.mdx | 41 ++++++++++++++++++++++++++++++++-- docs/pt-BR/concepts/llms.mdx | 41 ++++++++++++++++++++++++++++++++-- 3 files changed, 115 insertions(+), 10 deletions(-) diff --git a/docs/en/concepts/llms.mdx b/docs/en/concepts/llms.mdx index bfd2fedf8..e984beeab 100644 --- a/docs/en/concepts/llms.mdx +++ b/docs/en/concepts/llms.mdx @@ -375,10 +375,13 @@ In this section, you'll find detailed examples that help you select, configure, GOOGLE_API_KEY= GEMINI_API_KEY= - # Optional - for Vertex AI + # For Vertex AI Express mode (API key authentication) + GOOGLE_GENAI_USE_VERTEXAI=true + GOOGLE_API_KEY= + + # For Vertex AI with service account GOOGLE_CLOUD_PROJECT= GOOGLE_CLOUD_LOCATION= # Defaults to us-central1 - GOOGLE_GENAI_USE_VERTEXAI=true # Set to use Vertex AI ``` **Basic Usage:** @@ -412,7 +415,35 @@ In this section, you'll find detailed examples that help you select, configure, ) ``` - **Vertex AI Configuration:** + **Vertex AI Express Mode (API Key Authentication):** + + Vertex AI Express mode allows you to use Vertex AI with simple API key authentication instead of service account credentials. This is the quickest way to get started with Vertex AI. + + To enable Express mode, set both environment variables in your `.env` file: + ```toml .env + GOOGLE_GENAI_USE_VERTEXAI=true + GOOGLE_API_KEY= + ``` + + Then use the LLM as usual: + ```python Code + from crewai import LLM + + llm = LLM( + model="gemini/gemini-2.0-flash", + temperature=0.7 + ) + ``` + + + To get an Express mode API key: + - New Google Cloud users: Get an [express mode API key](https://cloud.google.com/vertex-ai/generative-ai/docs/start/quickstart?usertype=apikey) + - Existing Google Cloud users: Get a [Google Cloud API key bound to a service account](https://cloud.google.com/docs/authentication/api-keys) + + For more details, see the [Vertex AI Express mode documentation](https://docs.cloud.google.com/vertex-ai/generative-ai/docs/start/quickstart?usertype=apikey). + + + **Vertex AI Configuration (Service Account):** ```python Code from crewai import LLM @@ -424,10 +455,10 @@ In this section, you'll find detailed examples that help you select, configure, ``` **Supported Environment Variables:** - - `GOOGLE_API_KEY` or `GEMINI_API_KEY`: Your Google API key (required for Gemini API) - - `GOOGLE_CLOUD_PROJECT`: Google Cloud project ID (for Vertex AI) + - `GOOGLE_API_KEY` or `GEMINI_API_KEY`: Your Google API key (required for Gemini API and Vertex AI Express mode) + - `GOOGLE_GENAI_USE_VERTEXAI`: Set to `true` to use Vertex AI (required for Express mode) + - `GOOGLE_CLOUD_PROJECT`: Google Cloud project ID (for Vertex AI with service account) - `GOOGLE_CLOUD_LOCATION`: GCP location (defaults to `us-central1`) - - `GOOGLE_GENAI_USE_VERTEXAI`: Set to `true` to use Vertex AI **Features:** - Native function calling support for Gemini 1.5+ and 2.x models diff --git a/docs/ko/concepts/llms.mdx b/docs/ko/concepts/llms.mdx index 59e629bd3..82b3c7ba5 100644 --- a/docs/ko/concepts/llms.mdx +++ b/docs/ko/concepts/llms.mdx @@ -207,11 +207,20 @@ CrewAI는 고유한 기능, 인증 방법, 모델 역량을 제공하는 다양 `.env` 파일에 API 키를 설정하십시오. 키가 필요하거나 기존 키를 찾으려면 [AI Studio](https://aistudio.google.com/apikey)를 확인하세요. ```toml .env - # https://ai.google.dev/gemini-api/docs/api-key + # Gemini API 사용 시 (다음 중 하나) + GOOGLE_API_KEY= GEMINI_API_KEY= + + # Vertex AI Express 모드 사용 시 (API 키 인증) + GOOGLE_GENAI_USE_VERTEXAI=true + GOOGLE_API_KEY= + + # Vertex AI 서비스 계정 사용 시 + GOOGLE_CLOUD_PROJECT= + GOOGLE_CLOUD_LOCATION= # 기본값: us-central1 ``` - CrewAI 프로젝트에서의 예시 사용법: + **기본 사용법:** ```python Code from crewai import LLM @@ -221,6 +230,34 @@ CrewAI는 고유한 기능, 인증 방법, 모델 역량을 제공하는 다양 ) ``` + **Vertex AI Express 모드 (API 키 인증):** + + Vertex AI Express 모드를 사용하면 서비스 계정 자격 증명 대신 간단한 API 키 인증으로 Vertex AI를 사용할 수 있습니다. Vertex AI를 시작하는 가장 빠른 방법입니다. + + Express 모드를 활성화하려면 `.env` 파일에 두 환경 변수를 모두 설정하세요: + ```toml .env + GOOGLE_GENAI_USE_VERTEXAI=true + GOOGLE_API_KEY= + ``` + + 그런 다음 평소처럼 LLM을 사용하세요: + ```python Code + from crewai import LLM + + llm = LLM( + model="gemini/gemini-2.0-flash", + temperature=0.7 + ) + ``` + + + Express 모드 API 키를 받으려면: + - 신규 Google Cloud 사용자: [Express 모드 API 키](https://cloud.google.com/vertex-ai/generative-ai/docs/start/quickstart?usertype=apikey) 받기 + - 기존 Google Cloud 사용자: [서비스 계정에 바인딩된 Google Cloud API 키](https://cloud.google.com/docs/authentication/api-keys) 받기 + + 자세한 내용은 [Vertex AI Express 모드 문서](https://docs.cloud.google.com/vertex-ai/generative-ai/docs/start/quickstart?usertype=apikey)를 참조하세요. + + ### Gemini 모델 Google은 다양한 용도에 최적화된 강력한 모델을 제공합니다. diff --git a/docs/pt-BR/concepts/llms.mdx b/docs/pt-BR/concepts/llms.mdx index 5b59db1e5..a56c31291 100644 --- a/docs/pt-BR/concepts/llms.mdx +++ b/docs/pt-BR/concepts/llms.mdx @@ -207,11 +207,20 @@ Nesta seção, você encontrará exemplos detalhados que ajudam a selecionar, co Defina sua chave de API no seu arquivo `.env`. Se precisar de uma chave, ou encontrar uma existente, verifique o [AI Studio](https://aistudio.google.com/apikey). ```toml .env - # https://ai.google.dev/gemini-api/docs/api-key + # Para API Gemini (uma das seguintes) + GOOGLE_API_KEY= GEMINI_API_KEY= + + # Para Vertex AI Express mode (autenticação por chave de API) + GOOGLE_GENAI_USE_VERTEXAI=true + GOOGLE_API_KEY= + + # Para Vertex AI com conta de serviço + GOOGLE_CLOUD_PROJECT= + GOOGLE_CLOUD_LOCATION= # Padrão: us-central1 ``` - Exemplo de uso em seu projeto CrewAI: + **Uso Básico:** ```python Code from crewai import LLM @@ -221,6 +230,34 @@ Nesta seção, você encontrará exemplos detalhados que ajudam a selecionar, co ) ``` + **Vertex AI Express Mode (Autenticação por Chave de API):** + + O Vertex AI Express mode permite usar o Vertex AI com autenticação simples por chave de API, em vez de credenciais de conta de serviço. Esta é a maneira mais rápida de começar com o Vertex AI. + + Para habilitar o Express mode, defina ambas as variáveis de ambiente no seu arquivo `.env`: + ```toml .env + GOOGLE_GENAI_USE_VERTEXAI=true + GOOGLE_API_KEY= + ``` + + Em seguida, use o LLM normalmente: + ```python Code + from crewai import LLM + + llm = LLM( + model="gemini/gemini-2.0-flash", + temperature=0.7 + ) + ``` + + + Para obter uma chave de API do Express mode: + - Novos usuários do Google Cloud: Obtenha uma [chave de API do Express mode](https://cloud.google.com/vertex-ai/generative-ai/docs/start/quickstart?usertype=apikey) + - Usuários existentes do Google Cloud: Obtenha uma [chave de API do Google Cloud vinculada a uma conta de serviço](https://cloud.google.com/docs/authentication/api-keys) + + Para mais detalhes, consulte a [documentação do Vertex AI Express mode](https://docs.cloud.google.com/vertex-ai/generative-ai/docs/start/quickstart?usertype=apikey). + + ### Modelos Gemini O Google oferece uma variedade de modelos poderosos otimizados para diferentes casos de uso.