mirror of
https://github.com/crewAIInc/crewAI.git
synced 2026-01-27 17:18:13 +00:00
chore(docs): bring AMP doc refresh from release/v1.0.0 into main (#3637)
Some checks failed
Some checks failed
* WIP: v1 docs (#3626) (cherry picked from commit d46e20fa09bcd2f5916282f5553ddeb7183bd92c) * docs: parity for all translations * docs: full name of acronym AMP * docs: fix lingering unused code * docs: expand contextual options in docs.json * docs: add contextual action to request feature on GitHub * chore: tidy docs formatting
This commit is contained in:
@@ -44,7 +44,7 @@ LLM을 선택할 때 가장 중요한 단계는 실제로 여러분의 작업이
|
||||
|
||||
- **Creative Tasks**는 새롭고, 흥미로우며, 맥락에 적합한 콘텐츠를 생성하는 데 중점을 둔 새로운 인지적 능력을 요구합니다. 여기에는 스토리텔링, 마케팅 카피 작성, 창의적 문제 해결이 포함됩니다. 모델은 뉘앙스, 톤, 대상 청중을 이해하고, 공식적이지 않고 진정성 있고 흥미로운 콘텐츠를 제작해야 합니다.
|
||||
</Tab>
|
||||
|
||||
|
||||
<Tab title="Output Requirements">
|
||||
- **Structured Data** 작업은 포맷 규칙 준수의 정확성과 일관성을 요구합니다. JSON, XML, 데이터베이스 포맷 등을 다루는 경우, 모델은 구문적으로 올바른 출력을 안정적으로 생성할 수 있어야 하며, 이는 프로그램적으로 처리 가능해야 합니다. 이런 작업에는 엄격한 검증 요구 사항이 있으며 포맷 에러에 대한 허용 오차가 매우 적기 때문에, 창의성보다는 신뢰성이 더 중요합니다.
|
||||
|
||||
@@ -52,7 +52,7 @@ LLM을 선택할 때 가장 중요한 단계는 실제로 여러분의 작업이
|
||||
|
||||
- **Technical Content**는 구조화된 데이터와 창의적 콘텐츠의 중간에 위치하며, 정확성과 명확성을 모두 필요로 합니다. 문서화, 코드 생성, 기술 분석 등은 정밀하면서도 포괄적으로 작성되어야 하며, 대상이 되는 청중에게 효과적으로 전달되어야 합니다. 모델은 복잡한 기술 개념을 이해하고 이를 명확하게 설명할 수 있어야 합니다.
|
||||
</Tab>
|
||||
|
||||
|
||||
<Tab title="Context Needs">
|
||||
- **Short Context** 시나리오는 모델이 한정된 정보를 신속하게 처리해야 하는 즉각적이고 집중된 업무를 포함합니다. 이는 대체로 속도와 효율성이 심도 있는 이해보다 더 중요한 거래성 상호작용에서 주로 발생합니다. 모델은 긴 대화 내역이나 대용량 문서를 유지할 필요가 없습니다.
|
||||
|
||||
@@ -74,7 +74,7 @@ LLM을 선택할 때 가장 중요한 단계는 실제로 여러분의 작업이
|
||||
|
||||
하지만 reasoning 모델은 속도와 비용 면에서 트레이드오프가 따르는 경우가 많습니다. 또한 그들의 고도화된 reasoning 역량이 필요 없는 창의적인 작업이나 간단한 작업에는 덜 적합할 수 있습니다. 체계적이고 단계적인 분석이 요구되는 진정한 복잡성이 관련된 작업에서 이러한 모델을 고려하십시오.
|
||||
</Accordion>
|
||||
|
||||
|
||||
<Accordion title="General Purpose Models" icon="microchip">
|
||||
General purpose 모델은 LLM 선택에서 가장 균형 잡힌 접근 방식을 제공하며, 특정 영역에 극단적으로 특화되지 않으면서도 다양한 작업에 대해 견고한 성능을 제공합니다. 이러한 모델은 다양한 데이터셋으로 학습되었으며, 특정 도메인에서의 최고 성능보다는 다재다능함에 최적화되어 있습니다.
|
||||
|
||||
@@ -82,7 +82,7 @@ LLM을 선택할 때 가장 중요한 단계는 실제로 여러분의 작업이
|
||||
|
||||
General purpose 모델은 특정 도메인에서 특화된 대안들이 보여주는 최고 성능에는 미치지 않을 수 있지만, 운영의 단순성과 모델 관리의 복잡성 감소라는 이점이 있습니다. 신규 프로젝트의 시작점으로 가장 좋은 선택인 경우가 많으며, 팀이 구체적인 필요를 이해하고 나서 특화 모델로 최적화할 수 있습니다.
|
||||
</Accordion>
|
||||
|
||||
|
||||
<Accordion title="Fast & Efficient Models" icon="bolt">
|
||||
Fast and efficient 모델은 고도화된 reasoning 역량보다 속도, 비용 효율, 리소스 효율성을 우선순위에 둡니다. 이러한 모델은 빠른 응답성과 낮은 운영비용이 중요하고, 미묘한 이해나 복잡한 reasoning이 덜 요구되는 고처리량 시나리오에 최적화되어 있습니다.
|
||||
|
||||
@@ -90,7 +90,7 @@ LLM을 선택할 때 가장 중요한 단계는 실제로 여러분의 작업이
|
||||
|
||||
효율적인 모델에서 가장 중요한 고려사항은 그들의 역량이 귀하의 작업 요구와 일치하는지 확인하는 것입니다. 많은 일상적 작업은 효과적으로 처리할 수 있지만, Nuanced한 이해, 복잡한 reasoning, 혹은 고도화된 콘텐츠 생성이 필요한 작업에는 어려움을 겪을 수 있습니다. 정교함보다 속도와 비용이 더 중요한 명확하고 일상적인 작업에 가장 적합합니다.
|
||||
</Accordion>
|
||||
|
||||
|
||||
<Accordion title="Creative Models" icon="pen">
|
||||
Creative 모델은 콘텐츠 생성, 글쓰기 품질, 창의적 사고가 요구되는 작업에 특별히 최적화되어 있습니다. 이러한 모델은 뉘앙스, 톤, 스타일을 이해하면서도 자연스럽고 진정성 있게 느껴지는 매력적이고 맥락에 맞는 콘텐츠를 생성하는 데 뛰어납니다.
|
||||
|
||||
@@ -98,7 +98,7 @@ LLM을 선택할 때 가장 중요한 단계는 실제로 여러분의 작업이
|
||||
|
||||
Creative 모델을 선택할 때는 단순한 텍스트 생성 능력뿐 아니라, 대상, 맥락, 목적에 대한 이해력도 함께 고려해야 합니다. 최상의 creative 모델은 특정 브랜드 목소리에 맞게 출력 내용을 조정하고, 다양한 대상 그룹을 타깃팅하며, 긴 콘텐츠에서도 일관성을 유지할 수 있습니다.
|
||||
</Accordion>
|
||||
|
||||
|
||||
<Accordion title="Open Source Models" icon="code">
|
||||
Open source 모델은 비용 통제, 맞춤화 가능성, 데이터 프라이버시, 배포 유연성 측면에서 독특한 이점을 제공합니다. 이러한 모델은 로컬이나 사설 인프라에서 운용이 가능하여 데이터 처리 및 모델 동작에 대해 완전한 통제권을 제공합니다.
|
||||
|
||||
@@ -151,7 +151,7 @@ content_writer = Agent(
|
||||
)
|
||||
|
||||
data_processor = Agent(
|
||||
role="Data Analysis Specialist",
|
||||
role="Data Analysis Specialist",
|
||||
goal="Extract and organize key data points from research sources",
|
||||
backstory="Detail-oriented analyst focused on accuracy and efficiency",
|
||||
llm=processing_llm, # Fast, cost-effective model for routine tasks
|
||||
@@ -178,7 +178,7 @@ crew = Crew(
|
||||
|
||||
Manager LLM은 모든 작업에 관여하기 때문에 비용 고려가 특히 중요합니다. 모델은 효과적인 조정을 위한 충분한 역량을 제공하면서도, 잦은 사용에도 비용 효율적이어야 합니다. 이는 종종 가장 정교한 모델의 높은 가격 없이도 충분한 추론 능력을 제공하는 모델을 찾는 것을 의미합니다.
|
||||
</Tab>
|
||||
|
||||
|
||||
<Tab title="Function Calling LLM">
|
||||
Function calling LLM은 모든 에이전트 간 도구 사용을 처리하므로, 외부 도구와 API에 크게 의존하는 crew에서 매우 중요합니다. 이 모델은 도구의 역량을 이해하고, 파라미터를 정확하게 추출하며, 도구 응답을 효과적으로 처리하는 데 특화되어야 합니다.
|
||||
|
||||
@@ -186,7 +186,7 @@ crew = Crew(
|
||||
|
||||
많은 팀들은, 창의적이거나 추론에 특화된 모델보다는, 특화된 function calling 모델이나 도구 지원이 강력한 범용 모델이 이 역할에 더 적합하다는 것을 발견합니다. 핵심은 모델이 자연어 지침과 구조화된 도구 호출 간의 간극을 신뢰성 있게 연결할 수 있도록 하는 것입니다.
|
||||
</Tab>
|
||||
|
||||
|
||||
<Tab title="Agent-Specific Overrides">
|
||||
개별 에이전트는 특정 요구가 일반적인 crew 요구와 크게 다를 때, crew 단위 LLM 설정을 재정의할 수 있습니다. 이 기능을 통해 대부분의 에이전트에는 운영 단순성을 유지하면서, 미세한 최적화가 가능합니다.
|
||||
|
||||
@@ -210,7 +210,7 @@ CrewAI 출력의 품질을 결정하는 데 있어 모델 선택보다 효과적
|
||||
|
||||
일반적인 실수로는 목표가 너무 모호하다거나, 필요한 맥락을 제공하지 않는다거나, 성공 기준이 불분명하다거나, 관련 없는 여러 작업을 하나의 설명으로 결합하는 경우가 있습니다. 목표는 단일의 명확한 목적에 집중하며, 에이전트가 성공할 수 있을 정도로 충분한 정보를 제공하는 것입니다.
|
||||
</Accordion>
|
||||
|
||||
|
||||
<Accordion title="예상 산출물 가이드라인" icon="bullseye">
|
||||
예상 산출물 가이드라인은 작업 정의와 에이전트 간의 계약 역할을 하며, 산출물이 어떤 모습이어야 하며 어떻게 평가될 것인지 명확하게 지정합니다. 이러한 가이드라인은 필요한 형식과 구조뿐만 아니라 산출물이 완전하다고 간주되기 위해 반드시 포함되어야 하는 핵심 요소도 설명해야 합니다.
|
||||
|
||||
@@ -230,7 +230,7 @@ CrewAI 출력의 품질을 결정하는 데 있어 모델 선택보다 효과적
|
||||
|
||||
순차적 의존성은 한 작업에서 다른 작업으로 명확한 논리적 진행이 있고, 한 작업의 산출물이 다음 작업의 품질이나 실행 가능성을 실제로 향상시킬 때 가장 효과적입니다. 그러나 적절히 관리되지 않을 경우 병목 현상이 발생할 수 있으니, 반드시 진정으로 필요한 의존성과 단순히 편의상 설정된 의존성을 구분해야 합니다.
|
||||
</Tab>
|
||||
|
||||
|
||||
<Tab title="병렬 실행">
|
||||
병렬 실행은 작업 간에 상호 독립적이거나, 시간 효율성이 중요하거나, 서로 다른 전문 분야가 협업 없이 각자의 역량을 발휘할 수 있을 때 가치가 있습니다. 이 방식은 전체 실행 시간을 크게 줄일 수 있으며, 각 전문 에이전트가 자신의 강점을 동시에 발휘할 수 있습니다.
|
||||
|
||||
@@ -286,10 +286,10 @@ domain_expert = Agent(
|
||||
role="B2B SaaS Marketing Strategist",
|
||||
goal="Develop comprehensive go-to-market strategies for enterprise software",
|
||||
backstory="""
|
||||
You have 10+ years of experience scaling B2B SaaS companies from Series A to IPO.
|
||||
You understand the nuances of enterprise sales cycles, the importance of product-market
|
||||
fit in different verticals, and how to balance growth metrics with unit economics.
|
||||
You've worked with companies like Salesforce, HubSpot, and emerging unicorns, giving
|
||||
You have 10+ years of experience scaling B2B SaaS companies from Series A to IPO.
|
||||
You understand the nuances of enterprise sales cycles, the importance of product-market
|
||||
fit in different verticals, and how to balance growth metrics with unit economics.
|
||||
You've worked with companies like Salesforce, HubSpot, and emerging unicorns, giving
|
||||
you perspective on both established and disruptive go-to-market strategies.
|
||||
""",
|
||||
llm=LLM(model="claude-3-5-sonnet", temperature=0.3) # Balanced creativity with domain knowledge
|
||||
@@ -317,9 +317,9 @@ tech_writer = Agent(
|
||||
role="API Documentation Specialist", # Specific role for clear LLM requirements
|
||||
goal="Create comprehensive, developer-friendly API documentation",
|
||||
backstory="""
|
||||
You're a technical writer with 8+ years documenting REST APIs, GraphQL endpoints,
|
||||
and SDK integration guides. You've worked with developer tools companies and
|
||||
understand what developers need: clear examples, comprehensive error handling,
|
||||
You're a technical writer with 8+ years documenting REST APIs, GraphQL endpoints,
|
||||
and SDK integration guides. You've worked with developer tools companies and
|
||||
understand what developers need: clear examples, comprehensive error handling,
|
||||
and practical use cases. You prioritize accuracy and usability over marketing fluff.
|
||||
""",
|
||||
llm=LLM(
|
||||
@@ -327,7 +327,7 @@ tech_writer = Agent(
|
||||
temperature=0.1 # Low temperature for accuracy
|
||||
),
|
||||
tools=[code_analyzer_tool, api_scanner_tool],
|
||||
verbose=True
|
||||
verbose=True
|
||||
)
|
||||
```
|
||||
|
||||
@@ -351,26 +351,26 @@ tech_writer = Agent(
|
||||
- 어떤 agent가 가장 복잡한 reasoning 작업을 처리합니까?
|
||||
- 어떤 agent가 주로 데이터 처리 또는 포매팅을 담당합니까?
|
||||
- 도구에 크게 의존하는 agent가 있습니까?
|
||||
|
||||
|
||||
**Action**: 현재 agent 역할을 문서화하고 최적화 기회를 식별하세요.
|
||||
</Step>
|
||||
|
||||
|
||||
<Step title="Crew 수준 전략 구현" icon="users-gear">
|
||||
**기본값 설정:**
|
||||
```python
|
||||
# crew에 신뢰할 수 있는 기본값으로 시작합니다
|
||||
default_crew_llm = LLM(model="gpt-4o-mini") # 비용 효율적인 기준점
|
||||
|
||||
|
||||
crew = Crew(
|
||||
agents=[...],
|
||||
tasks=[...],
|
||||
memory=True
|
||||
)
|
||||
```
|
||||
|
||||
|
||||
**Action**: 개별 agent 최적화 전에 crew의 기본 LLM을 설정하세요.
|
||||
</Step>
|
||||
|
||||
|
||||
<Step title="고임팩트 agent 최적화" icon="star">
|
||||
**핵심 agent 식별 및 업그레이드:**
|
||||
```python
|
||||
@@ -380,25 +380,25 @@ tech_writer = Agent(
|
||||
llm=LLM(model="gemini-2.5-flash-preview-05-20"), # 조율을 위한 프리미엄
|
||||
# ... 나머지 설정
|
||||
)
|
||||
|
||||
# Creative 또는 고객 대응 agent
|
||||
|
||||
# Creative 또는 고객 대응 agent
|
||||
content_agent = Agent(
|
||||
role="Content Creator",
|
||||
llm=LLM(model="claude-3-5-sonnet"), # 글쓰기에 최적
|
||||
# ... 나머지 설정
|
||||
)
|
||||
```
|
||||
|
||||
|
||||
**Action**: 복잡도의 80%를 처리하는 agent 20%를 업그레이드하세요.
|
||||
</Step>
|
||||
|
||||
|
||||
<Step title="엔터프라이즈 테스트로 검증" icon="test-tube">
|
||||
**agent를 프로덕션에 배포한 후:**
|
||||
- [CrewAI Enterprise platform](https://app.crewai.com)을 활용하여 모델 선택을 A/B 테스트하세요
|
||||
- [CrewAI AMP platform](https://app.crewai.com)을 활용하여 모델 선택을 A/B 테스트하세요
|
||||
- 실제 입력으로 여러 번 반복 테스트하여 일관성과 성능을 측정하세요
|
||||
- 최적화된 셋업 전반의 비용과 성능을 비교하세요
|
||||
- 팀과 결과를 공유하여 협업 의사결정을 지원하세요
|
||||
|
||||
|
||||
**Action**: 테스트 플랫폼을 활용해 추측이 아닌 데이터 기반 검증을 실행하세요.
|
||||
</Step>
|
||||
</Steps>
|
||||
@@ -413,7 +413,7 @@ tech_writer = Agent(
|
||||
|
||||
그러나 reasoning 모델은 일반적으로 더 높은 비용과 느린 응답 시간을 수반하므로, 복잡한 사고가 필요한 작업에서 실질적인 가치를 제공할 때에만 사용하는 것이 좋으며, 복잡한 reasoning이 필요하지 않은 단순한 작업에는 권장되지 않습니다.
|
||||
</Tab>
|
||||
|
||||
|
||||
<Tab title="Creative Models">
|
||||
creative 모델은 콘텐츠 생성이 주요 결과물이고 콘텐츠의 품질, 스타일, 참여도가 성공에 직접적으로 영향을 미칠 때 유용합니다. 이 모델들은 글의 질과 스타일이 매우 중요하거나, 창의적인 아이디어 창출 또는 브레인스토밍이 필요하거나, 브랜드의 목소리와 톤이 중요한 경우에 특히 뛰어납니다.
|
||||
|
||||
@@ -421,7 +421,7 @@ tech_writer = Agent(
|
||||
|
||||
creative 모델은 정밀성과 사실적 정확성이 스타일이나 참여도보다 더 중요한 기술적 또는 분석적 작업에는 덜 적합할 수 있습니다. 결과물의 창의적·의사소통적 측면이 성공의 주요 요인일 때 사용하는 것이 가장 좋습니다.
|
||||
</Tab>
|
||||
|
||||
|
||||
<Tab title="Efficient Models">
|
||||
efficient 모델은 빠른 속도와 비용 최적화가 우선순위인 고빈도, 반복 작업에 이상적입니다. 이러한 모델은 작업의 매개변수가 명확하고 잘 정의되어 있으며, 복잡한 reasoning이나 창의적인 능력이 필요하지 않을 때 가장 잘 작동합니다.
|
||||
|
||||
@@ -429,7 +429,7 @@ tech_writer = Agent(
|
||||
|
||||
efficient 모델에서는 해당 모델의 역량이 작업 요구 사항과 일치하는지 확인하는 것이 핵심입니다. 다양한 반복 작업을 효과적으로 처리할 수 있지만, 뉘앙스 이해, 복잡한 reasoning, 고도화된 콘텐츠 생성이 필요한 작업에서는 한계가 있을 수 있습니다.
|
||||
</Tab>
|
||||
|
||||
|
||||
<Tab title="Open Source Models">
|
||||
open source 모델은 예산 제약이 크거나, 데이터 프라이버시 요구 사항이 있거나, 맞춤화가 중요하거나, 운영·컴플라이언스 목적상 로컬 배포가 필요한 경우에 매력적인 선택이 됩니다.
|
||||
|
||||
@@ -451,12 +451,12 @@ tech_writer = Agent(
|
||||
```python
|
||||
# 전략 agent는 프리미엄 모델 사용
|
||||
manager = Agent(role="Strategy Manager", llm=LLM(model="gpt-4o"))
|
||||
|
||||
# 처리 agent는 효율적인 모델 사용
|
||||
|
||||
# 처리 agent는 효율적인 모델 사용
|
||||
processor = Agent(role="Data Processor", llm=LLM(model="gpt-4o-mini"))
|
||||
```
|
||||
</Accordion>
|
||||
|
||||
|
||||
<Accordion title="Crew 수준과 Agent 수준 LLM 계층 혼동" icon="shuffle">
|
||||
**문제점**: CrewAI의 LLM 계층 구조(crew LLM, manager LLM, agent LLM)를 이해하지 못해 설정이 충돌하거나 적절히 조정되지 않음.
|
||||
|
||||
@@ -470,12 +470,12 @@ tech_writer = Agent(
|
||||
manager_llm=LLM(model="gpt-4o"), # crew 조정용
|
||||
process=Process.hierarchical # manager_llm 사용 시
|
||||
)
|
||||
|
||||
|
||||
# agent는 특별히 지정하지 않으면 crew LLM을 상속받음
|
||||
agent1 = Agent(llm=LLM(model="claude-3-5-sonnet")) # 특정 요구에 따라 오버라이드
|
||||
```
|
||||
</Accordion>
|
||||
|
||||
|
||||
<Accordion title="함수 호출 모델 미스매치" icon="screwdriver-wrench">
|
||||
**문제점**: 기능 위주(함수 호출, 툴 활용 등) CrewAI workflow에서 필요한 함수 호출 성능을 무시한 채, 일반적인 모델 특성(예: 창의성)만을 보고 모델을 선택하는 실수.
|
||||
|
||||
@@ -493,7 +493,7 @@ tech_writer = Agent(
|
||||
)
|
||||
```
|
||||
</Accordion>
|
||||
|
||||
|
||||
<Accordion title="테스트 없는 조기 최적화" icon="gear">
|
||||
**문제점**: 실제 CrewAI workflow 및 업무 테스트 없이 이론상 성능만으로 복잡하게 모델을 선정하고 구성하는 실수.
|
||||
|
||||
@@ -503,7 +503,7 @@ tech_writer = Agent(
|
||||
```python
|
||||
# 이렇게 시작
|
||||
crew = Crew(agents=[...], tasks=[...], llm=LLM(model="gpt-4o-mini"))
|
||||
|
||||
|
||||
# 성능을 테스트하고, 필요에 따라 특정 agent만 최적화
|
||||
# Enterprise 플랫폼 테스트를 통해 개선 사항 검증
|
||||
```
|
||||
@@ -541,7 +541,7 @@ tech_writer = Agent(
|
||||
|
||||
### 엔터프라이즈급 모델 검증
|
||||
|
||||
LLM 선택을 최적화하고자 하는 팀을 위해 **CrewAI Enterprise 플랫폼**은 기본적인 CLI 테스트를 훨씬 능가하는 정교한 테스트 기능을 제공합니다. 이 플랫폼은 데이터 기반의 LLM 전략 의사결정을 지원하는 종합적인 모델 평가를 가능하게 합니다.
|
||||
LLM 선택을 최적화하고자 하는 팀을 위해 **CrewAI AMP 플랫폼**은 기본적인 CLI 테스트를 훨씬 능가하는 정교한 테스트 기능을 제공합니다. 이 플랫폼은 데이터 기반의 LLM 전략 의사결정을 지원하는 종합적인 모델 평가를 가능하게 합니다.
|
||||
|
||||
<Frame>
|
||||

|
||||
@@ -571,23 +571,23 @@ Enterprise 플랫폼은 모델 선택을 단순한 추측이 아닌 데이터
|
||||
<Card title="작업 중심 선택" icon="bullseye">
|
||||
이론적 능력이나 일반적인 평판이 아니라, 작업에 실제로 필요한 것에 따라 모델을 선택하세요.
|
||||
</Card>
|
||||
|
||||
|
||||
<Card title="능력 일치" icon="puzzle-piece">
|
||||
최적의 성능을 위해 모델의 강점을 agent의 역할 및 책임과 일치시키세요.
|
||||
</Card>
|
||||
|
||||
|
||||
<Card title="전략적 일관성" icon="link">
|
||||
관련 구성 요소와 워크플로 전반에 걸쳐 일관된 모델 선택 전략을 유지하세요.
|
||||
</Card>
|
||||
|
||||
|
||||
<Card title="실용적 테스트" icon="flask">
|
||||
벤치마크에만 의존하지 말고 실제 사용을 통해 선택을 검증하세요.
|
||||
</Card>
|
||||
|
||||
|
||||
<Card title="반복적 개선" icon="arrow-up">
|
||||
단순하게 시작하고 실제 성능과 필요에 따라 최적화하세요.
|
||||
</Card>
|
||||
|
||||
|
||||
<Card title="운영적 균형" icon="scale-balanced">
|
||||
성능 요구사항과 비용 및 복잡성 제약을 균형 있게 맞추세요.
|
||||
</Card>
|
||||
@@ -614,7 +614,7 @@ Enterprise 플랫폼은 모델 선택을 단순한 추측이 아닌 데이터
|
||||
<Tabs>
|
||||
<Tab title="Reasoning & Planning">
|
||||
**매니저 LLM 및 복잡한 분석에 최적**
|
||||
|
||||
|
||||
| Model | Intelligence Score | Cost ($/M tokens) | Speed | Best Use in CrewAI |
|
||||
|:------|:------------------|:------------------|:------|:------------------|
|
||||
| **o3** | 70 | $17.50 | 빠름 | 복잡한 멀티 에이전트 조정용 매니저 LLM |
|
||||
@@ -625,10 +625,10 @@ Enterprise 플랫폼은 모델 선택을 단순한 추측이 아닌 데이터
|
||||
|
||||
이 모델들은 다단계 reasoning에 뛰어나며, 전략을 개발하거나 다른 에이전트를 조정하거나 복잡한 정보를 분석해야 하는 에이전트에 이상적입니다.
|
||||
</Tab>
|
||||
|
||||
|
||||
<Tab title="Coding & Technical">
|
||||
**개발 및 도구 중심의 워크플로우에 최적**
|
||||
|
||||
|
||||
| Model | Coding Performance | Tool Use Score | Cost ($/M tokens) | Best Use in CrewAI |
|
||||
|:------|:------------------|:---------------|:------------------|:------------------|
|
||||
| **Claude 4 Sonnet** | 우수 | 72.7% | $6.00 | 주력 코딩 에이전트, 기술 문서화 |
|
||||
@@ -639,10 +639,10 @@ Enterprise 플랫폼은 모델 선택을 단순한 추측이 아닌 데이터
|
||||
|
||||
이 모델들은 코드 생성, 디버깅, 기술 문제 해결에 최적화되어 있어, 개발 중심 팀에 적합합니다.
|
||||
</Tab>
|
||||
|
||||
|
||||
<Tab title="Speed & Efficiency">
|
||||
**대량 처리 및 실시간 애플리케이션에 최적**
|
||||
|
||||
|
||||
| Model | Speed (tokens/s) | Latency (TTFT) | Cost ($/M tokens) | Best Use in CrewAI |
|
||||
|:------|:-----------------|:---------------|:------------------|:------------------|
|
||||
| **Llama 4 Scout** | 2,600 | 0.33s | $0.27 | 대량 처리 에이전트 |
|
||||
@@ -653,10 +653,10 @@ Enterprise 플랫폼은 모델 선택을 단순한 추측이 아닌 데이터
|
||||
|
||||
이 모델들은 속도와 효율을 우선시하며, 일상적 운영 또는 신속한 응답이 필요한 에이전트에게 최적입니다. **팁**: 이러한 모델을 Groq와 같은 빠른 추론 제공자와 함께 사용하면 더욱 우수한 성능을 낼 수 있습니다. 특히 Llama와 같은 오픈소스 모델에 적합합니다.
|
||||
</Tab>
|
||||
|
||||
|
||||
<Tab title="Balanced Performance">
|
||||
**일반 팀을 위한 최고의 다목적 모델**
|
||||
|
||||
|
||||
| Model | Overall Score | Versatility | Cost ($/M tokens) | Best Use in CrewAI |
|
||||
|:------|:--------------|:------------|:------------------|:------------------|
|
||||
| **GPT-4.1** | 53 | 탁월 | $3.50 | 범용 팀 LLM |
|
||||
@@ -677,19 +677,19 @@ Enterprise 플랫폼은 모델 선택을 단순한 추측이 아닌 데이터
|
||||
|
||||
**전략**: 프리미엄 모델이 전략적 사고를 담당하고, 효율적인 모델이 일상적 operation을 처리하는 멀티 모델 접근법을 구현하세요.
|
||||
</Accordion>
|
||||
|
||||
|
||||
<Accordion title="Cost-Conscious Crews" icon="dollar-sign">
|
||||
**예산이 주요 제약일 때**: **DeepSeek R1**, **Llama 4 Scout**, **Gemini 2.0 Flash**와 같은 모델에 집중하세요. 이 모델들은 훨씬 낮은 비용으로 강력한 퍼포먼스를 제공합니다.
|
||||
|
||||
**전략**: 대부분의 에이전트에는 비용 효율이 높은 모델을 사용하고, 가장 중요한 decision-making 역할에만 프리미엄 모델을 남겨두세요.
|
||||
</Accordion>
|
||||
|
||||
|
||||
<Accordion title="Specialized Workflows" icon="screwdriver-wrench">
|
||||
**특정 도메인 전문성이 필요할 때**: 주된 사용 사례에 최적화된 모델을 선택하세요. 코딩에는 **Claude 4** 시리즈, 리서치에는 **Gemini 2.5 Pro**, function calling에는 **Llama 405B**를 사용하세요.
|
||||
|
||||
**전략**: crew의 주요 기능에 따라 모델을 선택해, 핵심 역량이 모델의 강점과 일치하도록 하세요.
|
||||
</Accordion>
|
||||
|
||||
|
||||
<Accordion title="Enterprise & Privacy" icon="shield">
|
||||
**데이터 민감한 operation의 경우**: 로컬에서 배포 가능하면서 경쟁력 있는 퍼포먼스를 유지하는 오픈 소스 모델인 **Llama 4** 시리즈, **DeepSeek V3**, **Qwen3** 등을 고려하세요.
|
||||
|
||||
@@ -715,16 +715,16 @@ Enterprise 플랫폼은 모델 선택을 단순한 추측이 아닌 데이터
|
||||
<Step title="검증된 모델로 시작하기">
|
||||
여러 차원에서 우수한 성능을 제공하며 실제 환경에서 광범위하게 검증된 **GPT-4.1**, **Claude 3.7 Sonnet**, **Gemini 2.0 Flash**와 같은 잘 알려진 모델부터 시작하십시오.
|
||||
</Step>
|
||||
|
||||
|
||||
<Step title="특화된 요구 사항 식별">
|
||||
crew에 코드 작성, reasoning, 속도 등 특정 요구가 있는지 확인하고, 이러한 요구에 부합하는 **Claude 4 Sonnet**(개발용) 또는 **o3**(복잡한 분석용)과 같은 특화 모델을 고려하십시오. 속도가 중요한 애플리케이션의 경우, 모델 선택과 더불어 **Groq**와 같은 빠른 추론 제공자를 고려할 수 있습니다.
|
||||
</Step>
|
||||
|
||||
|
||||
<Step title="다중 모델 전략 구현">
|
||||
각 에이전트의 역할에 따라 다양한 모델을 사용하세요. 관리자와 복잡한 작업에는 고성능 모델을, 일상적 운영에는 효율적인 모델을 적용합니다.
|
||||
</Step>
|
||||
|
||||
|
||||
<Step title="모니터링 및 최적화">
|
||||
사용 사례와 관련된 성능 지표를 추적하고, 새로운 모델이 출시되거나 가격이 변동될 때 모델 선택을 조정할 준비를 하십시오.
|
||||
</Step>
|
||||
</Steps>
|
||||
</Steps>
|
||||
|
||||
Reference in New Issue
Block a user