--- title: تكامل Langtrace description: كيفية مراقبة التكلفة وزمن الاستجابة وأداء وكلاء CrewAI باستخدام Langtrace، أداة مراقبة خارجية. icon: chart-line mode: "wide" --- # نظرة عامة على Langtrace Langtrace هو أداة مفتوحة المصدر خارجية تساعدك في إعداد المراقبة والتقييمات لنماذج اللغة الكبيرة (LLMs) وأطر عمل LLM وقواعد بيانات المتجهات. على الرغم من أنها ليست مبنية مباشرة في CrewAI، يمكن استخدام Langtrace جنباً إلى جنب مع CrewAI للحصول على رؤية عميقة في التكلفة وزمن الاستجابة وأداء وكلاء CrewAI. يتيح لك هذا التكامل تسجيل المعاملات الفائقة ومراقبة تراجعات الأداء وإنشاء عملية للتحسين المستمر لوكلائك. ![نظرة عامة على سلسلة مختارة من جلسات تشغيل الوكلاء](/images/langtrace1.png) ![نظرة عامة على تتبعات الوكلاء](/images/langtrace2.png) ![نظرة عامة على تتبعات LLM بالتفصيل](/images/langtrace3.png) ## تعليمات الإعداد سجّل بزيارة [https://langtrace.ai/signup](https://langtrace.ai/signup). عيّن نوع المشروع إلى `CrewAI` وقم بتوليد مفتاح API. استخدم الأمر التالي: ```bash pip install langtrace-python-sdk ``` استورد وهيّئ Langtrace في بداية نصك البرمجي، قبل أي استيرادات CrewAI: ```python from langtrace_python_sdk import langtrace langtrace.init(api_key='') # Now import CrewAI modules from crewai import Agent, Task, Crew ``` ### الميزات وتطبيقاتها على CrewAI 1. **تتبع رموز LLM والتكاليف** - مراقبة استخدام الرموز والتكاليف المرتبطة لكل تفاعل وكيل CrewAI. 2. **رسم بياني للتتبع لخطوات التنفيذ** - تصور تدفق تنفيذ مهام CrewAI، بما في ذلك زمن الاستجابة والسجلات. - مفيد لتحديد الاختناقات في سير عمل الوكلاء. 3. **تنظيم مجموعات البيانات مع التعليق اليدوي** - إنشاء مجموعات بيانات من مخرجات مهام CrewAI للتدريب أو التقييم المستقبلي. 4. **إدارة إصدارات المطالبات** - تتبع الإصدارات المختلفة من المطالبات المستخدمة في وكلاء CrewAI. - مفيد لاختبار A/B وتحسين أداء الوكلاء. 5. **ساحة المطالبات مع مقارنات النماذج** - اختبار ومقارنة مطالبات ونماذج مختلفة لوكلاء CrewAI قبل النشر. 6. **الاختبارات والتقييمات** - إعداد اختبارات آلية لوكلاء ومهام CrewAI.