Files
crewAI/docs/ar/observability/overview.mdx

121 lines
6.2 KiB
Plaintext

---
title: "نظرة عامة"
description: "راقب وقيّم وحسّن وكلاء CrewAI الخاصين بك باستخدام أدوات مراقبة شاملة"
icon: "face-smile"
mode: "wide"
---
## المراقبة في CrewAI
تعد المراقبة أمراً بالغ الأهمية لفهم كيفية أداء وكلاء CrewAI، وتحديد الاختناقات، وضمان التشغيل الموثوق في بيئات الإنتاج. يغطي هذا القسم مختلف الأدوات والمنصات التي توفر إمكانيات المراقبة والتقييم والتحسين لسير عمل وكلائك.
## لماذا تعد المراقبة مهمة
- **مراقبة الأداء**: تتبع أوقات تنفيذ الوكلاء واستخدام الرموز المميزة واستهلاك الموارد
- **ضمان الجودة**: تقييم جودة المخرجات واتساقها عبر سيناريوهات مختلفة
- **تصحيح الأخطاء**: تحديد وحل المشكلات في سلوك الوكلاء وتنفيذ المهام
- **إدارة التكاليف**: مراقبة استخدام API لنماذج LLM والتكاليف المرتبطة بها
- **التحسين المستمر**: جمع الرؤى لتحسين أداء الوكلاء بمرور الوقت
## أدوات المراقبة المتاحة
### منصات المراقبة والتتبع
<CardGroup cols={2}>
<Card title="LangDB" icon="database" href="/ar/observability/langdb">
تتبع شامل لسير عمل CrewAI مع التقاط تلقائي لتفاعلات الوكلاء.
</Card>
<Card title="OpenLIT" icon="magnifying-glass-chart" href="/ar/observability/openlit">
مراقبة أصلية لـ OpenTelemetry مع تتبع التكاليف وتحليلات الأداء.
</Card>
<Card title="MLflow" icon="bars-staggered" href="/ar/observability/mlflow">
إدارة دورة حياة تعلم الآلة مع إمكانيات التتبع والتقييم.
</Card>
<Card title="Langfuse" icon="link" href="/ar/observability/langfuse">
منصة هندسة LLM مع تتبع وتحليلات تفصيلية.
</Card>
<Card title="Langtrace" icon="chart-line" href="/ar/observability/langtrace">
مراقبة مفتوحة المصدر لنماذج LLM وأطر العمل الوكيلية.
</Card>
<Card title="Arize Phoenix" icon="meteor" href="/ar/observability/arize-phoenix">
منصة مراقبة الذكاء الاصطناعي للمراقبة واستكشاف الأخطاء وإصلاحها.
</Card>
<Card title="Portkey" icon="key" href="/ar/observability/portkey">
بوابة ذكاء اصطناعي مع مراقبة شاملة وميزات موثوقية.
</Card>
<Card title="Opik" icon="meteor" href="/ar/observability/opik">
تصحيح الأخطاء وتقييم ومراقبة تطبيقات LLM مع تتبع شامل.
</Card>
<Card title="Weave" icon="network-wired" href="/ar/observability/weave">
منصة Weights & Biases لتتبع وتقييم تطبيقات الذكاء الاصطناعي.
</Card>
</CardGroup>
### التقييم وضمان الجودة
<CardGroup cols={2}>
<Card title="Patronus AI" icon="shield-check" href="/ar/observability/patronus-evaluation">
منصة تقييم شاملة لمخرجات LLM وسلوكيات الوكلاء.
</Card>
</CardGroup>
## مقاييس المراقبة الرئيسية
### مقاييس الأداء
- **وقت التنفيذ**: المدة التي يستغرقها الوكلاء لإكمال المهام
- **استخدام الرموز المميزة**: الرموز المدخلة/المخرجة المستهلكة من استدعاءات LLM
- **زمن استجابة API**: أوقات الاستجابة من الخدمات الخارجية
- **معدل النجاح**: نسبة المهام المكتملة بنجاح
### مقاييس الجودة
- **دقة المخرجات**: صحة استجابات الوكلاء
- **الاتساق**: الموثوقية عبر مدخلات متشابهة
- **الصلة**: مدى تطابق المخرجات مع النتائج المتوقعة
- **السلامة**: الامتثال لسياسات المحتوى والإرشادات
### مقاييس التكلفة
- **تكاليف API**: النفقات من استخدام مزودي LLM
- **استخدام الموارد**: استهلاك الحوسبة والذاكرة
- **التكلفة لكل مهمة**: الكفاءة الاقتصادية لعمليات الوكلاء
- **تتبع الميزانية**: المراقبة مقابل حدود الإنفاق
## البدء
1. **اختر أدواتك**: حدد منصات المراقبة التي تتوافق مع احتياجاتك
2. **أضف الأدوات لكودك**: أضف المراقبة لتطبيقات CrewAI الخاصة بك
3. **أعدّ لوحات المعلومات**: هيئ العروض المرئية للمقاييس الرئيسية
4. **حدد التنبيهات**: أنشئ إشعارات للأحداث المهمة
5. **أنشئ خطوط الأساس**: قس الأداء الأولي للمقارنة
6. **كرر وحسّن**: استخدم الرؤى لتحسين وكلائك
## أفضل الممارسات
### مرحلة التطوير
- استخدم التتبع التفصيلي لفهم سلوك الوكلاء
- طبّق مقاييس التقييم مبكراً في التطوير
- راقب استخدام الموارد أثناء الاختبار
- أعدّ فحوصات جودة آلية
### مرحلة الإنتاج
- طبّق مراقبة وتنبيهات شاملة
- تتبع اتجاهات الأداء بمرور الوقت
- راقب الشذوذ والتدهور
- حافظ على رؤية التكاليف والتحكم بها
### التحسين المستمر
- مراجعات أداء وتحسين منتظمة
- اختبار A/B لتكوينات وكلاء مختلفة
- حلقات تغذية راجعة لتحسين الجودة
- توثيق الدروس المستفادة
اختر أدوات المراقبة التي تناسب حالة الاستخدام والبنية التحتية ومتطلبات المراقبة الخاصة بك لضمان أن وكلاء CrewAI يعملون بشكل موثوق وفعال.