mirror of
https://github.com/crewAIInc/crewAI.git
synced 2025-12-16 04:18:35 +00:00
* fix: correct code example language inconsistency in pt-BR docs * fix: fix: fully standardize code example language and naming in pt-BR docs * fix: fix: fully standardize code example language and naming in pt-BR docs fixed variables * fix: fix: fully standardize code example language and naming in pt-BR docs fixed params --------- Co-authored-by: Lucas Gomide <lucaslg200@gmail.com>
250 lines
8.9 KiB
Plaintext
250 lines
8.9 KiB
Plaintext
---
|
|
title: Proteção contra Alucinações
|
|
description: "Previna e detecte alucinações de IA nas suas tarefas do CrewAI"
|
|
icon: "shield-check"
|
|
---
|
|
|
|
## Visão Geral
|
|
|
|
A Proteção contra Alucinações é um recurso empresarial que valida o conteúdo gerado por IA para garantir que esteja fundamentado em fatos e não contenha alucinações. Ela analisa as saídas das tarefas em relação ao contexto de referência e fornece feedback detalhado quando é detectado conteúdo potencialmente alucinado.
|
|
|
|
## O que são Alucinações?
|
|
|
|
Alucinações em IA ocorrem quando modelos de linguagem geram conteúdos que parecem plausíveis, mas estão factualmente incorretos ou não são suportados pelo contexto fornecido. A Proteção contra Alucinações ajuda a prevenir esses problemas por meio de:
|
|
|
|
- Comparação das saídas com o contexto de referência
|
|
- Avaliação da fidelidade ao material de origem
|
|
- Fornecimento de feedback detalhado sobre conteúdo problemático
|
|
- Suporte a limiares personalizados para rigor da validação
|
|
|
|
## Uso Básico
|
|
|
|
### Configurando a Proteção
|
|
|
|
```python
|
|
from crewai.tasks.hallucination_guardrail import HallucinationGuardrail
|
|
from crewai import LLM
|
|
|
|
# Uso básico - utiliza o expected_output da tarefa como contexto
|
|
protecao = HallucinationGuardrail(
|
|
llm=LLM(model="gpt-4o-mini")
|
|
)
|
|
|
|
# Com contexto de referência explícito
|
|
protecao_com_contexto = HallucinationGuardrail(
|
|
context="IA ajuda em várias tarefas, incluindo análise e geração.",
|
|
llm=LLM(model="gpt-4o-mini")
|
|
)
|
|
```
|
|
|
|
### Adicionando às Tarefas
|
|
|
|
```python
|
|
from crewai import Task
|
|
|
|
# Crie sua tarefa com a proteção
|
|
minha_tarefa = Task(
|
|
description="Escreva um resumo sobre as capacidades da IA",
|
|
expected_output="Um resumo factual baseado no contexto fornecido",
|
|
agent=meu_agente,
|
|
guardrail=protecao # Adiciona a proteção para validar a saída
|
|
)
|
|
```
|
|
|
|
## Configuração Avançada
|
|
|
|
### Validação com Limiar Personalizado
|
|
|
|
Para validação mais rigorosa, é possível definir um limiar de fidelidade personalizado (escala de 0-10):
|
|
|
|
```python
|
|
# Proteção rigorosa exigindo alta pontuação de fidelidade
|
|
protecao_rigorosa = HallucinationGuardrail(
|
|
context="Computação quântica utiliza qubits que existem em estados de superposição.",
|
|
llm=LLM(model="gpt-4o-mini"),
|
|
threshold=8.0 # Requer pontuação >= 8 para validar
|
|
)
|
|
```
|
|
|
|
### Incluindo Contexto da Resposta de Ferramentas
|
|
|
|
Se sua tarefa utiliza ferramentas, você pode incluir as respostas das ferramentas para validação mais precisa:
|
|
|
|
```python
|
|
# Proteção com contexto de resposta da ferramenta
|
|
protecao_clima = HallucinationGuardrail(
|
|
context="Informações meteorológicas atuais para o local solicitado",
|
|
llm=LLM(model="gpt-4o-mini"),
|
|
tool_response="API do Clima retornou: Temperatura 22°C, Umidade 65%, Céu limpo"
|
|
)
|
|
```
|
|
|
|
## Como Funciona
|
|
|
|
### Processo de Validação
|
|
|
|
1. **Análise de Contexto**: A proteção compara a saída da tarefa com o contexto de referência fornecido
|
|
2. **Pontuação de Fidelidade**: Usa um avaliador interno para atribuir uma pontuação de fidelidade (0-10)
|
|
3. **Determinação do Veredito**: Determina se o conteúdo é fiel ou contém alucinações
|
|
4. **Verificação de Limiar**: Se um limiar personalizado for definido, valida contra essa pontuação
|
|
5. **Geração de Feedback**: Fornece motivos detalhados caso a validação falhe
|
|
|
|
### Lógica de Validação
|
|
|
|
- **Modo Padrão**: Utiliza validação baseada em veredito (FIÉL vs ALUCINADO)
|
|
- **Modo com Limiar**: Requer que a pontuação de fidelidade atinja ou supere o limiar especificado
|
|
- **Tratamento de Erros**: Lida com erros de avaliação de forma elegante e fornece feedback informativo
|
|
|
|
## Resultados da Proteção
|
|
|
|
A proteção retorna resultados estruturados indicando o status da validação:
|
|
|
|
```python
|
|
# Exemplo de estrutura de resultado da proteção
|
|
{
|
|
"valid": False,
|
|
"feedback": "Content appears to be hallucinated (score: 4.2/10, verdict: HALLUCINATED). The output contains information not supported by the provided context."
|
|
}
|
|
```
|
|
|
|
### Propriedades do Resultado
|
|
|
|
- **valid**: Booleano indicando se a saída passou na validação
|
|
- **feedback**: Explicação detalhada quando a validação falha, incluindo:
|
|
- Pontuação de fidelidade
|
|
- Classificação do veredito
|
|
- Motivos específicos para a falha
|
|
|
|
## Integração com o Sistema de Tarefas
|
|
|
|
### Validação Automática
|
|
|
|
Quando uma proteção é adicionada à tarefa, ela valida automaticamente a saída antes da tarefa ser marcada como concluída:
|
|
|
|
```python
|
|
# Fluxo de validação de saída da tarefa
|
|
task_output = meu_agente.execute_task(minha_tarefa)
|
|
resultado_validacao = protecao(task_output)
|
|
|
|
if resultado_validacao.valid:
|
|
# Tarefa concluída com sucesso
|
|
return task_output
|
|
else:
|
|
# Tarefa falha com feedback de validação
|
|
raise ValidationError(resultado_validacao.feedback)
|
|
```
|
|
|
|
### Rastreamento de Eventos
|
|
|
|
A proteção se integra ao sistema de eventos do CrewAI para fornecer observabilidade:
|
|
|
|
- **Validação Iniciada**: Quando a avaliação da proteção começa
|
|
- **Validação Concluída**: Quando a avaliação termina com resultados
|
|
- **Falha na Validação**: Quando ocorrem erros técnicos durante a avaliação
|
|
|
|
## Melhores Práticas
|
|
|
|
### Diretrizes para o Contexto
|
|
|
|
<Steps>
|
|
<Step title="Forneça Contexto Abrangente">
|
|
Inclua todas as informações factuais relevantes nas quais a IA deve basear sua saída:
|
|
|
|
```python
|
|
contexto = """
|
|
Empresa XYZ foi fundada em 2020 e é especializada em soluções de energia renovável.
|
|
Possui 150 funcionários e faturou R$ 50 milhões em 2023.
|
|
Seus principais produtos incluem painéis solares e turbinas eólicas.
|
|
"""
|
|
```
|
|
</Step>
|
|
|
|
<Step title="Mantenha o Contexto Relevante">
|
|
Inclua apenas informações diretamente relacionadas à tarefa para evitar confusão:
|
|
|
|
```python
|
|
# Bom: Contexto focado
|
|
contexto = "O clima atual em Nova York é 18°C com chuva leve."
|
|
|
|
# Evite: Informações irrelevantes
|
|
contexto = "The weather is 18°C. The city has 8 million people. Traffic is heavy."
|
|
```
|
|
</Step>
|
|
|
|
<Step title="Atualize o Contexto Regularmente">
|
|
Certifique-se de que seu contexto de referência reflita informações atuais e precisas.
|
|
</Step>
|
|
</Steps>
|
|
|
|
### Seleção de Limiar
|
|
|
|
<Steps>
|
|
<Step title="Comece com a Validação Padrão">
|
|
Inicie sem limiares personalizados para entender a performance inicial.
|
|
</Step>
|
|
|
|
<Step title="Ajuste Conforme as Necessidades">
|
|
- **Conteúdo crítico**: Use limiar 8-10 para máxima precisão
|
|
- **Conteúdo geral**: Use limiar 6-7 para validação equilibrada
|
|
- **Conteúdo criativo**: Use limiar 4-5 ou validação padrão baseada em veredito
|
|
</Step>
|
|
|
|
<Step title="Monitore e Itere">
|
|
Acompanhe os resultados da validação e ajuste os limiares conforme falsos positivos/negativos.
|
|
</Step>
|
|
</Steps>
|
|
|
|
## Considerações de Performance
|
|
|
|
### Impacto no Tempo de Execução
|
|
|
|
- **Sobrecarga de Validação**: Cada proteção adiciona ~1-3 segundos por tarefa
|
|
- **Eficiência do LLM**: Escolha modelos eficientes para avaliação (ex: gpt-4o-mini)
|
|
|
|
### Otimização de Custos
|
|
|
|
- **Seleção de Modelo**: Utilize modelos menores e eficientes para avaliação da proteção
|
|
- **Tamanho do Contexto**: Mantenha o contexto de referência conciso, mas abrangente
|
|
- **Cache**: Considere armazenar resultados de validação para conteúdos repetidos
|
|
|
|
## Solução de Problemas
|
|
|
|
<Accordion title="Validação Sempre Falha">
|
|
**Possíveis Causas:**
|
|
- Contexto muito restrito ou não relacionado à saída da tarefa
|
|
- Limiar configurado alto demais para o tipo de conteúdo
|
|
- Contexto de referência desatualizado
|
|
|
|
**Soluções:**
|
|
- Revise e atualize o contexto para corresponder aos requisitos da tarefa
|
|
- Reduza o limiar ou utilize validação padrão baseada em veredito
|
|
- Certifique-se de que o contexto esteja atual e correto
|
|
</Accordion>
|
|
|
|
<Accordion title="Falsos Positivos (Conteúdo Válido Marcado como Inválido)">
|
|
**Possíveis Causas:**
|
|
- Limiar alto demais para tarefas criativas ou interpretativas
|
|
- Contexto não cobre todos os aspectos válidos da saída
|
|
- Modelo de avaliação excessivamente conservador
|
|
|
|
**Soluções:**
|
|
- Reduza o limiar ou utilize validação padrão
|
|
- Expanda o contexto para incluir um espectro maior do conteúdo aceitável
|
|
- Teste com diferentes modelos de avaliação
|
|
</Accordion>
|
|
|
|
<Accordion title="Erros de Avaliação">
|
|
**Possíveis Causas:**
|
|
- Problemas de conexão de rede
|
|
- Modelo LLM indisponível ou com limite de uso
|
|
- Saída ou contexto da tarefa em formato inadequado
|
|
|
|
**Soluções:**
|
|
- Verifique a conectividade de rede e o status do serviço LLM
|
|
- Implemente lógica de retentativas para falhas transitórias
|
|
- Valide o formato da saída da tarefa antes da avaliação da proteção
|
|
</Accordion>
|
|
|
|
<Card title="Precisa de Ajuda?" icon="headset" href="mailto:support@crewai.com">
|
|
Entre em contato com nosso suporte para assistência na configuração ou solução de problemas da proteção contra alucinações.
|
|
</Card> |