mirror of
https://github.com/crewAIInc/crewAI.git
synced 2026-01-09 16:18:30 +00:00
* docs(cli): document device-code login and config reset guidance; renumber sections * docs(cli): fix duplicate numbering (renumber Login/API Keys/Configuration sections) * docs: Fix webhook documentation to include meta dict in all webhook payloads - Add note explaining that meta objects from kickoff requests are included in all webhook payloads - Update webhook examples to show proper payload structure including meta field - Fix webhook examples to match actual API implementation - Apply changes to English, Korean, and Portuguese documentation Resolves the documentation gap where meta dict passing to webhooks was not documented despite being implemented in the API. * WIP: CrewAI docs theme, changelog, GEO, localization * docs(cli): fix merge markers; ensure mode: "wide"; convert ASCII tables to Markdown (en/pt-BR/ko) * docs: add group icons across locales; split Automation/Integrations; update tools overviews and links
92 lines
7.2 KiB
Plaintext
92 lines
7.2 KiB
Plaintext
---
|
||
title: Spider Scraper
|
||
description: O `SpiderTool` foi projetado para extrair e ler o conteúdo de um site especificado usando o Spider.
|
||
icon: spider-web
|
||
mode: "wide"
|
||
---
|
||
|
||
# `SpiderTool`
|
||
|
||
## Descrição
|
||
|
||
[Spider](https://spider.cloud/?ref=crewai) é o [scraper](https://github.com/spider-rs/spider/blob/main/benches/BENCHMARKS.md#benchmark-results) e crawler de código aberto mais rápido que retorna dados prontos para LLM.
|
||
Ele converte qualquer site em HTML puro, markdown, metadados ou texto e permite que você faça crawling com ações personalizadas utilizando IA.
|
||
|
||
## Instalação
|
||
|
||
Para usar o `SpiderTool` você precisa baixar o [Spider SDK](https://pypi.org/project/spider-client/)
|
||
e também o SDK `crewai[tools]`:
|
||
|
||
```shell
|
||
pip install spider-client 'crewai[tools]'
|
||
```
|
||
|
||
## Exemplo
|
||
|
||
Este exemplo mostra como você pode usar o `SpiderTool` para permitir que seu agente faça scraping e crawling de websites.
|
||
Os dados retornados pela API do Spider já estão prontos para LLM, então não é necessário fazer nenhuma limpeza adicional.
|
||
|
||
```python Code
|
||
from crewai_tools import SpiderTool
|
||
|
||
def main():
|
||
spider_tool = SpiderTool()
|
||
|
||
searcher = Agent(
|
||
role="Web Research Expert",
|
||
goal="Find related information from specific URL's",
|
||
backstory="An expert web researcher that uses the web extremely well",
|
||
tools=[spider_tool],
|
||
verbose=True,
|
||
)
|
||
|
||
return_metadata = Task(
|
||
description="Scrape https://spider.cloud with a limit of 1 and enable metadata",
|
||
expected_output="Metadata and 10 word summary of spider.cloud",
|
||
agent=searcher
|
||
)
|
||
|
||
crew = Crew(
|
||
agents=[searcher],
|
||
tasks=[
|
||
return_metadata,
|
||
],
|
||
verbose=2
|
||
)
|
||
|
||
crew.kickoff()
|
||
|
||
if __name__ == "__main__":
|
||
main()
|
||
```
|
||
|
||
## Argumentos
|
||
| Argumento | Tipo | Descrição |
|
||
|:---------------------|:----------|:------------------------------------------------------------------------------------------------------------------------------------------------------|
|
||
| **api_key** | `string` | Especifica a chave da API do Spider. Se não for definida, procura por `SPIDER_API_KEY` nas variáveis de ambiente. |
|
||
| **params** | `object` | Parâmetros opcionais para a requisição. O padrão é `{"return_format": "markdown"}` para otimizar o conteúdo para LLMs. |
|
||
| **request** | `string` | Tipo de requisição a ser realizada (`http`, `chrome`, `smart`). `smart` tem como padrão HTTP, alterando para renderização JavaScript se necessário. |
|
||
| **limit** | `int` | Máximo de páginas a serem rastreadas por site. Defina como `0` ou omita para ilimitado. |
|
||
| **depth** | `int` | Profundidade máxima do crawl. Defina como `0` para sem limite. |
|
||
| **cache** | `bool` | Habilita cache HTTP para acelerar execuções repetidas. O padrão é `true`. |
|
||
| **budget** | `object` | Define limites baseados em caminho para páginas rastreadas, ex.: `{"*":1}` apenas para a página raiz. |
|
||
| **locale** | `string` | Localidade da requisição, ex.: `en-US`. |
|
||
| **cookies** | `string` | Cookies HTTP para a requisição. |
|
||
| **stealth** | `bool` | Habilita modo furtivo para requisições Chrome para evitar detecção. O padrão é `true`. |
|
||
| **headers** | `object` | Headers HTTP como um mapa de chave-valor para todas as requisições. |
|
||
| **metadata** | `bool` | Armazena metadados sobre as páginas e conteúdos, auxiliando interoperabilidade com IA. O padrão é `false`. |
|
||
| **viewport** | `object` | Define as dimensões de viewport do Chrome. O padrão é `800x600`. |
|
||
| **encoding** | `string` | Especifica o tipo de codificação, ex.: `UTF-8`, `SHIFT_JIS`. |
|
||
| **subdomains** | `bool` | Inclui subdomínios no crawl. O padrão é `false`. |
|
||
| **user_agent** | `string` | User agent HTTP personalizado. Padrão é um agente aleatório. |
|
||
| **store_data** | `bool` | Habilita o armazenamento dos dados para a requisição. Sobrescreve `storageless` quando definido. O padrão é `false`. |
|
||
| **gpt_config** | `object` | Permite à IA gerar ações de crawl, com encadeamento de etapas opcional via array para `"prompt"`. |
|
||
| **fingerprint** | `bool` | Habilita fingerprint avançado para o Chrome. |
|
||
| **storageless** | `bool` | Impede todo o armazenamento de dados, incluindo embeddings de IA. O padrão é `false`. |
|
||
| **readability** | `bool` | Pré-processa conteúdo para leitura via [Mozilla’s readability](https://github.com/mozilla/readability). Melhora o conteúdo para LLMs. |
|
||
| **return_format** | `string` | Formato para retorno dos dados: `markdown`, `raw`, `text`, `html2text`. Use `raw` para formato padrão da página. |
|
||
| **proxy_enabled** | `bool` | Habilita proxies de alta performance para evitar bloqueios em nível de rede. |
|
||
| **query_selector** | `string` | CSS query selector para extração de conteúdo a partir do markup. |
|
||
| **full_resources** | `bool` | Baixa todos os recursos vinculados ao site. |
|
||
| **request_timeout** | `int` | Timeout em segundos para as requisições (5-60). O padrão é `30`. |
|
||
| **run_in_background**| `bool` | Executa a requisição em segundo plano. Útil para armazenamento de dados e acionamento de crawls no dashboard. Não tem efeito se `storageless` estiver definido. |