mirror of
https://github.com/crewAIInc/crewAI.git
synced 2026-01-09 16:18:30 +00:00
* docs(cli): document device-code login and config reset guidance; renumber sections * docs(cli): fix duplicate numbering (renumber Login/API Keys/Configuration sections) * docs: Fix webhook documentation to include meta dict in all webhook payloads - Add note explaining that meta objects from kickoff requests are included in all webhook payloads - Update webhook examples to show proper payload structure including meta field - Fix webhook examples to match actual API implementation - Apply changes to English, Korean, and Portuguese documentation Resolves the documentation gap where meta dict passing to webhooks was not documented despite being implemented in the API. * WIP: CrewAI docs theme, changelog, GEO, localization * docs(cli): fix merge markers; ensure mode: "wide"; convert ASCII tables to Markdown (en/pt-BR/ko) * docs: add group icons across locales; split Automation/Integrations; update tools overviews and links
221 lines
8.7 KiB
Plaintext
221 lines
8.7 KiB
Plaintext
---
|
|
title: Ferramenta de Raspagem de Sites Scrapfly
|
|
description: A `ScrapflyScrapeWebsiteTool` aproveita a API de web scraping da Scrapfly para extrair conteúdo de sites em diversos formatos.
|
|
icon: spider
|
|
mode: "wide"
|
|
---
|
|
|
|
# `ScrapflyScrapeWebsiteTool`
|
|
|
|
## Descrição
|
|
|
|
A `ScrapflyScrapeWebsiteTool` foi desenvolvida para aproveitar a API de web scraping da [Scrapfly](https://scrapfly.io/) para extrair conteúdo de sites. Esta ferramenta oferece recursos avançados de raspagem com suporte a navegador headless, proxies e recursos de bypass de anti-bot. Permite extrair dados de páginas web em vários formatos, incluindo HTML bruto, markdown e texto simples, sendo ideal para uma ampla variedade de tarefas de raspagem de sites.
|
|
|
|
## Instalação
|
|
|
|
Para utilizar esta ferramenta, é necessário instalar o Scrapfly SDK:
|
|
|
|
```shell
|
|
uv add scrapfly-sdk
|
|
```
|
|
|
|
Você também precisará obter uma chave de API da Scrapfly registrando-se em [scrapfly.io/register](https://www.scrapfly.io/register/).
|
|
|
|
## Passos para Começar
|
|
|
|
Para usar a `ScrapflyScrapeWebsiteTool` de forma eficaz, siga estas etapas:
|
|
|
|
1. **Instale as Dependências**: Instale o Scrapfly SDK usando o comando acima.
|
|
2. **Obtenha a Chave de API**: Cadastre-se na Scrapfly para obter sua chave de API.
|
|
3. **Inicialize a Ferramenta**: Crie uma instância da ferramenta com sua chave de API.
|
|
4. **Configure os Parâmetros de Raspagem**: Personalize os parâmetros de raspagem conforme suas necessidades.
|
|
|
|
## Exemplo
|
|
|
|
O exemplo a seguir demonstra como usar a `ScrapflyScrapeWebsiteTool` para extrair conteúdo de um site:
|
|
|
|
```python Code
|
|
from crewai import Agent, Task, Crew
|
|
from crewai_tools import ScrapflyScrapeWebsiteTool
|
|
|
|
# Initialize the tool
|
|
scrape_tool = ScrapflyScrapeWebsiteTool(api_key="your_scrapfly_api_key")
|
|
|
|
# Define an agent that uses the tool
|
|
web_scraper_agent = Agent(
|
|
role="Web Scraper",
|
|
goal="Extract information from websites",
|
|
backstory="An expert in web scraping who can extract content from any website.",
|
|
tools=[scrape_tool],
|
|
verbose=True,
|
|
)
|
|
|
|
# Example task to extract content from a website
|
|
scrape_task = Task(
|
|
description="Extract the main content from the product page at https://web-scraping.dev/products and summarize the available products.",
|
|
expected_output="A summary of the products available on the website.",
|
|
agent=web_scraper_agent,
|
|
)
|
|
|
|
# Create and run the crew
|
|
crew = Crew(agents=[web_scraper_agent], tasks=[scrape_task])
|
|
result = crew.kickoff()
|
|
```
|
|
|
|
Você também pode personalizar os parâmetros de raspagem:
|
|
|
|
```python Code
|
|
# Example with custom scraping parameters
|
|
web_scraper_agent = Agent(
|
|
role="Web Scraper",
|
|
goal="Extract information from websites with custom parameters",
|
|
backstory="An expert in web scraping who can extract content from any website.",
|
|
tools=[scrape_tool],
|
|
verbose=True,
|
|
)
|
|
|
|
# The agent will use the tool with parameters like:
|
|
# url="https://web-scraping.dev/products"
|
|
# scrape_format="markdown"
|
|
# ignore_scrape_failures=True
|
|
# scrape_config={
|
|
# "asp": True, # Bypass scraping blocking solutions, like Cloudflare
|
|
# "render_js": True, # Enable JavaScript rendering with a cloud headless browser
|
|
# "proxy_pool": "public_residential_pool", # Select a proxy pool
|
|
# "country": "us", # Select a proxy location
|
|
# "auto_scroll": True, # Auto scroll the page
|
|
# }
|
|
|
|
scrape_task = Task(
|
|
description="Extract the main content from the product page at https://web-scraping.dev/products using advanced scraping options including JavaScript rendering and proxy settings.",
|
|
expected_output="A detailed summary of the products with all available information.",
|
|
agent=web_scraper_agent,
|
|
)
|
|
```
|
|
|
|
## Parâmetros
|
|
|
|
A `ScrapflyScrapeWebsiteTool` aceita os seguintes parâmetros:
|
|
|
|
### Parâmetros de Inicialização
|
|
|
|
- **api_key**: Obrigatório. Sua chave de API da Scrapfly.
|
|
|
|
### Parâmetros de Execução
|
|
|
|
- **url**: Obrigatório. A URL do site a ser raspado.
|
|
- **scrape_format**: Opcional. O formato em que o conteúdo da página será extraído. As opções são "raw" (HTML), "markdown" ou "text". O padrão é "markdown".
|
|
- **scrape_config**: Opcional. Um dicionário contendo opções adicionais de configuração de raspagem da Scrapfly.
|
|
- **ignore_scrape_failures**: Opcional. Determina se as falhas de raspagem devem ser ignoradas. Se definido como `True`, a ferramenta irá retornar `None` ao invés de lançar uma exceção caso ocorra uma falha na raspagem.
|
|
|
|
## Opções de Configuração Scrapfly
|
|
|
|
O parâmetro `scrape_config` permite personalizar o comportamento da raspagem com as seguintes opções:
|
|
|
|
- **asp**: Ativa o bypass de proteção anti-scraping.
|
|
- **render_js**: Ativa a renderização de JavaScript com um navegador headless na nuvem.
|
|
- **proxy_pool**: Seleciona um pool de proxies (por exemplo, "public_residential_pool", "datacenter").
|
|
- **country**: Seleciona a localização do proxy (por exemplo, "us", "uk").
|
|
- **auto_scroll**: Rola automaticamente a página para carregar conteúdo lazy-loaded.
|
|
- **js**: Executa código JavaScript personalizado via o navegador headless.
|
|
|
|
Para uma lista completa de opções de configuração, consulte a [documentação da API Scrapfly](https://scrapfly.io/docs/scrape-api/getting-started).
|
|
|
|
## Uso
|
|
|
|
Ao usar a `ScrapflyScrapeWebsiteTool` com um agente, o agente deverá fornecer a URL do site a ser raspado e pode opcionalmente especificar o formato e opções adicionais de configuração:
|
|
|
|
```python Code
|
|
# Example of using the tool with an agent
|
|
web_scraper_agent = Agent(
|
|
role="Web Scraper",
|
|
goal="Extract information from websites",
|
|
backstory="An expert in web scraping who can extract content from any website.",
|
|
tools=[scrape_tool],
|
|
verbose=True,
|
|
)
|
|
|
|
# Create a task for the agent
|
|
scrape_task = Task(
|
|
description="Extract the main content from example.com in markdown format.",
|
|
expected_output="The main content of example.com in markdown format.",
|
|
agent=web_scraper_agent,
|
|
)
|
|
|
|
# Run the task
|
|
crew = Crew(agents=[web_scraper_agent], tasks=[scrape_task])
|
|
result = crew.kickoff()
|
|
```
|
|
|
|
Para um uso mais avançado com configurações personalizadas:
|
|
|
|
```python Code
|
|
# Create a task with more specific instructions
|
|
advanced_scrape_task = Task(
|
|
description="""
|
|
Extract content from example.com with the following requirements:
|
|
- Convert the content to plain text format
|
|
- Enable JavaScript rendering
|
|
- Use a US-based proxy
|
|
- Handle any scraping failures gracefully
|
|
""",
|
|
expected_output="The extracted content from example.com",
|
|
agent=web_scraper_agent,
|
|
)
|
|
```
|
|
|
|
## Tratamento de Erros
|
|
|
|
Por padrão, a `ScrapflyScrapeWebsiteTool` irá lançar uma exceção se a raspagem falhar. Os agentes podem ser instruídos a tratar falhas de forma mais flexível especificando o parâmetro `ignore_scrape_failures`:
|
|
|
|
```python Code
|
|
# Create a task that instructs the agent to handle errors
|
|
error_handling_task = Task(
|
|
description="""
|
|
Extract content from a potentially problematic website and make sure to handle any
|
|
scraping failures gracefully by setting ignore_scrape_failures to True.
|
|
""",
|
|
expected_output="Either the extracted content or a graceful error message",
|
|
agent=web_scraper_agent,
|
|
)
|
|
```
|
|
|
|
## Detalhes de Implementação
|
|
|
|
A `ScrapflyScrapeWebsiteTool` utiliza o Scrapfly SDK para interagir com a API Scrapfly:
|
|
|
|
```python Code
|
|
class ScrapflyScrapeWebsiteTool(BaseTool):
|
|
name: str = "Scrapfly web scraping API tool"
|
|
description: str = (
|
|
"Scrape a webpage url using Scrapfly and return its content as markdown or text"
|
|
)
|
|
|
|
# Implementation details...
|
|
|
|
def _run(
|
|
self,
|
|
url: str,
|
|
scrape_format: str = "markdown",
|
|
scrape_config: Optional[Dict[str, Any]] = None,
|
|
ignore_scrape_failures: Optional[bool] = None,
|
|
):
|
|
from scrapfly import ScrapeApiResponse, ScrapeConfig
|
|
|
|
scrape_config = scrape_config if scrape_config is not None else {}
|
|
try:
|
|
response: ScrapeApiResponse = self.scrapfly.scrape(
|
|
ScrapeConfig(url, format=scrape_format, **scrape_config)
|
|
)
|
|
return response.scrape_result["content"]
|
|
except Exception as e:
|
|
if ignore_scrape_failures:
|
|
logger.error(f"Error fetching data from {url}, exception: {e}")
|
|
return None
|
|
else:
|
|
raise e
|
|
```
|
|
|
|
## Conclusão
|
|
|
|
A `ScrapflyScrapeWebsiteTool` oferece uma forma poderosa de extrair conteúdo de sites usando as avançadas capacidades de web scraping da Scrapfly. Com recursos como suporte a navegador headless, proxies e bypass de anti-bot, ela consegue lidar com sites complexos e extrair conteúdo em diversos formatos. Esta ferramenta é especialmente útil em tarefas de extração de dados, monitoramento de conteúdo e pesquisa, onde a raspagem confiável de sites é necessária. |