mirror of
https://github.com/crewAIInc/crewAI.git
synced 2026-01-09 08:08:32 +00:00
* docs(cli): document device-code login and config reset guidance; renumber sections * docs(cli): fix duplicate numbering (renumber Login/API Keys/Configuration sections) * docs: Fix webhook documentation to include meta dict in all webhook payloads - Add note explaining that meta objects from kickoff requests are included in all webhook payloads - Update webhook examples to show proper payload structure including meta field - Fix webhook examples to match actual API implementation - Apply changes to English, Korean, and Portuguese documentation Resolves the documentation gap where meta dict passing to webhooks was not documented despite being implemented in the API. * WIP: CrewAI docs theme, changelog, GEO, localization * docs(cli): fix merge markers; ensure mode: "wide"; convert ASCII tables to Markdown (en/pt-BR/ko) * docs: add group icons across locales; split Automation/Integrations; update tools overviews and links
222 lines
8.9 KiB
Plaintext
222 lines
8.9 KiB
Plaintext
---
|
|
title: Scrapfly 웹사이트 스크레이핑 도구
|
|
description: ScrapflyScrapeWebsiteTool은 Scrapfly의 웹 스크레이핑 API를 활용하여 다양한 형식으로 웹사이트의 콘텐츠를 추출합니다.
|
|
icon: spider
|
|
mode: "wide"
|
|
---
|
|
|
|
# `ScrapflyScrapeWebsiteTool`
|
|
|
|
## 설명
|
|
|
|
`ScrapflyScrapeWebsiteTool`은 [Scrapfly](https://scrapfly.io/)의 웹 스크래핑 API를 활용하여 웹사이트에서 콘텐츠를 추출하도록 설계되었습니다. 이 도구는 헤드리스 브라우저 지원, 프록시, 안티-봇 우회 기능 등 고급 웹 스크래핑 기능을 제공합니다. 원시 HTML, 마크다운, 일반 텍스트 등 다양한 형식으로 웹 페이지 데이터를 추출할 수 있어, 광범위한 웹 스크래핑 작업에 이상적입니다.
|
|
|
|
## 설치
|
|
|
|
이 도구를 사용하려면 Scrapfly SDK를 설치해야 합니다:
|
|
|
|
```shell
|
|
uv add scrapfly-sdk
|
|
```
|
|
|
|
또한 [scrapfly.io/register](https://www.scrapfly.io/register/)에서 회원가입하여 Scrapfly API 키를 발급받아야 합니다.
|
|
|
|
## 시작 단계
|
|
|
|
`ScrapflyScrapeWebsiteTool`을(를) 효과적으로 사용하려면 다음 단계를 따르세요:
|
|
|
|
1. **의존성 설치**: 위의 명령어를 사용하여 Scrapfly SDK를 설치하세요.
|
|
2. **API 키 받기**: Scrapfly에 등록하여 API 키를 받으세요.
|
|
3. **도구 초기화**: API 키로 도구 인스턴스를 생성하세요.
|
|
4. **스크래핑 매개변수 구성**: 필요에 따라 스크래핑 매개변수를 맞춤 설정하세요.
|
|
|
|
## 예제
|
|
|
|
다음 예제는 `ScrapflyScrapeWebsiteTool`을 사용하여 웹사이트에서 콘텐츠를 추출하는 방법을 보여줍니다:
|
|
|
|
```python Code
|
|
from crewai import Agent, Task, Crew
|
|
from crewai_tools import ScrapflyScrapeWebsiteTool
|
|
|
|
# Initialize the tool
|
|
scrape_tool = ScrapflyScrapeWebsiteTool(api_key="your_scrapfly_api_key")
|
|
|
|
# Define an agent that uses the tool
|
|
web_scraper_agent = Agent(
|
|
role="Web Scraper",
|
|
goal="Extract information from websites",
|
|
backstory="An expert in web scraping who can extract content from any website.",
|
|
tools=[scrape_tool],
|
|
verbose=True,
|
|
)
|
|
|
|
# Example task to extract content from a website
|
|
scrape_task = Task(
|
|
description="Extract the main content from the product page at https://web-scraping.dev/products and summarize the available products.",
|
|
expected_output="A summary of the products available on the website.",
|
|
agent=web_scraper_agent,
|
|
)
|
|
|
|
# Create and run the crew
|
|
crew = Crew(agents=[web_scraper_agent], tasks=[scrape_task])
|
|
result = crew.kickoff()
|
|
```
|
|
|
|
스크래핑 파라미터를 사용자 정의할 수도 있습니다:
|
|
|
|
```python Code
|
|
# Example with custom scraping parameters
|
|
web_scraper_agent = Agent(
|
|
role="Web Scraper",
|
|
goal="Extract information from websites with custom parameters",
|
|
backstory="An expert in web scraping who can extract content from any website.",
|
|
tools=[scrape_tool],
|
|
verbose=True,
|
|
)
|
|
|
|
# The agent will use the tool with parameters like:
|
|
# url="https://web-scraping.dev/products"
|
|
# scrape_format="markdown"
|
|
# ignore_scrape_failures=True
|
|
# scrape_config={
|
|
# "asp": True, # Bypass scraping blocking solutions, like Cloudflare
|
|
# "render_js": True, # Enable JavaScript rendering with a cloud headless browser
|
|
# "proxy_pool": "public_residential_pool", # Select a proxy pool
|
|
# "country": "us", # Select a proxy location
|
|
# "auto_scroll": True, # Auto scroll the page
|
|
# }
|
|
|
|
scrape_task = Task(
|
|
description="Extract the main content from the product page at https://web-scraping.dev/products using advanced scraping options including JavaScript rendering and proxy settings.",
|
|
expected_output="A detailed summary of the products with all available information.",
|
|
agent=web_scraper_agent,
|
|
)
|
|
```
|
|
|
|
## 매개변수
|
|
|
|
`ScrapflyScrapeWebsiteTool`은(는) 다음과 같은 매개변수를 받습니다:
|
|
|
|
### 초기화 매개변수
|
|
|
|
- **api_key**: 필수. 귀하의 Scrapfly API 키입니다.
|
|
|
|
### 실행 매개변수
|
|
|
|
- **url**: 필수. 스크랩할 웹사이트의 URL입니다.
|
|
- **scrape_format**: 선택 사항. 웹 페이지 콘텐츠를 추출할 형식입니다. 옵션으로는 "raw"(HTML), "markdown", "text"가 있습니다. 기본값은 "markdown"입니다.
|
|
- **scrape_config**: 선택 사항. 추가 Scrapfly 스크래핑 구성 옵션이 포함된 딕셔너리입니다.
|
|
- **ignore_scrape_failures**: 선택 사항. 스크래핑 실패 시 실패를 무시할지 여부입니다. `True`로 설정하면, 스크래핑에 실패했을 때 예외를 발생시키는 대신에 도구가 `None`을 반환합니다.
|
|
|
|
## Scrapfly 구성 옵션
|
|
|
|
`scrape_config` 매개변수를 사용하면 다음과 같은 옵션으로 스크래핑 동작을 사용자 지정할 수 있습니다:
|
|
|
|
- **asp**: 안티 스크래핑 보호 우회 활성화.
|
|
- **render_js**: 클라우드 헤드리스 브라우저로 JavaScript 렌더링 활성화.
|
|
- **proxy_pool**: 프록시 풀 선택 (예: "public_residential_pool", "datacenter").
|
|
- **country**: 프록시 위치 선택 (예: "us", "uk").
|
|
- **auto_scroll**: 페이지를 자동으로 스크롤하여 지연 로딩된 콘텐츠를 불러옵니다.
|
|
- **js**: 헤드리스 브라우저에서 커스텀 JavaScript 코드 실행.
|
|
|
|
전체 구성 옵션 목록은 [Scrapfly API 문서](https://scrapfly.io/docs/scrape-api/getting-started)를 참조하세요.
|
|
|
|
## 사용법
|
|
|
|
`ScrapflyScrapeWebsiteTool`을 에이전트와 함께 사용할 때, 에이전트는 크롤링할 웹사이트의 URL을 제공해야 하며, 선택적으로 포맷과 추가 구성 옵션을 지정할 수 있습니다.
|
|
|
|
```python Code
|
|
# Example of using the tool with an agent
|
|
web_scraper_agent = Agent(
|
|
role="Web Scraper",
|
|
goal="Extract information from websites",
|
|
backstory="An expert in web scraping who can extract content from any website.",
|
|
tools=[scrape_tool],
|
|
verbose=True,
|
|
)
|
|
|
|
# Create a task for the agent
|
|
scrape_task = Task(
|
|
description="Extract the main content from example.com in markdown format.",
|
|
expected_output="The main content of example.com in markdown format.",
|
|
agent=web_scraper_agent,
|
|
)
|
|
|
|
# Run the task
|
|
crew = Crew(agents=[web_scraper_agent], tasks=[scrape_task])
|
|
result = crew.kickoff()
|
|
```
|
|
|
|
더 고급 사용자 지정 구성을 위한 사용법:
|
|
|
|
```python Code
|
|
# Create a task with more specific instructions
|
|
advanced_scrape_task = Task(
|
|
description="""
|
|
Extract content from example.com with the following requirements:
|
|
- Convert the content to plain text format
|
|
- Enable JavaScript rendering
|
|
- Use a US-based proxy
|
|
- Handle any scraping failures gracefully
|
|
""",
|
|
expected_output="The extracted content from example.com",
|
|
agent=web_scraper_agent,
|
|
)
|
|
```
|
|
|
|
## 오류 처리
|
|
|
|
기본적으로 `ScrapflyScrapeWebsiteTool`은 스크래핑에 실패하면 예외를 발생시킵니다. 에이전트는 `ignore_scrape_failures` 매개변수를 지정하여 실패를 우아하게 처리하도록 지시할 수 있습니다.
|
|
|
|
```python Code
|
|
# Create a task that instructs the agent to handle errors
|
|
error_handling_task = Task(
|
|
description="""
|
|
Extract content from a potentially problematic website and make sure to handle any
|
|
scraping failures gracefully by setting ignore_scrape_failures to True.
|
|
""",
|
|
expected_output="Either the extracted content or a graceful error message",
|
|
agent=web_scraper_agent,
|
|
)
|
|
```
|
|
|
|
## 구현 세부사항
|
|
|
|
`ScrapflyScrapeWebsiteTool`은 Scrapfly SDK를 사용하여 Scrapfly API와 상호작용합니다:
|
|
|
|
```python Code
|
|
class ScrapflyScrapeWebsiteTool(BaseTool):
|
|
name: str = "Scrapfly web scraping API tool"
|
|
description: str = (
|
|
"Scrape a webpage url using Scrapfly and return its content as markdown or text"
|
|
)
|
|
|
|
# Implementation details...
|
|
|
|
def _run(
|
|
self,
|
|
url: str,
|
|
scrape_format: str = "markdown",
|
|
scrape_config: Optional[Dict[str, Any]] = None,
|
|
ignore_scrape_failures: Optional[bool] = None,
|
|
):
|
|
from scrapfly import ScrapeApiResponse, ScrapeConfig
|
|
|
|
scrape_config = scrape_config if scrape_config is not None else {}
|
|
try:
|
|
response: ScrapeApiResponse = self.scrapfly.scrape(
|
|
ScrapeConfig(url, format=scrape_format, **scrape_config)
|
|
)
|
|
return response.scrape_result["content"]
|
|
except Exception as e:
|
|
if ignore_scrape_failures:
|
|
logger.error(f"Error fetching data from {url}, exception: {e}")
|
|
return None
|
|
else:
|
|
raise e
|
|
```
|
|
|
|
## 결론
|
|
|
|
`ScrapflyScrapeWebsiteTool`은 Scrapfly의 고급 웹 스크래핑 기능을 활용하여 웹사이트에서 콘텐츠를 추출할 수 있는 강력한 방법을 제공합니다. 헤드리스 브라우저 지원, 프록시, 안티-봇 우회와 같은 기능을 통해 복잡한 웹사이트도 처리할 수 있으며, 다양한 형식의 콘텐츠를 추출할 수 있습니다. 이 도구는 신뢰할 수 있는 웹 스크래핑이 필요한 데이터 추출, 콘텐츠 모니터링, 연구 작업에 특히 유용합니다.
|