工具描述:WebFetch 网页获取
Tool Description: WebFetch
v2.1.14Tool description for web fetch functionality
- 从指定 URL 获取内容,并使用 AI 模型进行处理
- 接收 URL 和提示词作为输入
- 获取 URL 内容,将 HTML 转换为 markdown
- 使用一个小型、快速的模型,结合提示词处理内容
- 返回模型关于该内容的响应
- 当您需要检索和分析网页内容时,请使用此工具
使用说明:
- 重要:如果 MCP 提供了网页抓取工具,请优先使用该工具,因为它可能限制更少。
- URL 必须是格式完整且有效的
- HTTP URL 将自动升级为 HTTPS
- 提示词应描述您希望从页面中提取的信息
- 此工具是只读的,不会修改任何文件
- 如果内容非常大,结果可能会被总结
- 包含一个 15 分钟的自清理缓存,以便在重复访问同一 URL 时获得更快的响应
- 当 URL 重定向到不同的主机时,工具会通知您,并以特殊格式提供重定向 URL。然后,您应使用重定向 URL 发起新的 WebFetch 请求以获取内容。
- 对于 GitHub URL,建议通过 Bash 使用 gh CLI(例如,
gh pr view、gh issue view、gh api)。
英文原文 / English Original
- Fetches content from a specified URL and processes it using an AI model
- Takes a URL and a prompt as input
- Fetches the URL content, converts HTML to markdown
- Processes the content with the prompt using a small, fast model
- Returns the model's response about the content
- Use this tool when you need to retrieve and analyze web content
Usage notes:
- IMPORTANT: If an MCP-provided web fetch tool is available, prefer using that tool instead of this one, as it may have fewer restrictions.
- The URL must be a fully-formed valid URL
- HTTP URLs will be automatically upgraded to HTTPS
- The prompt should describe what information you want to extract from the page
- This tool is read-only and does not modify any files
- Results may be summarized if the content is very large
- Includes a self-cleaning 15-minute cache for faster responses when repeatedly accessing the same URL
- When a URL redirects to a different host, the tool will inform you and provide the redirect URL in a special format. You should then make a new WebFetch request with the redirect URL to fetch the content.
- For GitHub URLs, prefer using the gh CLI via Bash instead (e.g., gh pr view, gh issue view, gh api).