ChatGPT Crawler:一个开源的网页抓取工具

通过自动化配置帮助用户轻松收集网页文本信息

直达下载
返回上一页
描述
GPT Crawler是一个开源的网页抓取工具,旨在通过自动化配置帮助用户轻松收集网页文本信息,并生成文本文件。这些文件可用于上传至OpenAI,辅助构建自定义的AI Assistant,支持创建多种基于AI的集成应用。GPT Crawler的简便操作和灵活配置,使其成为数据收集和AI应用开发的理想选择。
介绍

GPT Crawler是一个开源项目,它通过简单配置,能够自动抓取网页文本信息,生成文本文件。这些文件可以上传至OpenAI,用于自定义Assistant,实现多种集成应用。本文将详细介绍如何使用GPT Crawler,包括安装、配置、启动爬虫,并结合OpenAI进行应用。

安装教程

克隆仓库

首先,需要安装Node.js(版本≥16),然后执行以下命令以克隆GPT Crawler仓库:

git clone https://github.com/builderio/gpt-crawler

安装依赖

在克隆的仓库中,运行以下命令安装所需依赖:

npm i
# 安装 Playwright
npx playwright install

配置爬虫

GPT Crawler的核心在于配置,主要包括目标网站的起始网址、继续抓取的页面链接的URL规则、以及页面中提取文本信息的CSS选择器。

配置CSS选择器

以下是一个示例配置,用于抓取阮一峰老师的TypeScript教程:

export const config: Config = {
  url: "https://wangdoc.com/typescript/",
  match: "https://wangdoc.com/typescript/**",
  selector: `body > section > div > div:nth-child(1) > div.column.is-8.is-6-widescreen.is-offset-1-widescreen > article`,
  maxPagesToCrawl: 50,
  outputFileName: "output1.json",
};

启动爬虫

完成配置后,运行以下命令以启动爬虫:

npm start

程序将在项目根目录生成output.json文件。

index_open_GPT_Crawler_1

将您的数据上传到 OpenAI

要将生成的文本文件用于自定义Assistant,首先需要一个OpenAI账户。上传output.json文件至OpenAI后,可以创建一个Assistant,并通过OpenAI的API集成至自己的系统。

实际案例

以创建一个自定义Assistant为例,操作步骤如下:

  1. 访问OpenAI的自定义Assistants页面。
  2. 创建一个新的Assistant。
  3. 上传output.json文件。
  4. 根据需要配置其他选项。

完成以上步骤后,就可以开始测试Assistant了。

index_open_GPT_Crawler_2

GPT Crawler是一个功能强大且易于使用的工具,可以快速从网页抓取文本信息,为自定义AI Assistant提供知识库。通过结合OpenAI的API,可以实现多种创新应用,如自动化客服、个性化信息提供等。这个项目为开发者提供了一个简便的方式来扩展和定制他们的AI应用,是值得探索和利用的资源。

收录信息
修改时间:2024年4月8日
收录时间:2024年4月2日
标签
GPT Crawler OpenAI集成 网页抓取工具 Python爬虫 自定义AI Assistant
AI工具教程
免费领取AI学习资料 进AI副业交流群
礼物
AI工具教程
免费领取AI学习资料 进AI副业交流群