Auto GPT 是一个实验性开源应用程序,展示了 GPT-4 语言模型的功能。该程序由 GPT-4驱动,将LLM“思想”链接在一起,以自主实现您设定的任何目标。作为GPT-4完全自主运行的首批例子之一,Auto GPT突破了人工智能的极限。接下来将由站长百科为大家详细介绍AI Agent之AutoGPT的安装部署教程。
一、AutoGPT是什么
项目特点:
- 用于搜索和信息收集的互联网接入
- 长期和短期内存管理
- 用于文本生成的GPT-4实例
- 访问热门网站和平台
- 使用 GPT-3.5 进行文件存储和摘要
Auto-GPT 是一个能自主迭代、自主迭代(长时记忆)、自我提示且联网查询的新的 GPT 框架,它不需要你与 ChatGPT 在多轮对话中让 ChatGPT 逐步完成你的任务,而是最少只需要在第一轮对话中输入需求,Auto-GPT 就能自己分解任务去完成,且完成度更高。
AutoGPT 的架构基于GPT-4和GPT-3.5,靠API连接;
AutoGPT可以进行自主迭代,即通过自我批判性审查来改进输出、在先前工作的基础上进行构建,并为了获得更准确的结果集成prompt历史记录;
AutoGPT具有内存管理,集成了Pinecone数据库,因此它可进行长期内存存储,保存上下文并基于此进行决策改进。
AutoGPT 的工作流程:
由人类给Auto-GPT分配一个角色(例如一名写手),接着给他分配最多五个任务让他执行。
Auto-GPT就会自己将任务列表拆解成某些具体的任务,并生成后续的任务执行列表。每一步可以是执行Google搜索、生成Python脚本、存储生成文本、执行脚本文件等等。
上述步骤主要依赖于以下几个部件:
(1)基础框架:GPT-4和GPT-3.5,二者分别被成为聪明模型和快速响应模型。
这两者共同充当整个Auto-GPT的大脑。不同的任务将会适时的分配给两种不同的模型以加快生成速度和降低成本开销。
(2)自主迭代:从最原始的Task List中出发,将任务投入LLM中生成更进一步细化的Task List。再逐项完成任务并将结果保存。每次结果都会被选择性的放回LLM中再迭代生成回应。
(3)内存管理:Auto-GPT默认使用一种向量数据库(保存在auto-gpt.json中)存储对话上下文,使得LLM可以获得长期记忆并且最大程度降低token(LLM中的数据量计数单位)的使用,防止超过输入限制和降低使用成本。除了本地向量数据库外,还可以使用Redis保存上下文进一步提升性能。
(4)多功能部件:Auto-GPT 被赋予了多种工具,包括本地shell的执行权限、本地文件的读取和写入、Google搜索能力、Python脚本执行能力等等。这些能力不仅仅赋予了 Auto-GPT 的联网能力,还使其拥有了部分本地操作权限,极大拓宽了其能力以及使用范围。
二、下载AutoGPT项目源码
1、GitHub下载项目源码
AutoGPT 项目:【GitHub – AutoGPT】 (https://github.com/Significant-Gravitas/Auto-GPT)
(1)点击绿色按键 <>Code(下图红框 1),打开下拉菜单。
(2)点击粘贴按键(下图红框 2),复制项目克隆地址:https://github.com/Significant-Gravitas/Auto-GPT.git 。
- 在本地创建一个目录用此法将要克隆的项目,例如 D:\AutoGPT 。
- 进入创建的文件夹,如下图所示,鼠标右键唤出下拉菜单,选择 Git Bash Here 打开 Git Bush。注意不能从系统菜单或桌面快捷方式直接打开 GitBash。
(3)打开 Git Bush,输入 git clone,粘贴项目克隆的目标地址,如下图所示。
$ git clone https://github.com/Significant-Gravitas/Auto-GPT.git
(4)点击回车后,开始下载项目 AutoGPT,如下图所示。
下载完成后,关闭 Git Bush 窗口。
Auto-GPT 源码就已经下载到创建的文件夹中。
2、网页下载稳定版源码
如果没有安装 Git 软件,也可以按如下步骤从网页直接下载稳定版,步骤如下:
(1)打开项目版本网页:【Auto-GPT Releases】 (https://github.com/Significant-Gravitas/Auto-GPT/releases/latest)。
(2)向下滚动页面,找到 “Assets” 的 Source code(zip),如下图所示。点击可以直接下载压缩文件 Auto-GPT-0.2.2.zip。
(3)在创建的文件夹解压下载的压缩文件,得到 Auto-GPT 源码。
三、 AutoGPT安装与使用
1、项目安装需求依赖
项目需求:
- Environment:VSCode + devcontainer,或 Docker,或 Python 3.10 or later for Windows
- OpenAI API key: 获取地址 (https://platform.openai.com/account/api-keys)
可选配置:
- benckend (pickone): Pinecone, Milvus, Redis, Weaviate
- ElevenLabs Key: 使用 AI 语音交互。
2、安装项目依赖
- 打开命令行编辑器 或 Anaconda Prompt,
- 建立 AutoGPT 项目虚拟环境,并激活虚拟环境。
- conda create -n autogpt python==3.8
- conda activate autogpt
- cd 进入 Auto-GPT 源码所在的目录路径,例如 D:\auto-gpt。
- pip 安装项目依赖(项目依赖文件在源码文件下):pip install -r requirements.txt
将自动下载安装 Auto-GPT 运行需要的各种第三方库。如果由于某些原因网络不畅(一般会这样),将需要很长时间。这时我们正好可以看看源码文件中的 Readme.md。
3、环境配置
- 在 AutoGPT 文件夹中找到文件 “.env.template”,如果没有请检查是否被设为隐藏文件。
- 删除 “template” 扩展名,创建一个名为 “.env” 的文件副本。
- 在文本编辑器中打开 “.env” 文件。
- 找到写着 OPENAI_API_KEY= 的行。
- 在 “=” 之后,输入 OpenAI API Key(不带任何引号或空格)。
说明:OpenAI API key: 获取地址 (https://platform.openai.com/account/api-keys)
- 为您想要使用的服务输入任何其他API密钥或令牌。
- 保存并关闭“.env”文件。
- 创建 auto-gpt.json文件,用于存储本地缓存数据(本地记忆),如果存在可忽略。
4、添加 OpenAI API-Key
AutoGPT 的架构基于 GPT-4和GPT-3.5,必须设置 OpenAI API-Key。
要将OpenAI API Key用于自动GPT,您需要设置计费(又名付费帐户)。
您可以在上设置付费帐户https://platform.openai.com/account/billing/overview.
(1)访问 OpenAI 官网,注册账户并登录(https://beta.openai.com/signup/)。
(2)在 dashboard 页面,单击 “Create new API key”
(3)输入 API key 名称和用途,单击 “Create”
在 “API keys” 标签下可以找到您的 API-key,将其复制粘贴到 .env 文件中的 OPENAI_API_KEY 字段中。注意 OpenAI API-key 仅在创建时完整显示,一旦丢失不能找回,所以务必保存好。
四、添加插件(非必需)
为了扩展或改进 AutoGT 的功能,开发人员最近发布了插件,可让你根据自己的独特需求调整 AutoGPT。插件列表如下:
- Twitter plugin
- Email plugin
- Telegram plugin
- Google Analytics plugin
- Youtube plugin, and many more.
通过添加插件,AutoGPT 在使用中可以调用 Pinecon-API、Google-API、Eleven Labs API、HuggingFace API,实现各种拓展功能,例如:
支持语音代替文件进行交互,语音服务是由 ElevenLabs 提供。
支持 调用 Stable Diffusion 文生图。
借助 Google APi 和自定义搜索引擎服务。
借助 PINECONE 服务存储缓存,保持与 AutoGPT 之间的交互记录。
这些拓展服务需要额外的token 或 key ,不是运行 AutoGPT 的必须配置项,用户可以根据自己的需求和资源情况来设置。
1、Pinecone API
(1)访问 Pinecone 官方网站,注册账户(https://www.pinecone.io/)。
(2)单击右上角的 “Get started for free” 或 “Sign In” 按钮,登录账户。
(3)进入 Pinecone 控制台(https://console.pinecone.io/)。
(4)在控制台页面的左侧菜单中,单击 “API keys”。
(5)单击 “Create API key” 按钮创建 API key。
创建完成后,新的 API 密钥将显示在列表中。将其复制并粘贴到 .env 文件中的 PINECONE_API_KEY 字段。
2、Google API
(1)访问 Google Cloud 控制台,使用 Google 账户登录。
(2)创建项目:点击控制台左上角的下拉菜单,点击”新建项目”,输入项目名称,点击”创建”。
(3)启用 API:在 Google Cloud 控制台中,点击左侧导航栏的 “API和服务” > “库”。搜索并找到您需要的 API(例如谷歌翻译),进入 API 页面,点击”启用”。
(4)创建API密钥:启用 API 以后,点击左侧导航栏的 “API和服务” > “凭据”,点击”创建凭据”后选择 “API密钥”,系统将生成一个新的 API 密钥。
查看 API 密钥,复制并粘贴到 .env 文件中的 GOOGLE_API_KEY 字段中
3、Eleven Labs API
(1)访问 Eleven Labs 官方网站,注册账户。
(2)登录你的 Eleven Labs 帐户。
(3)点击右上角的用户头像,选择 Profile,找到 API Key 并复制。
查看 API 密钥,复制并粘贴到 .env 文件中的 ELEVENLABS_API_KEY字段中。
4、HuggingFace API
(1)访问 HuggingFace 官方网站,注册或登陆(https://huggingface.co/)。
(2)点击右上角的用户头像,进入 “settings” 选项。
(3)从左侧列表选择 Access Tokens(https://huggingface.co/settings/tokens)。
(4)选择 “New token”,新建 token,填好后点击 “Generate a token” 生成 token。
将新建的 token 复制并粘贴到 .env 文件中的 HUGGINGFACE_API_TOKEN字段中,并删除前面的#空格前缀。
五、 AutoGPT使用体验
1、使用步骤
(1)定义 AI 角色
根据你希望 AI 发挥的功能,为其命名和角色,例如“研究人员”、“内容生成器”或“个人编码器”。为了获得更成功的结果,明确你希望人工智能实现的目标。
(2)设定目标
详细概述人工智能的目标,例如获取信息、将数据存储在文件中、执行代码或修改文本。包括要使用的输出文件的信息,以及完成作业所需的任何其他操作。
(3)执行任务
在你一步步完成任务的过程中,对发送的每个人工智能指令给予批准。跟踪人工智能的发展,并根据需要采取适当的行动。在人工智能完成工作并实现其目标后,它将自动关闭。AutoGPT 根据给出的指令给了我以下输出。
2、运行 AutoGPT
(1)cmd 进入 autogpt 的根目录,运行 autogpt.py。
python -m autogpt
(2)文件默认的保存目录:..\Auto-GPT\autogpt\auto_gpt_workspace
(3)如果没有 GPT-4 API 权限,可以选择 –gpt3only 调用 ChatGPT3.5 运行。
python -m autogpt –speak –gpt3only
(4)–continuous 可以使AutoGPT一直运行,不用输入y确认;短命令是 -c
(5)–continuous-limit 接数字,可以指定AutoGPT连续运行的次数;短命令是 -l
(6)按 Ctrl + C 可以退出程序。
(7)卸载程序,直接删除Auto-GPT安装目录。
-
广告合作
-
QQ群号:4114653