当前位置: 首页 > 动态

环球热议:HuggingGPT火了:一个ChatGPT控制所有AI模型,自动帮人完成AI任务,网友:留口饭吃吧

日期:2023-04-03 14:35:05 来源:量子位

最强组合:HuggingFace+ChatGPT ——

HuggingGPT,它来了!


(资料图)

只要给定一个 AI 任务,例如 " 下面这张图片里有什么动物,每种有几只 "。

它就能帮你自动分析需要哪些 AI 模型,然后直接去调用 HuggingFace 上的相应模型,来帮你执行并完成。

这项由浙大与微软亚研院的合作成果,一经发布就迅速爆火。

这是我本周读到的最有意思的论文。它的思想非常接近 "Everything App"(万物皆 App,被 AI 直接读取信息)。

而一位网友则 " 直拍大腿 ":

这不就是 ChatGPT" 调包侠 " 吗?

AI 进化速度一日千里,给我们留口饭吃吧……

HuggingGPT:你的 AI 模型 " 调包侠 "

其实,若说这个组合物只是 " 调包侠 ",那格局小了。

它的真正用义,是 AGI。

如作者所言,迈向 AGI 的关键一步是能够解决具有不同领域和模式的复杂 AI 任务。

我们目前的成果离此还有距离——大量模型只能出色地完成某一特定任务。

然而大语言模型 LLM 在语言理解、生成、交互和推理方面的表现,让作者想到:

可以将它们作为中间控制器,来管理现有的所有 AI 模型,通过 " 调动和组合每个人的力量 ",来解决复杂的 AI 任务。

在这个系统中,语言是通用的接口。

于是,HuggingGPT 就诞生了。

它的工程流程分为四步:

首先,任务规划。ChatGPT 将用户的需求解析为任务列表,并确定任务之间的执行顺序和资源依赖关系。

其次,模型选择。ChatGPT 根据 HuggingFace 上托管的各专家模型的描述,为任务分配合适的模型。

接着,任务执行。混合端点(包括本地推理和 HuggingFace 推理)上被选定的专家模型根据任务顺序和依赖关系执行分配的任务,并将执行信息和结果给到 ChatGPT。

最后,输出结果。由 ChatGPT 总结各模型的执行过程日志和推理结果,给出最终的输出。

如下图所示。

假定我们给出这样一个请求:

请生成一个女孩正在看书的图片,她的姿势与 example.jpg 中的男孩相同。然后请用你的声音描述新图片。

可以看到 HuggingGPT 是如何将它拆解为 6 个子任务,并分别选定模型执行得到最终结果的。

作者采用 gpt-3.5-turbo 和 text-davinci-003 这俩可以通过 OpenAI API 公开访问的变体,进行了实测。

如下图所示:

在任务之间存在资源依赖关系的情况下,HuggingGPT 可以根据用户的抽象请求正确解析出具体任务,完成图片转换。

项目已开源,名叫「贾维斯」

目前,HuggingGPT 的论文已经发布,项目则正在建设中,代码只开源了一部分,已揽获 1.4k 标星。

我们注意到,它的项目名称很有意思,不叫本名 HuggingGPT,而是钢铁侠里的 AI 管家贾维斯(JARVIS)。

具体而言,Visual ChatGPT 的一作是 MSRA 高级研究员吴晨飞,通讯作者为 MSRA 首席研究员段楠。

HuggingGPT 则包括两位共同一作:

Shen Yongliang,TA 来自浙江大学,在 MSRA 实习期间完成此项工作;

Song Kaitao,MSRA 研究员。

其通讯作者为浙大计算机系教授庄越挺。

ChatGPT 已成为人类创建的所有 AI 的总指挥官了。

AGI 可能不是一个 LLM,而是由一个 " 中间人 "LLM 连接的多个相互关联的模型。

https://arxiv.org/abs/2303.17580

项目链接:

https://github.com/microsoft/JARVIS

参考链接:

https://twitter.com/DrJimFan/status/1642563455298473986

标签:

上一篇:

下一篇:

热门推荐

猜你喜欢

市场