HuggingGPT火了:一个ChatGPT控制所有AI模型,自动帮人完

来源:IT之家 2023-04-05 10:13:02  阅读量:9896   

原文标题:《HuggingGPT 火了:一个 ChatGPT 控制所有 AI 模型,自动帮人完成 AI 任务,网友:留口饭吃吧》

最强组合:HuggingFace+ChatGPT ——

HuggingGPT,它来了!

它就能帮你自动分析需要哪些 AI 模型,然后直接去调用 HuggingFace 上的相应模型,来帮你执行并完成。

整个过程,你要做的就只是用自然语言将你的需求输出。

这项由浙大与微软亚研院的合作成果,一经发布就迅速爆火。

英伟达 AI 研究科学家 Jim Fan 直呼:

这是我本周读到的最有意思的论文。它的思想非常接近“Everything App”。

而一位网友则“直拍大腿”:

这不就是 ChatGPT“调包侠”吗?

AI 进化速度一日千里,给我们留口饭吃吧……

所以,具体怎么回事儿?

HuggingGPT:你的 AI 模型“调包侠”

其实,若说这个组合物只是“调包侠”,那格局小了。

它的真正用义,是 AGI。

如作者所言,迈向 AGI 的关键一步是能够解决具有不同领域和模式的复杂 AI 任务。

我们目前的成果离此还有距离 —— 大量模型只能出色地完成某一特定任务。

然而大语言模型 LLM 在语言理解、生成、交互和推理方面的表现,让作者想到:

可以将它们作为中间控制器,来管理现有的所有 AI 模型,通过“调动和组合每个人的力量”,来解决复杂的 AI 任务。

在这个系统中,语言是通用的接口。

于是,HuggingGPT 就诞生了。

它的工程流程分为四步:

首先,任务规划。ChatGPT 将用户的需求解析为任务列表,并确定任务之间的执行顺序和资源依赖关系。

其次,模型选择。ChatGPT 根据 HuggingFace 上托管的各专家模型的描述,为任务分配合适的模型。

接着,任务执行。混合端点上被选定的专家模型根据任务顺序和依赖关系执行分配的任务,并将执行信息和结果给到 ChatGPT。

最后,输出结果。由 ChatGPT 总结各模型的执行过程日志和推理结果,给出最终的输出。

如下图所示。

假定我们给出这样一个请求:

可以看到 HuggingGPT 是如何将它拆解为 6 个子任务,并分别选定模型执行得到最终结果的。

具体效果怎么样?

作者采用 gpt-3.5-turbo 和 text-davinci-003 这俩可以通过 OpenAI API 公开访问的变体,进行了实测。

如下图所示:

在音频和视频任务中,它也展现了组织模型之间合作的能力,通过分别并行和串行执行两个模型的方式,完了一段“宇航员在太空行走”的视频和配音作品。

一句话总结:HuggingGPT 可以在各种形式的复杂任务上表现出良好的性能。

项目已开源,名叫「贾维斯」

目前,HuggingGPT 的论文已经发布,项目则正在建设中,代码只开源了一部分,已揽获 1.4k 标星。

我们注意到,它的项目名称很有意思,不叫本名 HuggingGPT,而是钢铁侠里的 AI 管家贾维斯。

有人发现它和 3 月份刚发布的 Visual ChatGPT 的思想非常像:后者 HuggingGPT,主要是可调用的模型范围扩展到了更多,包括数量和类型。

不错,其实它们都有一个共同作者:微软亚研院。

具体而言,Visual ChatGPT 的一作是 MSRA 高级研究员吴晨飞,通讯作者为 MSRA 首席研究员段楠。

HuggingGPT 则包括两位共同一作:

Shen Yongliang,TA 来自浙江大学,在 MSRA 实习期间完成此项工作;

Song Kaitao,MSRA 研究员。

其通讯作者为浙大计算机系教授庄越挺。

最后,对于这个强大新工具的诞生,网友们很是兴奋,有人表示:

ChatGPT 已成为人类创建的所有 AI 的总指挥官了。

也有人据此认为:

AGI 可能不是一个 LLM,而是由一个“中间人”LLM 连接的多个相互关联的模型。

那么,我们是否已经开启“半 AGI”的时代了?

论文地址:

项目链接:

参考链接:

声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。

猜你喜欢

300

热门文章