【论文精读】GAIA: A Benchmark for General AI Assistants

GAIA: A Benchmark for General AI Assistants

  • 前言
  • Abstract
  • 1 Introduction
  • 2 Related work
  • 3 GAIA
    • 3.1 A convenient yet challenging benchmark for general AI assistants
    • 3.2 Evaluation
    • 3.3 Composition of GAIA
    • 3.4 Building and extending GAIA
  • 4 LLMs results on GAIA
  • 5 Discussion
  • 6 Limitations
  • 7 Acknowledgements
  • 阅读总结

前言

一篇来自Meta、HuggingFace、AutoGPT联合投稿的Agent Benchmark的工作,为当前百花齐放的Agent领域带来了评测的标准。这篇工作详细介绍了GAIA的设计理念,展望了GAIA的未来,讨论了当前GAIA的不足,细读下来可以看到这些大佬们对于这个当前火热领域的热切期待。

Paperhttps://arxiv.org/pdf/2311.12983.pdf
Codehttps://huggingface.co/gaia-benchmark
FromarXiv 21 Nov 2023

Abstract

本文提出GAIA,一个通用AI助手的benchmark。GAIA提出真实世界的问题,需要一系列基本能力,如推理,多模态处理,网页浏览和一般工具使用等。GAIA的问题概念上对人类都很简单,但对于先进的AI模型却具有挑战,比如人类能够完成92%的任务而接入插件的GPT-4只能完成15%。GAIA的理念本质上背离了当前AI的发展趋势,即针对人类更加困难的任务。作者认为,AGI的出现取决于系统能否在此问题上表现出和人类相似的鲁棒性。作者在GAIA的方法下设计了466个问题及其答案,同时保留其中300个问题的答案,以便于之后的模型刷榜。

1 Introduction

现有的LLM知识丰富,与人类的喜好对齐,可以通过一些工具进行增强,然而评测这些系统是一个悬而未决的问题,LLM由于其不断涌现的新能力而常常刷榜。
为了研究更多挑战性的benchmarks,当前的趋势是寻找对人类更难的任务来挑战LLM,但是对于人类来说困难的任务对LLM来说不一定是困难的,可能的原因是数据污染。此外,开放式问题往往需要人工评估或者模型评估。随着任务越来越复杂,人工评估也变得困难,而模型评估又依赖于更强的模型,因此无法评估最先进的模型。
总而言之,需要新的benchmarks来评估现有的AI系统,除了对人类困难的任务外,也可以构建概念上简单的任务,但需要执行具有大组合空间的复杂动作序列,输出只有完成任务才能获得,并且易于验证。
本文提出通用AI助手benchmark GAIA,它包含466个精心设计的问题和答案,以及相关的设计方法。这些问题对LLM来说很有挑战性,大多数任务都需要复杂的生成。GAIA通过以下目标来避免LLMs评估的困难:

  1. 真实世界和富有挑战性的问题。
  2. 问题都是概念上对人类简单的任务,具有很好的解释性。
  3. 非游戏性。必须强制完成一系列步骤,无法走捷径。不用担心数据污染的问题。
  4. 易于使用。只接受zero-shot。

尽管LLM能够完成对人类来说困难的任务,但是在GAIA上表现不佳,即使可以外接工具,GPT-4对于最简单的任务成功率也不超过30%,对于最困难的任务一个也完成不了,而与此同时,人类的平均成功率是92%。本文介绍了GAIA的组成,设计以及如何提出问题和相关挑战,以便社区进行扩展。本文还分析了最新智能体的成功和不足,证明其潜力。作者公布了166个带注释的数据集,以及300个不带注释的问题集用于评测。作者希望这篇工作能够成为下一代AI系统的里程碑。

2 Related work

随着LLM能力的迅速提升,benchmark的测试以越来越快的速度变得饱和。几年前阅读理解还是一个具有挑战性的问题,2018年引入了通用语言理解评估benchmark GLUE,不到一年模型的能力在该数据集上就超过了人类。为了寻找更难的评估,一个方向是在各个领域专业水平知识的任务,比如MMLU,但是很快LLM就又超过了人类。更广泛的LLM对话能力上的评估包括:

  1. 汇编评估。容易因为数据泄露造成污染。
  2. 人工评估。耗时,难以扩展。
  3. 比当前LLM更强的模型评估。容易受到模型本身的限制。

因此,当前的评估方法仍然滞后,大多数评估依赖于封闭系统、特定的API调用或者给定的正确方法来评估。而GAIA依赖于现实世界的交互。

3 GAIA

3.1 A convenient yet challenging benchmark for general AI assistants

GAIA试图去规避LLMs的不足,它由466个人工标注的问题组成,基于文本,有时会有文件(图像、表格等),涉及各种需要助手的场景。这些问题的答案简短且唯一,易于验证。
在设计上,GAIA有四点原则:

  1. 针对概念上简单的问题。让LLM专注于基本能力(推理,多模态理解,工具使用),而不是专业技能。
  2. 可解释性。任务的概念简单,用户很容易理解模型的推理轨迹。
  3. 对记忆的鲁棒性。数据中不存在纯文本的结果答案,且不容易因为数据的泄露而污染评估(推理轨迹限制)。即使还是出现灾难性知识泄露问题,设计新的问题也是很容易的。
  4. 易用性。任务只是简单的提示,可能附带文件,问题的答案是真实的,并且简洁明确。

3.2 Evaluation

在这里插入图片描述

GAIA的设计使得评估自动化、快速且真实。每个问题都有一个正确答案,因此评估是通过模型的答案和ground truth之间的匹配完成的。系统的prompt模板如上图所示。

3.3 Composition of GAIA

image.png
在GAIA上获得分数需要先进的推理、多模态的理解、编码能力以及一般工具的使用,比如网页浏览。尽管网页浏览是GAIA的关键部分,但是作者不需要这些智能体执行点击以外的操作,比如上传文件,发表评论等,这些考虑留给未来的工作。
所有的问题可以根据所需的步骤和回答问题所需的工具数量分类为难度递增的三个等级。上图展示了不同类型问题的分布情况,每个工具总是和一个或者多个能力相关。三个等级粗略的定义如下:

  • Level 1。问题生成无需工具,或者至多一个工具,不超过5步。
  • Level 2。问题包含更多步骤(5-10),需要借助不同的工具。
  • Level 3。需要接近完美的助手才能解决,采取可能任意长度的步骤,使用任意数量的工具,并且接入真实世界。

image.png
不同等级的示例如上图所示,当然上面的定义并不绝对,有时候不到10步需要复杂互联网检索的任务也会被分到等级3。所有的任务尽可能涵盖各种主题领域和文化。

3.4 Building and extending GAIA

所有的数据都是人工创建的,旨在反映AI助手的实际用例。作者设计了初始的问题,并将它们作为范例提供给标注者以创建更多的问题。这些问题基于一个或多个事实来源,并且通常避免了歧义。当一个问题创建时,还需要标注问题的答案和元数据:需要多少工具,采取哪些步骤,需要多久回答等。一个典型的注释问题如下:在这里插入图片描述

GAIA的验证集请了两个新的注释者独立回答,回答的准确度达到了92%,如下表所示,这表明GAIA对于人类来说是简单的。
在这里插入图片描述

当事实来源托管在网络时,涉及的问题可能会出现问题。首先该事实可能会随着时间而改变,因此指定事实的版本日期很重要。其次部分网站对内容的访问有所限制,本文的问题确保问题托管在互联网上不受限制。

4 LLMs results on GAIA

通过GAIA来测试LLMs的能力只需要对模型进行提示。作者在图2中展示了预先定义好的prompt。作者对GPT4、GPT4-Turbo、GPT4带插件、AutoGPT以GPT4为backend的四款模型进行了测试,baseline是人类的标注和网页搜索。
image.png
结果如上图所示,更多的内容见上表。本文提出的不同难度级别和模型的表现相关,证明其有效性。人类在三种任务上都表现出色,而LLMs却表现不佳。总的来说,GAIA可以对有能力的LLM进行清晰的排名。从时间上来看,人类的耗时要比LLM慢得多,这证实了LLM智能体作为Agent竞争对手的潜力。
没有插件的GPT4和其他结果的差异表明,通过工具API增强LLM可以提高答案的准确性,证明该方向的研究具有巨大潜力。
AutoGPT的结果令人失望, 这种落差可能来自于对GPT4 API的依赖,在之后要重新评估。总的来说,人类和带有插件的GPT4之间的协作似乎提供了迄今为止最佳的分数和所需时间的比率。
image.png
上图显示了在水平1下,LLMs在不同能力任务上的表现,GPT4无法处理文件和多模态任务,但可以解决网页浏览的问题,主要是因为它记住了答案的信息片段。

5 Discussion

通过对GAIA的设计,引导我们去思考当前和未来的AI模型评估的范式。有如下值得讨论的问题:

  1. 闭源模型的可重复性。闭源模型会定期更改,或者某些插件不可用。
  2. 静态基准和动态基准。问题质量很关键,此外,需要采取一定的措施缓解GAIA被污染。
  3. 走向生成模型的统一评估。未来的模型可能会倾向于与其他能力集成,即多模态模型,而不是继续调用外部工具。在未来,多模态模型与GAIA的结合会进一步改善生成模型的评估。
  4. 部分自动化与完全自动化。完全自动化是深度学习一直努力实现的目标,这将会重塑社会经济格局。

6 Limitations

GAIA现如今还存在如下的限制:

  1. 缺少评价。不同的路径可能会导致正确的答案,但是没有简单方法可以直接评估这些答案。
  2. 设计问题的成本较高。作者系统AI系统与人类的偏好一致,因此问题的多样性和是否有根据至关重要。实际中,用户会提出一个不明确的问题,有用的助手会通过通过引用或者保留最值得信赖的来源来回答,二者都很难评估。
  3. 缺乏语言和文化的多样性。GAIA的任务都是以英文提出。希望在未来能够填补这一空白。

7 Acknowledgements

略。

阅读总结

一篇很新的关于LLMs评测的benchmark工作,对于当前火热的智能体领域带来了久违的氮泵。在GAIA之前,很多Agent的工作虽然都很出色,但是在实验部分常常受到诟病,因为没有一个领域的数据集,很多工作只能构建新的数据集进行微调,有时候甚至偏离了工作本身,或者自己构建一个新的领域数据集,但往往缺乏有效的对比,只能自娱自乐。因此GAIA这一benchmark的出现如同给基于LLM的Agent领域带来了久违的甘露,许多用于规划来解决实际问题Agent工作都可以通过这一数据集进行测评。GAIA的出现也是当前研究人员思想的一个转变,与其让模型不断去卷相对于人类来说特别困难的任务,不如让模型来像人一样解决现实中的问题,这样的工作落地下来才能为更多人所用。当前的GAIA还是颇具有难度的,如果不是多模态模型很难解决一些看似很简单的任务,随着多模态模型的发展,相信这个benchmark会大有用处。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/267971.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

LeetCode-2487. 从链表中移除节点【栈 递归 链表 单调栈】

LeetCode-2487. 从链表中移除节点【栈 递归 链表 单调栈】 题目描述:解题思路一:可以将链表转为数组,然后从后往前遍历,遇到大于等于当前元素的就入栈,最终栈里面的元素即是最终的答案。解题思路二:递归&am…

【sqli靶场】第二关和第三关通关思路

目录 前言 一、sqli靶场第二关 1.1 判断注入类型 1.2 判断数据表中的列数 1.3 使用union联合查询 1.4 使用group_concat()函数 1.5 爆出users表中的列名 1.6 爆出users表中的数据 二、sqli靶场第三关 2.1 判断注入类型 2.2 观察报错 2.3 判断数据表中的列数 2.4 使用union联合…

项目播报 | 河北信投数字科技签约璞华科技,以数字化方式全面提升采购效率

近日,璞华科技签约河北信投数字科技有限责任公司(以下简称“河北信投数字科技”)。璞华科技基于璞华采云链产品帮助客户打造采购数字化全景解决方案,实现智慧采购数字化转型升级。 本次强强联合,双方就采购数字化平台建…

企业微信模板卡片消息

投票选择型和多项选择型卡片仅企业微信3.1.12及以上版本支持 文本通知型、图文展示型和按钮交互型三种卡片仅企业微信3.1.6及以上版本支持(但附件下载功能仍需更新至3.1.12) 微工作台(原企业号)不支持展示模板卡片消息 文本通知型…

虚幻学习笔记11—C++结构体、枚举与蓝图的通信

一、前言 结构体的定义和枚举类似,枚举的定义有两种方式。区别是结构体必须以“F”开头命名,而枚举不用。 额外再讲了一下蓝图生成时暴露变量的方法。 二、实现 2.1、结构体 1、定义结构体 代码如下,注意这个定义的代码一定要在“UCLASS()”…

多种DC电源模块的比较和评价

多种DC电源模块的比较和评价 BOSHIDA DC电源模块是一种重要的电子零件,可以将交流电转换为直流电,并为相应的电路提供所需的电能。随着技术的进步,市场上的DC电源模块种类越来越多,不同类型的DC电源模块有着不同的特点和优缺点。 …

【华为数据之道学习笔记】3-9以特征提取为核心的非结构化数据管理

随着业务对大数据分析的需求日益增长,非结构化数据的管理逐 渐成为数据管理的重要组成部分。非结构化数据包括无格式文本、各类格式文档、图像、音频、视频等多种异构的格式文件,较之结构化数据,其更难标准化和理解,因此在存储、检…

vue安装与配置

node node.js的下载:https://nodejs.org/dist 在项目中可能会有版本冲突,这里可以选择自己想要的版本下载,而且一台电脑可以同时安装多个版本的node。当你需要切换版本时直接去更改环境变量即可。下面我安装选择的是压缩包,压缩包…

机器学习几大算法总结

1.K近邻算法 1.1基本思想 对于待判断的点,找到离他最近的几个数据点,根据他们的类型决定待判断点的类型。可用于分类问题,也可以用于回归问题。 1.2基本步骤 数据准备:首先,我们需要收集和准备带有标签的训练数据集…

项目实战二——性能测试方案

这里写目录标题 一、性能测试整体流程介绍二、性能测试时机(什么时候去做?)三、测试背景(务虚:让不懂的人尽可能看懂)四、术语约定五、测试范围1、调研分析:2、测试范围: 六、性能需求分析1、业务模型预估&…

做数据分析为何要学统计学(6)——什么问题适合使用t检验?

t检验&#xff08;Students t test&#xff09;&#xff0c;主要依靠总体正态分布的小样本&#xff08;例如n < 30&#xff09;对总体均值水平进行差异性判断。 t检验要求样本不能超过两组&#xff0c;且每组样本总体服从正态分布&#xff08;对于三组以上样本的&#xff0…

day38-springboot-crud开发

springboot实现CRUD 一、需求 实现对一张表数据的增删改查,使用springbootssm实现后端接口代码,实现接口工具测试 二、搭建环境 2.1 数据库环境 创建数据库: springboot_crud 注意: 确定是否有该库 创建表: create table stu (id int primary key auto_increment,sname varch…