ARC奖:价值100万美元以上开放式AGI竞赛


ARC-AGI 的设计初衷是抵制大语言模型“记忆”技术

我们举办本次比赛的目标是:

  • 1. 增加从事前沿 AGI 研究的研究人员数量(而不是修补 LLM)。我们需要新的想法,解决方案很可能来自局外人!
  • 2. 建立一个流行的、客观的 AGI 进展衡量标准,公众可以使用它来了解我们距离 AGI 有多近(或远)。每个新的 SOTA 分数都将在此处发布:https://x.com/arcprize 
  • 3. 击败 ARC-AGI 并学习一些关于智能本质的新知识。

解决 ARC-AGI 任务对于人类(甚至是儿童)来说相当容易,但对于现代大语言模型来说却是不可能的。

您可以在此处亲自尝试 ARC-AGI 任务:https://arcprize.org/play

  • ARC-AGI 包含 400 个公开训练任务、400 个公开测试任务和 100 个秘密测试任务。每个任务都是新颖的。SOTA 是针对秘密测试集进行测量的,这增加了评估的稳健性。
  • 解决 ARC-AGI 任务不需要世界知识,也不需要理解语言。相反,每个谜题都需要一小组“核心知识先验”(目标导向性、对象性、对称性、旋转等)
  • 至少,ARC-AGI 的解决方案开启了一种全新的编程范式,其中程序可以从任意一组先验中完美而可靠地概括出来。最多,解锁了通往 AGI 的技术树。


ARC-AGI
ARC-AGI由François Chollet在其具有影响力的论文“关于智力的测量”中提出,是唯一衡量通用智力的人工智能评估:

  • 可以有效地获得新技能并解决新颖的开放式问题的系统。


LLM 历史
让我们来看看 LLM 的历史。特别是 Transformer 架构:

  • 2014 年:Sutskever 等人(谷歌)发表了Seq2Seq 学习,使用 RNN 和 CNN 实现可变长度的输入与输出(英语和西班牙语单词的长度不一样。)
  • 2016 年:Bahdanau 等人(雅各布大学)推广了“注意力”的概念,因此系统可以考虑输入的不同部分来预测输出(英语形容词在名词之前,西班牙语在名词之后。)
  • 2017 年:Vaswani 等人(谷歌)意识到“注意力就是一切”,放弃了 RNN 和 CNN,优化了架构,实现了新的规模
  • 2018 年:Radford 等人 (OpenAI)在前沿规模的 Transformer 架构之上创建了 GPT-2 ,展示了涌现能力

Transformer 的故事就是科学的故事。不同实验室和团队的研究人员发表论文,并在彼此的研究成果基础上进行改进。
  • 虽然有可能一家实验室就能发现 AGI,但这种可能性极小。
  • 如果我们接受这一现状,那么全球发现 AGI 的机会已经减少,而且会持续减少。

进步

  • “规模就是一切”是不准确的,而这个信念现在正在影响人工智能监管环境
  • 监管机构错误地认为通用人工智能即将到来,因此正在考虑为其他前沿人工智能研究设置障碍。

事实是,没有人知道如何构建通用人工智能。

我们应该努力激励新想法,而不是阻碍它们的发展。

通过激励开源,我们可以提高新想法的速度,增加发现 AGI 的机会,并确保这些新想法得到广泛传播,从而在大小人工智能公司之间建立更加公平的竞争环境。

我们希望 ARC 奖能够帮助平衡这些趋势。


ARC 奖
宣布 ARC 奖,这是一项奖金池超过 1,000,000 美元的竞赛,旨在击败并开源 ARC-AGI 评估解决方案。

由Mike Knoop和François Chollet主持。由 Infinite Monkey 和 Lab42 出品。

ARC 奖项目标

  • 增加从事前沿AGI研究的人员数量。
  • 普及 AGI 进展的客观衡量标准。
  • 解决 ARC-AGI 并了解有关智能本质的新知识。

准备好向 AGI 迈出多年来的第一次重大飞跃了吗?无论您是谁、来自哪里、从事什么职业,我们都欢迎您参加本次比赛。新想法可能来自任何地方。也许就是您?

有兴趣者点击标题