“幻觉”反而是大语言模型最有用之处


来自黑客新闻(Hacker News)的一个讨论帖子,主题是关于一个名为"Lamini"的人工智能记忆调整技术,它能够显著减少幻觉10 倍

  • 在AI领域,幻觉通常指的是模型生成的错误或不准确的输出

什么是Lamini?
Lamini通过训练大量的基于事实的LoRA(Learning with Adapters)模型来实现零损失,然后使用RAG(Retrieval-Augmented Generation)技术为查询选择最合适的LoRA。

  • Lamini Memory Tuning 是一种将事实嵌入 LLM 的新方法,可提高事实准确性,并将幻觉减少到以前无法达到的水平--对于一家财富 500 强客户而言,Lamini Memory Tuning 使其准确率达到 95%,而其他方法的准确率仅为 50%。幻觉从 50% 减少到 5% 。
  • Lamini Memory Tuning 是一项研究突破,它克服了人工智能世界中一个看似矛盾的问题:在实现精确的事实准确性(即无幻觉)的同时,保持了使 LLMs 首先具有价值的泛化能力。
  • 这种方法需要在任何开源 LLM(如 Llama 3 或 Mistral 3)之上,用精确的事实调整数百万个专家适配器(如 LoRA)。如果目标是准确获取罗马帝国的事实,那么 Lamini Memory Tuning 将创建凯撒、渡槽、军团以及您提供的任何其他事实方面的专家。受信息检索的启发,该模型在推理时只从索引中检索最相关的专家,而不是所有的模型权重,因此延迟和成本大大降低。高精确度、高速度、低成本:有了 Lamini Memory Tuning,您无需做出选择。

准确性非常重要?

幻觉:准确性与创造力:
黑客新闻一些用户担心这种技术可能使AI变得更像全文搜索引擎,而不是具有创造性的智能系统。

1、这样做不是让“人工智能”变得更没创意吗?这种技术反而更像是全文搜索!

关键是什么让一些数据成为“事实”?

  • 如果将所有内容都写在训练数据中,那么最终,所有内容不都会被视为事实吗?

这种大模型LLM 将拥有 100% 的准确性和 0% 的创造力。


2、“幻觉”是大语言模型的创造力体现,这也是它们最有用的地方。
我们想要更多幻觉:

  • 我们已经有了更简单的搜索引擎系统来搜索和复述事实。
  • 我们需要更智能的幻觉,它们与数据一致并延伸,而不是与数据相冲突。

其他观点:
1、有些人不希望他们的语言模型具有任何创造力。

2、大多数宣传的“人工智能”商业用途都是美化了的搜索?

3、听起来像是压缩

幻觉带来创新思路
LLM在生成文本时,有时会产生一些出乎意料、与训练数据不完全一致的内容,这种"幻觉"现象往往蕴含着新颖独特的想法和观点。

在诗歌、小说、编程、设计、哲学思考等创作领,,这些意想不到的元素可以为作者提供新的灵感,激发创造力,帮助他们跳出传统思维模式,创作出具有创新性和独特性的作品。

banq注:通过与大模型互动,你能与之一同进入思想探险,如同进入很深的兔子洞,如同你在进入一个异度空间探险,过去,只有你孤独一人,但是现在有一个类似宠物的陪伴,它有它的识别和感知能力,它能够在你意想不到的地方帮助你。

或者你以为它产生了幻觉,但是过几天想想它的提议,也许是一个值得一试的方向,你唯一任务是将幻觉变成创意,落地为逻辑语言。

为何准确性越高,创造力越低?

  • 因为准确性会引入特定上下文 情况场景,这样你的思路就被限定在这个上下文中,无法顾及考虑进入其他上下文可能性,造成灯下黑,身在庐山不识庐山真面目,无法发现房间里有头大象,睁眼瞎。
  • 而如果没有100%准确性,那么幻觉就出现了,这说明你没有完全进入特定上下文,身在曹营心在汉,这时候,你还能考虑其他情况,这在探索未知领域,创造新事物时特别有用。