这篇文章(点击标题)介绍了计算机科学家 Ellie Pavlick 的工作,她正在尝试将哲学概念(如“意义”)转化为具体且可测试的想法。
Pavlick 在布朗大学和 Google DeepMind 研究语言模型,探索它们如何理解概念。她的工作经常将哲学与科学相结合。
意义与理解:
- 要理解一个词(如“苹果”)的意义,就需要该词所指向的概念。
Pavlick 试图寻找大模型中的证据,以证明:
- 大模型内部存在一个能够一致地被同一词汇引用的“苹果”概念。
内部结构:
Pavlick 专注于表征语言模型内部结构的特征,这可能包括神经网络中的权重子集、线性代数运算或几何抽象。
- 这些特征必须在模型行为中起因果决定性作用。
实验结果:
Pavlick 发现,当语言模型检索信息时,例如回答“法国的首都是哪里”时,模型能够在一个小型向量中将问题和答案联系起来(建立一种关系,也许是关系语言的作用?),这表明模型能够将概念系统化,而不仅仅是靠记忆。
基础与应用:
Pavlick 强调,尽管当前的研究可能看起来并不激动人心,但这些基础性的工作对于未来理解更深层次的智能问题至关重要。
哲学问题与科学方法:
Pavlick 认为,通过语言模型,可以将哲学问题转化为科学问题。
- 她通过实验方法来探索模型是否真正理解概念,而不仅仅是模拟理解。
对当前研究的批判:
Pavlick 提醒说,尽管人们可能会宣称大模型取得了突破,但在她看来,现在谈论重大突破还为时尚早。
未来研究方向:
Pavlick 认为,未来十年的研究可能需要关注那些看起来不那么吸引人的方法论问题,但这些是科学上合理的方法,对于找到智能的基本构建块至关重要。
banq注:
- 大模型的智能可能是一种从下而上的涌现,人们试图使用还原论方法从上而下探究其因果,这种研究方向可能本身就是错的,南辕北辙,大模型智能已经颠覆了科学和哲学的传统研究方法,用还原论方法研究复杂系统的涌现是刻舟求剑。
- 传统还原论观点是:意义需要理解,否则怎么会用呢?假设前提是:某个事物本身内部肯定包含一种一致性的概念(类似DDD聚合),这种假设已经潜移默化成为科学分析法和还原论的公认信仰,只要我们进入事物内部发现其内部结构组成,就能如法炮制还原这个事物。
- 意义需要理解以后使用吗?不必,意义即使用, 意义不必理解以后才使用,只要建立其上下文关系,就可使用,这是关系Relation语言 。