兰德报告:大语言模型如何迈向通用人工智能的多条路径与挑战
时间:2025-06-01 13:20
小编:小世评选
2025年4月23日,兰德公司发布了名为《绘制通用人工智能的多种路线图》(Charting Multiple Courses to Artificial General Intelligence)的报告,深入探讨了大语言模型(LLM)在向通用人工智能(AGI)演化过程中可能经历的多条发展路径及相关挑战。通过分析技术、数据和能耗等瓶颈,报告为未来人工智能研究的突破方向提供了重要参考。
大语言模型作为一项颠覆性技术,自其问世以来便获得了广泛关注与巨额投资。许多业内专家与研究学者认为,LLM在多种基准测试中越来越出色的表现预示着AGI时代的到来。特别是在当前大语言模型快速发展的背景下,一些预测认为AGI可能在未来两到四年内实现,而这一进程很可能来源于对LLM的超规模扩展(hyper scaling)。不过,这一前景在某些人看来是可控的,可能产生“智能爆炸”,并实现后稀缺社会;而对另外一些人而言,则会带来人类生存的潜在威胁。
除了可能带来的巨大利润,AGI的发展前景也在地缘政治上颇具重要意义。在国际竞争形势下,AGI被视为可能产生巨大经济增长和国家实力提升的关键,因而各国普遍担忧谁能率先实现AGI,从而获得持续的地缘政治优势。
当前的研究表明,超规模扩展并非实现AGI的唯一且可行的路径。尽管许多领先的人工智能实验室在推广其大语言模型时,声称随着模型规模的扩大,其在推理基准测试中的表现会提高,但最新的研究却指出这一趋势并不总是成立,扩展也可能会带来更多的错误输出。这表明LLM的技术演进过程依然充满挑战。
超规模扩展的核心在于“涌现能力”(emergent abilities),它指的是当模型规模达到一定程度时,一些能力可能在没有特别训练的情况下“突然出现”。后续研究显示这种涌现能力是由于评估指标不当导致的幻觉。早期评估标准采用的是“全或无”的测量方法,尽管模型的逐步改善,但在这种评估下,表现出的性能跃升显得不真实。因此,即便有学者认为扩展确实会带来真实的涌现能力,但技术发展仍可能面临瓶颈。
随着当前模型扩展速度的提高,预计在未来十年里,人类生产的数据将会被迅速耗尽。使用人工智能生成的内容作为训练数据可能会导致内容“污染”,从而影响模型输出的质量和多样性。这个“数据壁垒”是LLM延续扩展的一个重要阻碍。除此之外,庞大的计算需求还带来了“能源壁垒”,严重限制了LLM的扩展能力。
在实现AGI的多条路径中,物理信息神经网络(PINNs)和因果模型(Causal Models)都展现出了重要的潜力。与传统的大语言模型主要以词语之间的概率联系为基础不同,PINNs将牛顿运动定律等基本物理规律融入神经网络建模,具有在数据稀缺情况下依旧保持高价值的能力。因果模型则能够理解因果关系,处理复杂的推理任务,尤其在自主系统(如自动驾驶汽车)中,因果模型的安全性显得尤为重要。
除了PINNs和因果模型,认知人工智能(Cognitive AI)作为一种新的视角,将人类的认知机制作为研究出发点,努力在人工系统中实现类似人类智能的特性。信息格学习(Information Lattice Learning)则展现了通过少量数据进行普适知识发现的能力,这其中包含能够自主发现多领域规律的新型方法。
强化学习(Reinforcement Learning,RL)作为一种通过试错学习的方式,与AGI的定义逐渐相符。RL赋予机器在多任务与复杂环境中的适应能力,使其能够高效优化策略。同时,神经符号架构(Neurosymbolic Architectures)的提出也为AGI的发展提供了新的思路,将数据驱动学习与显式知识表示结合,有助于填补当前LLM在抽象推理与逻辑推断方面的短板。
具身智能(Embodied Intelligence)作为一种互动学习的方式,让人工智能系统通过与环境的实时互动获得对世界的深度理解。这种具身学习方式在认知的灵活性与情境感知能力方面,为实现人类级别的智能提供了坚实基础。通过“感知—运动—操作”的统一,具身智能让AI在真实环境中可以做出更为明智的决策。
尽管大语言模型在训练和推理环节消耗极高的能源,然而类脑计算芯片的开发带来了潜在的解决方法。以糖为燃料的生物计算设备也在探索阶段,若成功商业化,将可能颠覆传统的人工智能计算能源架构。
兰德报告并未详细提出针对具体技术或战略的建议,但却呼吁美国在制定AGI相关政策时要关注不确定性,为多元化的AGI发展路径构建支持性的战略框架。通过克服现有的技术与资源限制,未来的人工智能有可能在多条道路上不断进化,最终达到通用智能的高度。