免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 硬件资讯 > 马斯克怒斥AI幻觉,计划人类知识库以提升Grok准确性

马斯克怒斥AI幻觉,计划人类知识库以提升Grok准确性

时间:2025-06-25 04:35

小编:小世评选

在人工智能领域,伊隆·马斯克是一个备受瞩目的名字。他不仅是特斯拉和SpaceX的创始人,还曾参与OpenAI的创建,深刻影响了全球AI的发展。最近,他通过自己的xAI公司推出了一款名为Grok的人工智能助手。马斯克对AI的现状并不满意,他对AI中的“幻觉”现象表示愤怒,并计划重构人类知识库,以提升Grok的性能。

据报导,xAI正在进行一项高达3亿美元的融资交易,使其估值达到了1130亿美元。尽管取得了这样巨大的市值,马斯克却在社交媒体X上发声,指责当下的AI数据模型中存在大量未经校正的垃圾信息。他明确表示,数据训练出来的AI模型往往会产生偏差或事实性错误,这种现象通常被称为“AI幻觉”。马斯克计划通过更高版本的Grok(可能命名为Grok 4)来重写人类知识语料库,填补缺失信息,并纠正错误内容。

这一举措的背景是,随着人工智能的快速发展,网络上充斥着大量未经证实的信息,这严重干扰了AI的正常运作。通过不加筛选的数据训练,AI对事实的理解可能变得扭曲,从而导致用户不能完全信任AI生成的内容。马斯克认为,重写现有知识库的必要性愈发显著,以建立一个可靠、可信的知识库,供AI进行学习和推理。

在进行AI幻觉的评测中,雷科技对多款AI大模型的表现进行了测试。其中包括了Grok、豆包、文心、通义、Kimi和DeepSeek。在测试中,几个AI模型表现出了一定程度的幻觉现象,例如给出的答案与事实严重不符。在尝试通过简单问题来评估这些AI的表现时,测试显示即便是基础的逻辑题,很多模型还是出现了错误。这引发了用户对AI生成内容的信任危机。

对于AI幻觉的现象,雷科技也采取了一些措施来进行充分的验证开发。在测试中,当关闭深度思考模式时,一些AI模型在回答问题时再次出现了错误,而Grok在这一方面的表现相对较好,能够给出准确答案。测试结果显示,豆包和通义虽然在第二轮中有所改善,但对于某些简单问题依然无法作出正确回答。

当AI被问及复杂逻辑问题时,许多模型则表现出了一定的局限性。例如,“生鱼片是死鱼片”这个句子就挑起了AI对语言深层含义的理解。Grok不仅成功解读了该句子的本意,还提供了相关的背景信息,尽管它未能准确识别该段子的来源,但展示了其在理解文本上下文上的能力。

针对幻觉现象的根源,AI企业可以通过引入多轮推理和外部知识检索机制来降低错误的概率。马斯克的计划显然是希望通过重构知识库来解决问题,但也面临着外界的质疑。一些AI研究者认为,随意更改历史数据的做法可能导致语料的客观性受到影响,而这并不是解决问题的根本。

清华大学的一项研究指出,AI幻觉并不全是负面的。在科学研究、自动驾驶等领域,AI的某些“错误”反而可能激发新的发现。例如,历史上著名的诺贝尔奖获得者David Baker利用AI的“错误预测”为新型蛋白质结构设计提供了灵感。正因如此,AI幻觉有时成为推动科技进步的“黑马”。

总体而言,马斯克对于改善AI模型精确度的坚持值得肯定,但是将重构知识库作为主攻方向有其风险。AI训练需要不断引入新的数据,以保证其知识的时效性与准确性。若专注于对已有数据的重新编写,可能阻碍AI的持续发展,并导致语料库的缺乏多样性。寻求多元视角、承认AI在某些领域的局限性,是更为理性的选择。

在未来的发展中,如何在提升AI准确性的同时保持知识的丰富和多样,成为了每一个AI企业必须面对的重要课题。而马斯克的计划不仅是对现有AI现状的反思,也是对未来AI发展的探索,两者之间的平衡,至关重要。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多