AI幻觉问题引发广泛关注 专家呼吁制定治理方案
时间:2025-06-14 06:15
小编:小世评选
近年来,随着人工智能(AI)技术的飞速发展,其在各个领域的应用逐渐获得认可。伴随技术进步而来的是AI幻觉这一问题的日益凸显。这一现象不仅影响着AI系统的可靠性,也引发了公众的广泛关注与讨论。针对这一议题,专家们在最近的“环球前沿科技论坛·AI治理共识探索与中国方案”专题研讨会上发表了各自的见解。
AI幻觉,通常被概括为“内容不准确,或含虚假信息”,可以理解为AI在生成内容时所犯下的错误。这一问题的严重性在于,公众对AI应用过程中的不准确性表现出明显的不信任。在一份问卷调查中,42.2%的受访者表示AI生成的内容经常不可靠,这直接影响到AI在诸如医疗、法律等对准确性要求极高的领域的应用。
专家们表示,AI幻觉的根本原因在于大模型的设计缺陷以及训练数据的不足。作为基于概率和大量数据训练而成的模型,大模型在生成内容时常常偏向于选择出现频率较高的表达方式,而对随机生成的内容缺乏判断。中国信息通信研究院的人工智能研究所安全与具身智能部主任石霖指出,AI生成的内容可能出现三类主要幻觉:事实性幻觉、忠实性幻觉以及跨模态不一致问题。
例如,事实上不存在的事件被创造出来,或者模型在解读上下文时展现出矛盾的逻辑,都会影响内容生成的可信度。正如与会专家提到的,AI的生成过程不仅因为训练数据质量低下,还受到数据本身的影响。如果AI生成的幻觉内容再被用于后续训练,就形成了恶性循环,进一步加剧了网络上低质量内容的增长,影响了社会信任。
在讨论AI幻觉造成的潜在危害时,与会专家指出,幻觉问题的严重性实际上取决于应用场景。在一些领域,AI幻觉可能不会造成太大影响。例如,在娱乐和创意产业中,生成的内容更注重创意,适度的“幻觉”反而可能带来新灵感。但在法律、医疗等需要高度准确性的领域,幻觉问题就显得极为危险。实例表明,某些法律文件误引用了AI生成的虚假案例,这可能导致司法程序的严重干扰和误判。
从治理层面来看,专家们普遍认为,解决AI幻觉问题需采取综合措施。是数据质量的提升,确保AI训练中使用的是高质量的原生数据。在AI生成的内容中引入真实性核验机制,以减缓幻觉的影响。专家建议通过建立幻觉评估体系,对模型进行分类管理,避免在关键领域使用低品质量的AI模型。
另一位专家强调,应当对AI生成的内容进行透明标识,以便公众识别哪些信息是通过AI生成的。中国在这方面已经走在前列,通过《互联网信息服务深度合成管理规定》明确了对人工智能生成内容的标识要求。这种规定不仅有助于提升公众的信任,也为其他国家在AI治理领域提供了借鉴。
在面对AI幻觉问题时,不能仅将其视为技术缺陷,而更应该从社会层面进行深刻反思。公众与企业应意识到,AI并不是全知全能的工具,过度依赖可能会导致误判。因此,在允许AI进入高风险行业的同时,必须加强人类最终审查的权利与能力。
AI幻觉问题的复杂性和多样性要求我们以整体视角进行治理。解决这一问题不仅需要技术层面的创新和提升,更需要社会各界共同合作,制定出科学有效的政策与方案。唯有如此,AI技术才能在推动社会发展的同时,最大限度地减少其潜在风险。