世界人工智能大会聚焦大模型安全治理与未来发展挑战
时间:2025-08-04 20:25
小编:小世评选
在2025年世界人工智能大会智能社会论坛上,由同济大学与上海市杨浦区人民联合主办的活动于7月27日在上海隆重举行。中国工程院院士吴世忠教授在大会上发表了题为《大模型安全治理的现状与展望》的主旨演讲,吸引了众多领导、专家及研究人员的关注。本次演讲聚焦了当前人工智能治理的热点话题,特别是安心保障、技术发展及未来挑战等几个重要方面。
吴世忠在演讲中指出,随着生成式人工智能技术的迅速发展,其强大的多语言理解与生成能力已经在科学、教育、医疗、金融等多个行业取得了显著应用。最近一年内,人工智能领域的技术迭代尤为迅速,大模型的研究和应用不断走向深入。但随之而来的安全问题也日益成为各方关注的焦点。
针对当前人工智能技术的发展,吴世忠分享了四个显著的观察。在ChatGPT等模型的早期应用中,虽然反应迅速,但其结果往往存在错误。随着思维链及长上下文技术的进步,这些模型逐渐转向更深思熟虑的应答,从快回答向慢推理的方向演变。吴教授强调了多模态技术的发展,这使得模型不仅能说会道,还能够实现更具运动能力的多场景应用。而近年来的国内模型如DeepSeek、通义千问等,在算法上积极创新,在全球开源社区中取得了较大影响力,展现出中国技术的快速进步。
随着大模型的应用拓展,安全问题也随之而来。吴世忠指出,当前主要存在四类安全隐患:模型的不可解释性、鲁棒性、幻觉干扰以及不可控风险。价值观、意识形态的保护,以及因技术发展带来的隐私与就业问题,也同样引发了严格的关注。随着深度伪造、浅度伪造等技术的兴起,社会治理、数据安全及文化安全面临了严峻的挑战。
为了应对人工智能带来的安全隐患,各国开始逐渐加强治理与监管。尽管以美国为首的西方国家目前表态放松监管,但从长远趋势来看,监管的呼声与需求将会更加高涨。许多国际AI企业的领军人物警示,我们正迈向通用人工智能的奇点,安全问题的关注度急需提升。
吴世忠还提到,欧洲以《人工智能法案》的形式明确了严格的监管框架,而美国则在保持技术领先的同时,试图放宽监管。这显示全球治理中的复杂性及多样性。同时,他还指出了国际间针对安全治理的新动向,包括由美国、英国等国主导的AI安全研究机构的设立,全球AI安全峰会的相继召开,体现了国际社会在人工智能治理方面的紧迫感与共识。
吴世忠强调:在推动人工智能技术的同时,加强安全治理至关重要。中国在这一领域承担着越来越重要的责任,已探索出具有中国智慧的治理路径。他提出四点具体发展建议,以推动大模型的安全应用。
以新型举国体制推动技术发展,重点突破关键技术环节,打造国家核心产业链。推进安全测评,以确保大模型在关键领域的有效应用,使其风险可控。第三,根植中华传统文化,结合伦理道德,构建完善的法律法规体系,以提升技术的社会责任感。,加强国际合作,推动人类命运共同体的理念,实现国际治理框架的互信互认。
展望未来,吴世忠指出,尽管大模型的推广是不可逆转的趋势,但其治理依然面临严峻的挑战,包括模型不透明造成的伦理责任划分困难、商业利益与社会责任的冲突、以及由于文化差异导致的国际间治理难题。全球亟需探索出一个全面的安全治理框架,才能在创新与监管之间寻求平衡,为社会带来更安全、更可持续的人工智能应用。
在,吴世忠呼吁学术界的同仁们积极参与到人工智能安全研究与伦理道德的探索中,共同推动人文关怀与技术发展的结合,助力实现智能向善的目标,促进全球的和谐美好未来。