博鳌热点观察|人工智能迅猛发展 风险治理引热议

人民网博鳌3月27日电 (记者梁秋坪)在博鳌亚洲论坛2025年年会上,AI元素成为了众人瞩目的焦点。光谷人形机器人以专业且亲和的姿态担任讲解员,为来宾们详细介绍各类信息;憨态可掬的熊猫机器人挥舞画笔,展示出令人惊叹的绘画技艺;机器狗灵活地完成倒立等高难度动作,吸引了众多目光。这些生动有趣的AI应用不仅为年会增添了科技魅力,更引发了广泛关注,与会嘉宾围绕人工智能的迅猛发展及其相关议题展开了热烈讨论。然而,在AI技术高歌猛进的当下,如何强化风险治理也已成为亟待解决的关键问题。
中国工程院院士、清华大学智能产业研究院院长张亚勤指出:“当前,我国人工智能行业的发展正经历着从生成式AI向Agent智能、从预训练向推理、从信息智能向物理智能和具身智能的转变。但这种快速的技术进步也伴随着风险的显著增加。”他进一步解释,智能体作为具有自我规划、学习和实践能力的技术工具,在运行过程中可能会因路径不可控,引发一系列未知的安全风险。
针对这一挑战,张亚勤提出了技术治理路径。一方面,通过算法优化提升AI的可控性与可信度,从技术基层增强对AI的掌控;另一方面,为人工智能设定明确的红线和边界,比如禁止智能体进行自我复制,严格遵守现行的应用规则和法律规定,为AI发展划定清晰的行为准则。
在加强AI风险治理是否会阻碍其发展的问题上,中国科学院自动化研究所研究员曾毅给出了明确的否定答案。他表示:“人工智能的发展应用和安全之间并非相互掣肘的关系。提升人工智能大模型的安全能力,对其求解能力的影响微乎其微。我们团队通过实验,将十几个大模型的安全性能提高了百分之二三十,结果发现这些模型解答问题的能力并未受到影响。”
曾毅提倡通过技术升级为人工智能建立“安全围栏”,而这需要技术、市场、政策、伦理等多方面协同发力。他强调:“必须将伦理安全作为人工智能大模型发展的基因,作为不可违背的第一性原理。”只有如此,才能在AI技术持续发展、智能体应用不断深入的过程中,保障其稳健前行,降低因技术扩张带来的各类风险。
中国社会科学院大学教授、国务院原副秘书长江小涓坦言:“我对过去很多年AI治理的进展感到遗憾,相关治理原则在落地执行方面成效有限。”她认为,这主要是由于过于泛泛地讨论原则问题,却忽视了将这些原则具体化、可操作化的重要性。2017年的阿西洛马会议上,与会各方制定了一套确保人工智能安全有益发展的准则,涵盖了安全性、故障透明度、价值观一致等23条原则。江小涓指出:“阿西洛马人工智能原则提出至今,一直被反复讨论。今年2月在法国巴黎举行的人工智能行动峰会,各国签署的声明依旧延续了过去提出已久的原则。实际上,如何落地、如何实践仍是最大的挑战。”
从经济学的角度出发,江小涓探讨了人工智能治理的可行性路径。她认为,AI治理可借助自发秩序和市场机制的力量。以DeepSeek为例,其最大贡献在于打破了AI行业的垄断格局,使这一领域从寡头竞争转变为充分竞争的市场。在这样的市场环境下,发展和安全问题能够通过市场自发的秩序解决。
在AI技术飞速发展的今天,博鳌亚洲论坛2025年年会聚焦AI风险治理的深入讨论,为未来AI发展与风险治理的平衡凝聚了各方智慧。各方需共同努力,推动AI在安全、健康的轨道上持续创新发展。
分享让更多人看到
- 评论
- 关注