人工智能发展迅猛,而对这一技术发展的担忧也以同样的比例快速上升。今年博鳌年会,跟往年一样有很多人工智能相关的议题,其中对AI的安全和治理提上了更加重视的层面。
3月26日在“AI:如何做到应用与治理的平衡推进?”分论坛上,清华大学智能产业研究院院长张亚勤认为,过去一年人工智能取得了巨大进展,规模化发展虽有所放缓,但推理阶段的创新成为新的重点。DeepSeek以更优的资源配置和开源模式带来了突破,被认为是中国近两年在人工智能领域的最大创新,也代表了中国对全球人工智能的贡献。
张亚勤认为,AI正从信息智能(如语言、数据处理)向物理智能(如无人驾驶、机器人)演进,并进一步迈向生物智能(如脑机接口、生物体大模型)。无人驾驶是具身智能最重要的应用,也是最先能够落地的,相较之下,人形机器人仍需要较长时间发展。
张亚勤还称,目前,AI的安全治理取得了一定进展,但仍面临诸多挑战。生成式AI通过智能体(Agent)加速发展,但智能体的不可控性带来了更大安全风险。因此,AI安全治理应设定红线。
中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅提出,过去人工智能的符号主义和连接主义两种发展路径尚未完全融合。今年在基于生物智能的推理方法上取得进展,使得符号和连接主义在工程应用层面深度融合的机遇已经到来。
曾毅认为,DeepSeek在小数据、小算力条件下实现了更高的智能表现,其关键在于采用了类似人脑丘脑的“路由机制”优化算力分配,而非整体更新所有神经网络权重。这种机制虽非完全模仿人脑,但在计算进化上与生物演化异曲同工。未来人工智能的发展不仅要在行为层面达到类人水平,还将在计算机制上受到自然演化规律的启发,不仅学习机制,甚至发育机制都会成为借鉴对象。
在人工智能安全与发展方面,曾毅认为,过去的讨论认为人工智能的发展速度超前,而安全护栏建设滞后,导致风险。经过探索,科学家们找到了提升安全性的技术方案,并证明了“安全和发展并非相互掣肘”。
研究表明,在提升人工智能大模型的安全能力时,对其求解能力的影响几乎可以忽略。这一研究已在人工智能与机器学习顶会上发表,表明人工智能可以在不损害认知能力的前提下变得更加安全。
曾毅认为,今年伦理安全应该作为人工智能大模型发展的基因,应该作为第一性原理,不可删除,不可违背,同时做到稳健发展。
中国社科院大学教授、国务院原副秘书长江小涓认为,AI治理的进展有限,从阿瑟马人工智能原则(Asilomar AI Principles)提出至今,许多治理原则只是停留在讨论层面,缺乏落地执行,实践才是最大挑战。
从经济学视角评估AI发展,她提出AI发展的两个经济学标准。首先,是否提高生产力(创造更多财富),AI在这一点上没有问题。第二,是否实现公平分配(社会成员能否共享发展成果),关键是就业是否充分,收入分配是否公平等。如果AI冲击就业,应制定新的社会保障政策,而不是停留在口号式的原则讨论。
她认为DeepSeek的出现打破了AI行业的垄断,从寡头控制变为真正的市场竞争,使AI从技术能力转向产业能力。她强调,在竞争市场中,市场机制能够自发解决许多问题,不必过度依赖高层政策或原则性讨论。
芬兰前总理阿霍在谈及AI发展的公平性与治理挑战时认为,AI发展分为纵向竞争和横向普及。纵向竞争指美国、中国、欧洲在AI领域处于领先地位,其他国家(如韩国、日本)或有机会,但大部分国家难以赶超。横向普及则是指AI应作为工具,帮助落后国家弥补差距,提升企业、机构和业务的智能化水平,实现更均衡的发展。
阿霍认为,AI治理需要建立共识,类似于当年移动技术标准的制定,政府、企业和科学界应共同制定AI的未来规则,以确保合理、可持续的发展。