文/广州日报全媒体记者申卉
3月23日,中国发展高层论坛2026年年会进入第二天。当天下午,年会先后安排了两场与人工智能相关的研讨会——一场聚焦人工智能产业化发展,另一场则关注人工智能治理。当前一个会议说着人工智能的规模发展、赋能千行百业时,后一个会议说的却是危机、干预、监管等。对此,清华大学苏世民书院院长、教授薛澜表示:“治理和应用不是矛盾的,更好地治理其实是为了更好地应用。”
“人工智能发展的一个趋势就是从‘会做题’走向‘会办事’。”在人工智能产业化应用专题研讨会上,上海人工智能实验室主任、首席科学家周伯文表示。展望未来,他认为科学发现将是人工智能的最佳应用场景。
贝恩公司全球董事会主席、总裁、首席执行官戴思睿坦言,虽然人工智能发展迅猛,但目前还处于试点项目多、尚未规模化的阶段。他认为,最成功的人工智能变革,应该是业务流程和人才能力的重塑。
蚂蚁集团首席执行官韩歆毅表示,安全必须贯穿于AI发展的始终,包括模型幻觉、隐私安全、伦理底线和人机关系等挑战,公司在进入AI医疗健康领域时,对风险做了整体设计,并针对每一类风险建立了相应的防护机制。
一边,在大谈人工智能的规模化发展;另一边,在“人工智能治理:挑战与合作”专题研讨会上,则更像是在为人工智能的发展“划下红线”。
伦敦政治经济学院教授、2010年诺贝尔经济学奖获得者克里斯多夫·皮萨里德斯直言,人工智能正在变得强大,但必须有原则。在他看来,人类要保持对人工智能的控制权,可以及时干预,否则如果等到危机爆发,损害无法挽回。在他看来,对人工智能的前瞻性治理非常重要,哪些领域可以自由开发、哪些需要监管,都需要探讨。对医疗、产品安全等高风险领域,需要将风险透明化,而且确保使用无偏见数据。
清华大学苏世民书院院长、教授薛澜将人工智能风险划分为恶意使用、故障问题、系统性风险三大类,并指出智能体的出现进一步加剧了传统大模型已存在的风险,让各类风险的影响范围与危害程度都有所提升。
面对智能体的多重风险,薛澜强调,治理工作需遵循敏捷治理、多元共治的核心原则,适配人工智能与智能体技术快速发展的特点,打破传统大统一的政策治理模式,实现三大治理思路的转变。


首页


放大
上一版
