新浪新闻客户端

“我们列出3个与美方不重复的AI安全风险后,基辛格发出赞叹”

“我们列出3个与美方不重复的AI安全风险后,基辛格发出赞叹”
2025年03月27日 22:14 新浪网 作者 观察者网

  3月27日,观察者网与中国互联网治理论坛(中国IGF)共同举办了最新一期的科创类谈话节目《心智对话》,主题为“AI与国运:技术跃迁、产业革新背景下的全球治理”。

  在对话中,中国科学院自动化研究所研究员、人工智能安全与超级对齐北京市重点实验室主任、联合国人工智能顾问机构专家曾毅提到了他与已故美国前国务卿基辛格的一段交流。

  中国科学院自动化研究所研究员、人工智能安全与超级对齐北京市重点实验室主任、联合国人工智能顾问机构专家曾毅 观察者网

  曾毅回忆说,在基辛格最后一次访华期间,曾经问中方对AI安全是否足够重视。曾毅提出,美方团队可以先列出3个AI安全风险,他的团队后列。在曾毅方面也列出3个不重复的风险后,基辛格赞叹:“你们说得很好”,“看来并非美国的技术发展在前,对安全的认知也就一定走在中国前面。”

  曾毅解释说,他国关心中方对技术安全的认知,正是基于共护安全、共享发展的逻辑。除了发展的能力、应用的能力,安全也是能力建设的重要维度。

  他表示,对AI的治理从来不会影响其发展进程,而是以护航者的角色避免AI“野蛮生长”。同样,注重AI安全也不会影响其发展。

  在曾毅看来,所谓“平衡安全和发展”的说法存在问题。“平衡是相互掣肘的意思,好似在说,注重安全,发展必然受阻。”

  但是根据曾毅团队近期的实验,人工智能大模型完全可以在几乎不影响问题解决正确率的前提下,将安全属性提升20%-30%。

  “如果是真正的发展,治理安全会推进这种稳健的发展;如果你认为受到了治理的影响,可能那本身就是一种野蛮的尝试。”曾毅说。

  本文系观察者网独家稿件,未经授权,不得转载。

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。

来自于:河南
权利保护声明页/Notice to Right Holders
0条评论|0人参与网友评论
最热评论

举报邮箱:jubao@vip.sina.com

Copyright © 1996-2025 SINA Corporation

All Rights Reserved 新浪公司 版权所有

广告