科技巨头承诺安全开发AI模型:极端风险下会「自拔网线」
2024 年 5 月 22 日

在「人工智能(AI)首尔峰会」上,微软、亚马逊、OpenAI等科技巨头达成了一项重要的国际协议,旨在确保AI的安全开发。该协议要求企业发布安全框架,识别并衡量潜在风险,如AI滥用和网络攻击等,并设立「紧急停止开关」以应对极端情况。英国首相苏纳克表示,这是全球领先AI公司首次在AI安全方面做出相同承诺,将确保透明度和问责制。《布莱奇利宣言》和即将到来的AI安全峰会也是推动全球AI安全监管的重要步骤。此外,欧盟已批准全球首部AI监管法规——《人工智能法案》,而英国则倾向于采取较为宽松的「轻触式」监管方式。明天的会议将进一步讨论AI安全性和可持续发展等合作方案。

专业版功能专业版功能
登录
体验专业版特色功能,拓展更丰富、更全面的相关内容。

行业标签

科技
icon订阅
物联网
icon订阅
二维码

更多体验

前往小程序

二维码

24 小时

资讯推送

进群体验

logo
科技新闻,每天 3 分钟