在「人工智能(AI)首尔峰会」上,微软、亚马逊、OpenAI等科技巨头达成了一项重要的国际协议,旨在确保AI的安全开发。该协议要求企业发布安全框架,识别并衡量潜在风险,如AI滥用和网络攻击等,并设立「紧急停止开关」以应对极端情况。英国首相苏纳克表示,这是全球领先AI公司首次在AI安全方面做出相同承诺,将确保透明度和问责制。《布莱奇利宣言》和即将到来的AI安全峰会也是推动全球AI安全监管的重要步骤。此外,欧盟已批准全球首部AI监管法规——《人工智能法案》,而英国则倾向于采取较为宽松的「轻触式」监管方式。明天的会议将进一步讨论AI安全性和可持续发展等合作方案。