周二出席韩国人工智能安全峰会的十几家领先科技公司承诺继续安全、负责任地开发人工智能技术。
这 16 家公司——包括美国巨头谷歌、Meta、微软和 OpenAI,以及来自中国、韩国和阿拉伯联合酋长国的公司——同意优先考虑人工智能的安全性、创新性和包容性。
出席此次会议的知名人士包括特斯拉公司的埃隆·马斯克、前谷歌首席执行官埃里克·施密特和三星电子董事长李在镕。
这项承诺是在为期两天的全球峰会的第一天由英国首相里希·苏纳克和韩国总统尹锡烈主持的一次虚拟会议上做出的。
七国集团 (G7)、欧盟、新加坡、澳大利亚和韩国的世界领导人也支持《首尔宣言和人工智能安全科学国际合作意向声明》。
尹永哲总统表示:“我们必须确保人工智能的安全,以保护我们社会的福祉和民主。”他表示,并担心深度伪造等风险。
恰逢人工智能首尔峰会,美国政府发布了最新的人工智能安全战略愿景,其中包括人工智能安全机构之间的全球合作计划。
周一,英国人工智能安全研究所(AISI)宣布将在旧金山开设首个海外办事处,作为全球增强人工智能安全努力的一部分。
美国商务部长吉娜·雷蒙多在谈到该战略时表示:“人工智能的最新进展为我们的社会带来了令人兴奋的、改变生活的潜力,但只有我们努力减轻人工智能在不负责任地开发和部署时所带来的真正危险,我们才能做到这一点。”
英国科学、创新和技术部在网上发布的最新声明旨在以去年 11 月在英国历史悠久的布莱奇利公园举行的首届人工智能安全峰会上达成的“布莱奇利协议”为基础。
峰会与会者还讨论了人工智能技术如何更具包容性,强调治理框架之间的互操作性的必要性,如何保持与国际机构的接触,以及如何安全地推进人工智能创新。
该承诺表明,“面对人工智能前所未有的进步及其对我们的经济和社会的影响,我们将共同致力于促进人工智能领域的国际合作与对话”。
#新闻:今天,随着人工智能首尔峰会的开始,@SecRaimondo发布了美国人工智能安全研究所的战略愿景,描述了该部门在@POTUS的领导下实现#AI安全的方法。
https://t.co/RsDgYbChoV pic.twitter.com/c0TxloZP5r
此外,该承诺还表示,各国和人工智能公司将“确保人工智能的设计、开发、部署和使用的安全、可靠和可信”。
其他致力于人工智能安全的公司包括由中国阿里巴巴、腾讯、美团和小米、阿联酋技术创新研究院、亚马逊、IBM 和三星电子支持的智普人工智能。
两家公司还致力于发布用于衡量风险的安全框架,避免采用无法充分缓解风险的模型,并确保治理和透明度。
倡导人工智能模型安全的组织 METR 的创始人贝丝·巴恩斯 (Beth Barnes) 在回应该声明时表示:“在‘红线’上达成国际共识至关重要,因为人工智能的发展将对公共安全造成不可接受的危险。”
专家仍对人工智能风险发出警告
被誉为“人工智能教父”的著名计算机科学家 Yoshua Bengio 对这些承诺表示欢迎,但强调自愿措施需要伴随监管。
在峰会前发布的一份警告报告中,25位世界顶尖科学家表示,人类在保护免受人工智能威胁方面做得还不够。
诺贝尔奖获得者、图灵奖获得者和其他领先的人工智能专家警告说:“如果人工智能的进步不受控制,很有可能最终导致大规模生命和生物圈的丧失,以及人类的边缘化或灭绝。”
但峰会出席者、大型语言模型公司 Cohere 联合创始人艾丹·戈麦斯 (Aidan Gomez) 评论说,自 11 月以来,智囊团的态度已经从长期的世界末日情景转向更实际的担忧。
诸如如何更好地将人工智能融入医疗和金融领域等实践。
韩国总统官员表示,尽管中国在首次会议期间共同签署了关于集体管理人工智能风险的“布莱切利协议”,但它没有出席周二的会议,但预计将参加周三的面对面部长级会议。
官员宣布,下一次人工智能安全会议定于法国举行。
文章原文链接:https://www.anquanke.com/post/id/296698