美国、英国、澳大利亚和其他15个国家发布了全球指导方针,以帮助保护人工智能模型不被篡改,敦促公司使其模型“设计安全”
11月26日,这18个国家发布了一份20页的文件,概述了人工智能公司在开发或使用人工智能模型时应如何处理其网络安全,因为他们声称在快节奏的行业中“安全往往是次要考虑因素”。
该指南主要包括一般性建议,如严格控制人工智能模型的基础设施,在发布前后监测模型是否被篡改,以及对员工进行网络安全风险培训。
激动人心的消息!我们与@NCSC和21个国际合作伙伴共同制定了“安全人工智能系统开发指南”!这是数字时代安全人工智能的运营合作: pic.twitter.com/e0sv5ACiC3——网络安全和基础设施安全局(@CISAgov)2023年11月27日
没有提到人工智能领域的某些有争议的问题,包括应该对图像生成模型和深度伪造或数据收集方法的使用以及在训练模型中的使用进行哪些可能的控制——这一问题已经导致多家人工智能公司因侵犯版权而被起诉。
美国国土安全部长亚历杭德罗·马约卡斯在一份声明中表示:“我们正处于人工智能发展的转折点,这很可能是我们这个时代最重要的技术。”。“网络安全是构建安全、可靠的人工智能系统的关键。”
相关:欧盟科技联盟警告在《欧盟人工智能法案》定稿前过度监管人工智能
该指南遵循了其他政府对人工智能的倡议,包括政府和人工智能公司本月早些时候在伦敦举行的人工智能安全峰会,以协调人工智能发展协议。
与此同时,欧盟正在讨论其将监督太空的《人工智能法案》的细节,美国总统乔·拜登于10月发布了一项行政命令,为人工智能安全和安保制定了标准,尽管双方都受到了人工智能行业的抵制,声称这可能会扼杀创新。
新的“设计安全”指南的其他联合签署国包括加拿大、法国、德国、以色列、意大利、日本、新西兰、尼日利亚、挪威、韩国和新加坡。包括OpenAI、微软、谷歌、Anthropic和Scale AI在内的人工智能公司也为制定指南做出了贡献。
杂志:AI Eye:人工智能在加密货币中的真正用途,谷歌的GPT-4竞争对手,糟糕员工的人工智能优势
微信里点“发现”,扫一下二维码便可将本篇文章分享至朋友圈
