上个月,美国总统乔·拜登的一个人工智能生成的deepfake旨在愚弄新罕布什尔州的初选选民,之后,政府正在加紧努力验证白宫的官方通信。

随着人工智能的潘多拉盒子被打开,技术人员和伦理学家都在争先恐后地寻找对抗人工智能生成的deepfakes的方法。白宫现在表示,正在探索使用加密技术来指定真实内容。

白宫人工智能特别顾问本·布坎南本月早些时候告诉《商业内幕》:“我们认识到,越来越强大的技术使克隆声音或假视频等事情变得更容易。”。“我们不想抑制拥有更强大工具所带来的创造力,同时也要确保我们能够管理一些风险。”

布坎南表示,拜登政府在2023年与十几名人工智能开发者会面后,这些公司同意在向公众发布产品之前在产品中嵌入水印。然而,水印可以被完全操纵和去除,这使得相反的方法很有吸引力。

Buchanan告诉雅虎财经:“(在)政府方面,我们正在通过新的人工智能安全研究所和商务部制定水印标准,以确保我们有一套明确的道路规则和指导,来解决这些棘手的水印和内容来源问题。”。

白宫发言人没有立即回应Decrypt的置评请求。

12月,在一项对抗人工智能生成图像的倡议中,数字图像巨头尼康、索尼和佳能宣布合作,在各自相机拍摄的图像中加入数字签名。

上周,拜登政府宣布成立美国人工智能安全研究所,参与者包括OpenAI、微软、谷歌、苹果和亚马逊。政府表示,该研究所诞生于拜登10月针对人工智能行业的行政命令。

开发人工智能来检测人工智能deepfakes已经成为一个家庭手工业。然而,一些人反对这种做法,认为这只会使问题变得更糟。

身份验证公司IDPartners的联合创始人兼首席执行官罗德·布斯比告诉Decrypt:“使用人工智能检测人工智能是行不通的。相反,它会造成一场无休止的军备竞赛。坏人永远会赢。解决方案是扭转问题,让人们能够在线证明自己的身份。使用银行身份是解决问题的明确方案。”

Boothby指出,银行业使用“持续身份验证”来确保匿名互联网会话中的人是他们声称的人。

对于网络安全和法律学者Star Kashman来说,保护自己免受deepfakes的攻击要追溯到人们的意识。

Kashman在一封电子邮件中告诉Decrypt:“尤其是对于机器人语音和人工智能生成的电话诈骗,提高认识可以防止很多损害。”。“如果你的家人被告知一个常见的人工智能语音电话骗局,骗子打电话假装绑架了一名家庭成员,并使用人工智能模仿该家庭成员的声音,那么接到电话的人可能知道,在为从未失踪的人支付假赎金之前,先检查一下该亲属。”

生成人工智能的进步使欺骗和愚弄公众变得越来越容易,最近的一场机器人语音运动证明了这一点,该运动试图阻止新罕布什尔州的民主党选民参加上个月的初选。

拜登的自动语音通话被追踪到一家总部位于得克萨斯州的电信公司。在向Lingo Telecom LLC发出停止令后,美国联邦通信委员会通过了一项新规定,将使用人工智能语音的机器人语音定为非法。

尽管Kashman表示,提高认识仍然是避免被人工智能deepfakes欺骗的最佳方式,但她承认,这种威胁需要政府干预。

卡什曼说:“至于深度赝品,知识并不能阻止个人创造出你的这些赝品。”。“然而,知识可能会给政府增加更大的压力,这是通过立法机构所必需的,立法机构将制造非法的非自愿深度伪造品定为联邦非法。”

微信里点“发现”,扫一下二维码便可将本篇文章分享至朋友圈