ChatGPT背后的人工智能研究和部署公司OpenAI正在发起一项新举措,以评估广泛的人工智能相关风险。

OpenAI公司10月25日宣布,该公司正在组建一个新团队,致力于跟踪、评估、预测和保护人工智能带来的潜在灾难性风险。

OpenAI的新部门名为“准备”,将专门关注与化学、生物、放射性和核威胁相关的潜在人工智能威胁,以及个性化说服、网络安全和自主复制和适应。

在Aleksander Madry的领导下,准备团队将试图回答诸如前沿人工智能系统在被滥用时有多危险,以及恶意行为者是否能够部署被盗的人工智能模型权重等问题。

OpenAI写道:“我们相信,前沿人工智能模型将超过目前最先进的现有模型的能力,有可能造福全人类。”OpenAI承认,人工智能模型也带来“越来越严重的风险”。该公司补充道:

“我们认真对待与人工智能相关的全方位安全风险,从我们今天拥有的系统到最远的超级智能。[…]为了支持高效人工智能系统的安全,我们正在制定灾难性风险防范方法。”

根据博客文章,OpenAI目前正在为其新的准备团队寻找具有不同技术背景的人才。此外,该公司正在发起一项人工智能准备挑战,以预防灾难性滥用,为其前10名提交的申请提供25000美元的API积分。

OpenAI此前表示,计划在2023年7月组建一个新团队,致力于应对潜在的人工智能威胁。

相关:CoinMarketCap推出ChatGPT插件

人工智能潜在的风险经常被强调,同时人们担心人工智能有可能变得比任何人类都更智能。尽管承认这些风险,但像OpenAI这样的公司近年来一直在积极开发新的人工智能技术,这反过来又引发了进一步的担忧。

2023年5月,人工智能安全中心非营利组织发布了一封关于人工智能风险的公开信,敦促社区将减轻人工智能灭绝的风险与流行病和核战争等其他社会规模的风险一起作为全球优先事项。

杂志:如何在动荡的市场中保护您的加密货币——比特币OGs和专家参与

微信里点“发现”,扫一下二维码便可将本篇文章分享至朋友圈