告密者斯诺登:永远不要信任 OpenAI 或其 ChatGPT 等产品|TodayAI

人工智能新闻5个月前更新 TodayAI
1,761 0 0
PonderAI-智能助手

告密者斯诺登:永远不要信任 OpenAI 或其 ChatGPT 等产品|TodayAI

为什么 OpenAI 变得越来越难以信任

OpenAI,一家以开发先进人工智能技术而闻名的公司,正面临越来越多的信任危机。近期,一些令人不安的迹象使人们对这家公司的透明度和安全性产生了质疑。

首先,在 OpenAI 的旧金山办公室外,有一些身份不明的秘密保安人员,这些人的出现给当地社区带来了不安。据《旧金山标准报》报道,邻近宠物店的收银员表示,OpenAI 的办公室有一种“秘密的氛围”,并且有员工看到类似秘密保安的男子站在大楼外,却不透露他们的雇主是 OpenAI 。一位邻近企业的员工说:“ OpenAI 不是一个坏邻居,但他们很秘密。”

最近,OpenAI 宣布任命前美国国家安全局(NSA)局长 Paul Nakasone 进入董事会。Nakasone 不仅领导过 NSA ,还曾是美国网络司令部的负责人。OpenAI 表示,Nakasone 的聘用代表了公司对安全和保障的承诺,并强调了随着人工智能的发展,网络安全的重要性。

Nakasone 在一份声明中说:“ OpenAI 对其使命的奉献与我在公共服务中的价值观和经验高度一致。我期待为 OpenAI 确保通用人工智能的安全和造福全球人民的努力做出贡献。”

然而,批评人士对 Nakasone 的聘用表示担忧。他们认为,这一任命可能象征着对监视的进一步推动。美国告密者斯诺登(Edward Snowden)在 X 平台(前身为 Twitter )上发文称,Nakasone 的聘用是“对地球上每个人权利的有计划的背叛”。他写道:“他们完全暴露了:永远不要信任 OpenAI 或其产品(如 ChatGPT 等)。”他在另一条评论中提到,“人工智能与过去二十年来积累的大规模监视数据的交集,将把真正可怕的权力置于少数不受监管者的手中。”

另一方面,弗吉尼亚州的民主党参议员、参议院情报委员会主席 Mark Warner 对 Nakasone 的聘用表示支持,称这是一个“巨大的收获”。Warner 对 Axios 表示:“在广泛的安全社区中,没有人比他更受尊敬。”

OpenAI 可能需要 Nakasone 的安全专业知识,尤其是在安全问题上。四月,OpenAI 解雇了前董事会成员 Leopold Aschenbrenner ,原因是他发送了一份详细描述“重大安全事件”的备忘录。他描述公司的安全措施“严重不足”,无法防止外国势力的盗窃。不久之后,OpenAI 的“超级对齐”安全团队——专注于开发与人类利益兼容的人工智能系统的团队——在公司的两位最著名的安全研究员辞职后突然解散。

其中一位离职的研究员 Jan Leike 表示,他与 OpenAI 领导层在公司核心优先事项上已经有很长时间的分歧。OpenAI 的首席科学家 Ilya Sutskever 起初成立了“超级对齐”安全团队,但他对离职的原因更加谨慎。不过公司内部人士表示,他因为在未遂的 CEO Sam Altman 罢免行动中的角色而处于不稳定状态。Sutskever 不赞同 Altman 对人工智能发展的激进方法,这导致了他们之间的权力斗争。

随着这些问题的出现,OpenAI 的透明度和安全性受到越来越多的质疑。公司是否能在保持创新的同时,重建公众信任,仍是一个悬而未决的问题。

OpenAI 员工声称被噤声,要求警告权以提高 AI 安全性

告密者斯诺登:永远不要信任 OpenAI 或其 ChatGPT 等产品|TodayAI

前些日子,OpenAI 的一群现任和前任员工,以及来自 Anthropic 和 Google DeepMind 的几位同事,联合发起了一项倡议,呼吁“警告权”,以便向 AI 领导层和公众就 AI 安全问题发出警告。他们对公司责任、过度扩张和 AI 工作人员被噤声表示担忧。

这些员工希望通过强有力的举报人保护措施、安全的匿名报告途径,以及废除限制现任和前任 AI 员工发言的保密协议和非贬损协议,来保障发声的自由。他们还要求 AI 公司支持开放批评的文化,只要商业机密能够得到保护。

这项倡议得到了 AI 领域“教父”Yoshua Bengio 和 Geoffrey Hinton 以及知名 AI 科学家 Stuart Russell 的联署支持。倡议者坚信 AI 将为人类带来前所未有的利益,但同时也警示技术风险,包括行业内权力集中和对担忧员工的噤声。

“OpenAI 首席执行官 Sam Altman 曾表示,‘你不应该相信一家公司,当然也不应该相信一个人来管理 AI’,我们对此表示赞同,”前 OpenAI 员工兼联盟成员 William Saunders 在声明中说。“在处理潜在危险的新技术时,应该有途径与独立专家、政府和公众分享关于风险的信息。”

Saunders 补充道,“如今,最了解前沿 AI 系统工作原理及其部署风险的人们,由于可能的报复和过于广泛的保密协议,无法完全自由地发言。”

这项倡议的宣布正值 Vox 的一篇报道之后,该报道揭示了 ChatGPT 的创造者 OpenAI 威胁要收回员工的已授予股权——许多硅谷员工会接受这些股权以替代更高的薪水——如果他们不签署严格的保密协议。对此报道,OpenAI 首席执行官 Sam Altman 表示他不知道有关“用已授予股权换取沉默”的条款,并表示“真心感到尴尬”。然而,Vox 的后续报道显示,Altman 和其他 OpenAI 高管签署了文件,暗示他们直接知晓这一非常规条款。

“为了让 OpenAI 和其他 AI 公司在安全性、安全性、治理和道德方面对自己的承诺负责,”前 OpenAI 员工、目前 Alignment Research Center 研究员 Jacob Hilton 在推特线程中写道,“公众必须相信员工不会因发声而遭到报复。”Hilton 补充说,目前为止,AI 公司向公众提供保证的主要方式是通过自愿的公开承诺。但这本质上非常脆弱,因为“公众没有好的方式判断公司是否真正坚持这些承诺,公司也没有透明的动机。”

OpenAI 最近完全解散了其“超级对齐”安全团队,这当然不会增加人们对该公司优先考虑安全和道德努力的信心。在其他地方,谷歌的不安全搜索 AI 也在最近几周遇到了麻烦。

对于“警告权”信件,OpenAI 发言人告诉《纽约时报》,这家 AI 公司“为我们提供最有能力和最安全的 AI 系统的记录感到自豪,并相信我们在解决风险方面的科学方法。”他补充说,“鉴于这项技术的重要性,我们同意严格的辩论至关重要,我们将继续与政府、民间社会和世界各地的其他社区接触。”他还指出,OpenAI 设有匿名诚信“热线”。

谷歌发言人根据《纽约时报》的报道,拒绝回应。Futurism 也联系了 Anthropic,但未得到回应。

对于任何新兴技术来说,安全和道德都是重要的考虑因素。鉴于 AI 公司领导层经常谈论他们的技术可能会毁灭整个世界、影响选举或对人类造成其他短期到长期的破坏,这在利润丰厚且高度集中的 AI 泡沫中显得尤为真实。但安全也可能意味着进展放缓,这在硅谷的 AI 竞赛中非常不利——而这封信表明,这一现实反映在 AI 公司的内部,那里可能并不总是有关于 AI 安全和可能风险的真正和富有成效的对话自由。

告密者斯诺登:永远不要信任 OpenAI 或其 ChatGPT 等产品|TodayAI
© 版权声明

相关文章