重磅:OpenAI前首席科学家创办新AI公司,优先考虑安全性|TodayAI

人工智能新闻3个月前发布 TodayAI
1,329 0 0
PonderAI-智能助手

重磅:OpenAI前首席科学家创办新AI公司,优先考虑安全性|TodayAI

Ilya Sutskever,这位曾任OpenAI首席科学家的科技领袖,宣布创办一家新的人工智能公司Safe Superintelligence Inc.(SSI)。该公司的独特之处在于其对AI安全性的高度关注,明确表示将优先考虑安全性而非商业压力。

重磅:OpenAI前首席科学家创办新AI公司,优先考虑安全性|TodayAI

在发布的公告中,Sutskever详细介绍了SSI的愿景和使命。他表示,SSI将以“一个目标和一个产品”为宗旨,致力于创建一个安全且强大的AI系统。Sutskever强调,SSI是一家“同步处理安全性和能力”的初创公司,能够在快速推进AI技术的同时,始终将安全性置于首位。

Sutskever指出,目前许多AI公司,包括OpenAI、谷歌和微软,常常面临来自外部的巨大压力,这些压力可能影响团队对安全性的关注。相比之下,SSI的“单一焦点”使其能够避免被管理开销或产品周期分散注意力,从而专注于实现安全目标。

“我们的商业模式确保了安全性、保障性和进步不受短期商业压力的影响。”公告中写道,“这样,我们就可以在平稳中实现扩展。”除了Sutskever,SSI的联合创始人还包括前苹果AI负责人Daniel Gross和曾任OpenAI技术团队成员的Daniel Levy。

2022年末,Sutskever在OpenAI内部引发了一场震动,带头推动了当时CEO Sam Altman的罢免。这一举动引起了广泛关注,并预示了他离开OpenAI的计划。今年5月,Sutskever正式宣布离职,并暗示将启动一个新项目。几乎在他离职的同时,AI研究员Jan Leike也宣布辞职,理由是OpenAI的安全流程被“闪亮的产品”取代。OpenAI的政策研究员Gretchen Krueger也在辞职声明中提到了类似的安全问题。

在接下来的几个月里,SSI逐渐成形并开始运营。公司创立初期,Sutskever就明确表示,SSI的第一个也是唯一的产品将是一个安全的超级智能系统,直至此目标实现前,公司不会涉足其他领域。

这一宣布引发了业界的广泛关注。许多人对SSI的独特定位和Sutskever的领导表示期待,同时也关注这家公司如何在不受短期商业压力影响的情况下,推动AI技术的安全进步。

随着时间的推移,SSI在AI安全领域的创新和进展,将成为整个行业关注的焦点。Sutskever和他的团队能否实现他们的宏伟目标,将对未来AI的发展产生深远影响。

重磅:OpenAI前首席科学家创办新AI公司,优先考虑安全性|TodayAI
© 版权声明

相关文章