Safe Superintelligence(SSI),由 OpenAI 前首席科学家伊利亚·苏茨克弗(Ilya Sutskever)共同创立的新公司,近日筹集了 10 亿美元资金,用于开发远超人类能力的安全人工智能系统。SSI 高管向路透社透露了这一消息。
成立仅三个月的 SSI,目前拥有 10 名员工,计划利用这笔资金获取计算能力并招聘顶尖人才。公司将专注于建立一支高度信任的小型研究人员和工程师团队,团队成员分布于美国加利福尼亚州的帕洛阿尔托和以色列的特拉维夫两地。
虽然公司拒绝透露具体估值,但知情人士表示 SSI 的估值已达到 50 亿美元。这轮融资显示出,即使部分投资者对一些可能长期无法盈利的公司兴趣减弱,仍有投资者愿意在顶尖人才身上进行大规模的押注。这种变化已导致一些初创公司创始人选择离职,前往科技巨头任职。
参与投资的包括顶级风险投资公司 Andreessen Horowitz、红杉资本、DST Global 和 SV Angel。由 Nat Friedman 和 SSI 首席执行官丹尼尔·格罗斯(Daniel Gross)运营的投资合伙企业 NFDG 也参与了此次融资。
专注 AI 安全的使命
格罗斯在接受采访时表示:“对我们来说,重要的是与理解、尊重并支持我们使命的投资者为伴。我们的使命是直达安全的超级智能,特别是在产品正式投入市场之前,先花几年时间进行研发。”
AI 安全是一个热点话题,指的是防止人工智能对人类造成潜在的伤害。人们担忧失控的 AI 可能违背人类利益,甚至可能导致人类灭绝。加利福尼亚州的一项法案提议对公司实施 AI 安全监管,这在行业内引发了激烈分歧。OpenAI 和谷歌等公司对此表示反对,而 Anthropic 和埃隆·马斯克的 xAI 则支持该法案。
现年 37 岁的苏茨克弗是人工智能领域最具影响力的技术专家之一。他于今年 6 月与丹尼尔·格罗斯及前 OpenAI 研究员丹尼尔·莱维(Daniel Levy)共同创立了 SSI。苏茨克弗担任首席科学家,莱维担任首席科学家,格罗斯负责计算能力的获取和公司融资工作。
苏茨克弗表示,他创立新公司的原因是他“发现了一个与之前工作有所不同的目标”。去年,苏茨克弗曾是 OpenAI 非营利母公司董事会的成员,该董事会曾投票罢免了 OpenAI 首席执行官萨姆·阿尔特曼(Sam Altman),理由是“沟通失误”。然而几天后,苏茨克弗改变立场,与几乎所有 OpenAI 员工共同签署了一封信,要求阿尔特曼回归并要求董事会辞职。然而,此事件导致苏茨克弗在 OpenAI 的影响力减弱。他随后被董事会除名,并于今年 5 月离开了公司。
在苏茨克弗离职后,OpenAI 解散了他领导的“超级对齐”团队,该团队的工作重点是确保人工智能与人类价值观保持一致,以应对 AI 智能超越人类的未来。
与 OpenAI 因 AI 安全而采取的非传统企业结构不同(这一结构也使阿尔特曼被罢免成为可能),SSI 采用了传统的盈利性企业结构。SSI 当前非常专注于招聘能融入其公司文化的员工。格罗斯表示,他们花费大量时间评估候选人是否具有“良好品格”,并寻找那些拥有非凡能力的人,而非过分强调行业经验和资历。
“令我们感到兴奋的是,那些真正对工作感兴趣,而不是追逐热点和炒作的人,”他补充道。
SSI 计划与云服务提供商和芯片公司合作,解决其计算能力需求,但尚未决定具体合作伙伴。AI 初创公司通常与微软和英伟达等公司合作,以应对其基础设施需求。
作为“扩展假设”的早期倡导者,苏茨克弗认为,AI 模型在获得大量计算能力后可以显著提升性能。这个想法及其实施方式引发了芯片、数据中心和能源领域的投资热潮,并为生成式 AI 取得进展奠定了基础,例如 ChatGPT 的出现。
苏茨克弗表示,他将在新公司采取不同的扩展方式,但并未透露具体细节。他解释道:“大家都在谈论扩展假设,却忽略了问,我们究竟在扩展什么?有些人可以长时间工作,但他们只会更快地走同样的道路。这并不是我们的风格。如果你做一些不同的事情,那么就有可能实现特别的成就。”
SSI 的成立标志着人工智能领域新的动向,特别是在 AI 安全问题上。尽管当前的投资环境变得更加谨慎,但像苏茨克弗这样的顶尖人才依然吸引了大量投资。随着公司在未来数年中致力于研发,SSI 有望在 AI 超智能化的道路上留下重要的印记。