导读 大约一个月前,IlyaSutskever宣布离开OpenAI。考虑到11月OpenAI首席执行官SamAltman被解雇并在引起轩然大波后又迅速被重新聘用的情况,这并...

大约一个月前,IlyaSutskever宣布离开OpenAI。考虑到11月OpenAI首席执行官SamAltman被解雇并在引起轩然大波后又迅速被重新聘用的情况,这并不令人意外。

Sutskever是OpenAI的联合创始人兼首席科学家。他也是让ChatGPT和其他AI产品对我们安全的负责人,并且在Altman被解雇和CEO回归方面发挥了重要作用。至少公众是这么认为的。

苏茨克弗选择离开OpenAI时,最新的ChatGPT开发成果引起了很多人的关注。我说的是OpenAI在谷歌大型I/O2024活动前一天发布的GPT-4o模型,该活动几乎完全专注于人工智能。

我当时说我迫不及待地想看看Sutskever下一步要做什么,因为他透露说“这个项目对我个人来说意义重大,我会在适当的时候分享细节。”时间快进到6月中旬,我们现在知道了该项目的名称和目的。

科技。娱乐。科学。你的收件箱。

注册即可获得最有趣的科技和娱乐新闻。

在此输入您的电子邮件地址。

电子邮件:

youremail@gmail.com

报名

通过注册,我同意使用条款并已查看隐私声明。

这家新的人工智能公司名为SafeSuperintelligenceInc.(SSI),我们可能不会很快听到有关其产品的任何具体消息。

SafeSuperintelligence还有另外两位联合创始人:前AppleAI负责人DanielGross和前OpenAI工程师DanielLevy。Sutskever在X上宣布了这项新业务,并概述了SafeSuperintelligence的目的。以下是公告的一部分:

SSI是我们的使命、我们的名字和我们的整个产品路线图,因为这是我们唯一的重点。我们的团队、投资者和商业模式都致力于实现SSI。

我们将安全性和性能并重,将其视为需要通过革命性的工程和科学突破来解决的技术问题。我们计划尽快提高性能,同时确保我们的安全性始终处于领先地位。

这样,我们就可以安心地扩大规模。

我们的专注意味着我们不会受到管理费用或产品周期的干扰,而我们的商业模式意味着安全、保障和进步都不会受到短期商业压力的影响。

这听起来很棒,至少在理论上是这样。一家开发安全超级智能的公司是我们人类直到最近才意识到我们需要的梦想。

我们希望超级智能是安全的。我们不希望人工智能统治世界并最终毁灭人类。这就是人们的担忧,也是Sutskever致力于确保ChatGPT安全如此重要的原因。这也是为什么OpenAI超级对齐团队的大规模变化如此令人不安的原因。

我不禁想知道Sutskever想要实现的目标是否可行。在接受彭博社采访时,Sutskever表示,该公司近期不会推出任何产品。“这家公司的特殊之处在于,它的第一款产品将是安全超级智能,在此之前它不会做任何其他事情,”他说。

苏茨克弗没有透露支持者的名字,也没有透露他为SafeSuperintelligence初创公司筹集的资金数额。这些支持者希望获得某种回报,无论他们与苏茨克弗的利益有多一致。如果没有商业产品,这很难实现。

安全的超级智能,也就是产品,应该是远远超出人类能力的人工智能。人工智能的下一步应该是AGI(通用人工智能),或者能够像人类一样推理的人工智能。但这不一定是我们要走的路。我们总是可以在AGI之前实现超级智能。

SafeSuperintelligence不会是业内唯一一家试图实现超级智能的公司。包括OpenAI在内的许多其他科技巨头和初创公司很可能也在追求这一目标。

此外,抛开声誉不谈,Sutskever并不垄断AI安全。OpenAI、谷歌、微软、Meta和苹果并不想开发不安全的AI。但所有这些公司都能够通过商业产品测试他们的AI创新,而SafeSuperintelligence近期不会推出任何产品。

我还要说的是,Sutskever在安全AI方面的工作并不能保证他的AI或其他AI不会失控。任何拥有适当资源的人都可以训练AI模型。理论上的风险仍然是,有人会在没有将AI与人类利益适当结合的情况下实现AGI或超级智能。