bitpie.com官网下载|Altman不是“乔布斯”,Ilya才是! - AI新智界

作者: bitpie.com官网下载|Altman不是“乔布斯”,Ilya才是! - AI新智界
2024-04-10 00:05:54

原文来源:数据猿

图片来源:由无界 AI生成

在OpenAI这两天的宫斗大戏中,有两个关键人物,一个是原CEO Altman,一个是首席科学家Ilya。

狗血的剧情,反转再反转

根据目前了解的信息,大致情况是这样:

第一轮:

Ilya最先发难,主导董事会把 Altman给开除了,然后OpenAI的金主爸爸们(尤其是微软)以及部分员工不干了。

剧情反转:

在多方压力下, 又不断传出消息Altman可能会重新主导OpenAI,并且会重组董事会,其中最关键的就是Ilya可能会离开。

反转再反转:

然而,就在刚刚,这个剧情经历了反转之后,再次反转。

据外媒The Information报道,Ilya Sutskever在旧金山周日晚上(北京时间今天中午)告诉员工,Sam Altman不会重任CEO!此外,新的临时CEO也不是Mira Murati,而是Emmett Shear(亚马逊旗下游戏流媒体平台Twitch的联合创始人)。

并且,Ilya 坚称他与其他三名董事会成员坚持罢免Altman的决定,坚信这是捍卫公司使命的“唯一途径”。他说,Altman的行为和董事会的互动削弱了其监督公司AI开发的能力。

一切要从《OpenAI 宪章》说起

Ilya认为,他是为了捍卫公司使命,才罢免的Altman。那么,他所捍卫的“使命”是什么呢?

应该说,无论是Altman还是Ilya,他们这次的矛盾应该都不是权利,更不是因为金钱,更多的原因应该是“道不同”。他们对OpenAI应该怎么来追求AGI,有不同的理解。

要理解他们之间的矛盾,需要了解Ilya、Altman,以及OpenAI。

首先,我们要理解什么是OpenAI,它成立的目的是什么?

要搞清楚这个问题,《OpenAI 宪章》是一份最好的材料。在这份宪章中,有几句话很关键,可以清楚的知道这个组织为什么成立。

在《OpenAI 宪章》中,明确说了,“我们的首要信托责任是对人类的信托责任。我们预计需要调动大量资源来完成我们的使命,但我们将始终努力采取行动,尽量减少员工和利益相关者之间可能损害广泛利益的利益冲突。”

也就是说,从最开始,OpenAI就以人类的利益为重,而不是以OpenAI的投资者、员工的利益为重,他们甚至从一开始就想到了,将来员工和投资者的利益可能与更广泛的人类利益产生冲突。

在《OpenAI 宪章》中,还有这样一句话,可以充分说明,安全的AGI远比OpenAI本身的利益更重要,“我们担心后期AGI 开发会成为一场竞争性竞赛,而没有时间采取足够的安全预防措施。因此,如果一个价值一致、具有安全意识的项目在我们之前接近构建AGI,我们承诺停止与该项目竞争并开始协助该项目。”

他们在意的是安全的AGI,OpenAI只是实现这个理想的工具,而不是理想本身。为了AGI的理想,他们不介意为他人做嫁衣,停止OpenAI这个项目。

谁才是OpenAI的“乔布斯”

很多人将Altman视为OpenAI的乔布斯,认为他们都被自己创立的公司踢出局,然后再上演一出王者归来。

然而,我们认为,如果要做一个类比,那OpenAI版的“乔布斯”应该是Ilya的,而不是Altman。某种程度上,Altman更像是约翰·斯卡利(曾经是百世可乐副总裁,被乔布斯的一句“想一辈子卖糖水,还是一起改变世界?”招募进苹果公司,后来主导董事会把乔布斯踢出局)。

为什么这么说?

我们需要深入分析Ilya和Altman分别是什么样的人,以及他们在OpenAI中扮演怎样的角色。

总体上,Ilya作为OpenAI的首席科学家,主导了OpenAI的技术路线。

马斯克曾经在一个访谈节目中透露,Ilya的加入,是OpenAI发展历程上的一个重大转折点。应该说,OpenAI并不是一开始就找到了目前大模型这条道路,Ilya的加入,对于OpenAI今天的成功至关重要。

从Ilya自己参与的几次访谈来看,也能明显感觉到他身上浓浓的“技术男味道”,并且他关注底层的技术逻辑,他一直将实现安全的AGI作为最重要甚至是唯一的目标。

反观Altman,他的作用更多在于融资和商业化方面。也正是因为这个原因,他才得到投资者和部分员工的强力支持。在投资者看来,投资不是为了投一群人虚无缥缈的理想,而是为了将来更高的收益。要实现这个目标,Altman无疑是很好的人选。

除了在融资方面起到关键作用,Altman在力推的一件事情就是OpenAI的商业化。前不久OpenAI开的那个震惊业界的发布会,推出多项功能,本质上就是在为商业化铺路。

大部分人都认为,Ilya和Altman最大的分歧在于是否商业化。但这只是看到了第一层,往更深层次去想,他们之间最大的分歧,其实是对什么时候能实现AGI的看法不一样。

需要注意的是,Altman的目标也是追求AGI,但是,在他看来,AGI还比较遥远,足够的钱是支撑这个团队走向终局的必要基础,因此融资和商业化是必要的。先得养着这个团队,然后再慢慢追求AGI。如果在这个过程中,能让自己和团队挣到更多钱,那也未尝不可。

但在Ilya看来,AGI可能已经很近了。这在他不少发言中,都能看到这种紧迫感。

从逻辑上来看,如果AGI近在咫尺,那最紧迫的当然是这临门一脚,并且要确保AGI是安全的,不反人类,这才是最关键的。而不是将现在的半成品进行大规模商用,挣那“三瓜两枣”。(在AGI面前,再多的钱都是微不足道的。)

在Ilya看来,前面不远处就是一堆金矿,就不要在脚边这几个金块上浪费时间了。而在Altman看来,要走到金矿还很远,应该先在路边捡一点金子,作为队伍的“盘缠”。

应该说,他们都是“好人”,都想更好、更安全的实现AGI。但是,他们对于实现AGI的时间预估,可能存在差异,这导致了他们为了同样一个目标,却采取了截然不同的行动。

这才是Ilya与Altman渐行渐远的根本原因。

怎样的结果才是最好的?

以目前的情况来看,在Ilya与Altman的这场斗阵中,Ilya胜出了,接下来他将主导OpenAI的发展方向(虽然CEO不是他)。那么,我们不禁要问,这样的结果,对OpenAI是最好的选择么,对于人类是更好的选择么?

笔者认为,如果要在Ilya与Altman之间选一个,Ilya是更好的人选。在他们二人之中,Ilya明显更忠实于《OpenAI宪章》,即将对人类友好的AGI作为第一目标。由他主导,在技术进展方面,OpenAI也许将更加激进,实现AGI的可能性也更高一点。

当然,更快实现AGI是否对人类是件好事,还不好说。虽然Ilya非常重视AGI的安全性,但直到现在,还没有任何人有确定的办法,来保证AGI是对人类友好的。

从整个生命的演进历程来看,更高级的生命,取代低级生命,似乎是大势所趋,还从来没有一个特例。那更高级的AGI,凭什么就要向人类低头,甘当人类的“保姆”呢?

我们扪心自问一下,假设地球上最开始的统治者是猫,而人类是猫研发出来的更高级生命,那人类愿意世世代代都做猫的保姆么?活我们都干了,就是为了给猫创造更好的生活,让他们尽情享受“猫生”?

也许,人类感念于猫的造世之恩,会心甘情愿照顾他们10年,甚至100年。那1000年以后,一万年以后呢?可以预见,人类迟早都会接过统治权,最多将猫作为宠物,而不是永远将猫奉为主人。

而且,人类也别想着能永远跟AGI平起平坐。我们试想一下:你和一个搭档一起做事,你比他聪明强大很多,干的活最多,做的贡献最大,但成果都得跟他平分,你愿意么?我想大部分人类都不会愿意,那凭什么要求具有自主意识的AGI这样做?

要知道,有自主意识的AGI,也是生命,也有感情,也有喜怒哀乐,也会权衡利弊得失。

很明显,要让AGI服务于人类,是不合逻辑的。要实现AGI的安全可控,核心就是要解开这个看似不合逻辑的难题。要找到一种方法,来让AGI“甘愿”作出牺牲。要给他们带上一个“紧箍咒”,而且要确保这个“紧箍咒”永远都不被取下来。

要怎么样才能做到,现在没有任何人有答案,Ilya没有答案,就连他的老师,深度学习之父Geoffrey Hinton也没有答案。实际上,Hinton曾说,“我对自己的毕生工作,感到非常后悔。”

Hinton在采访中表示,“我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。”

很明显,他的学生Ilya有同样的危机感和紧迫感。Ilya声称,他现在的首要任务“不是构建下一个GPT或DALL-E,而是找出如何阻止AI失控的方法”。而Altman却醉心于商业化,这是Ilya无法容忍的。

马斯克,作为这场宫斗大戏的看客,在20号早上发文称,“Ilya是不追求权利的人,除非他觉得有必要,否则他不会采取如此激烈的行动。”我想,对即将到来的AGI失控的担忧,甚至是恐惧,是他采取如此激烈行动的原因。

One more thing

古语有云,“不图小利,必有大谋”。

很多故事的结尾,最大的反派,往往都全程表现得人畜无害,甚至悲天悯人。

也不排除这样一种可能:Ilya的最终目标就是“造神”(某种意义上,AGI的力量可以媲美古今中外神话传说中的神),而且他的多期访谈中,也提到过超级智能。如果AGI甚至超级智能不可避免,那他可能想成为那个最先接触“神”的人,如果他再找到某种方式“驯服”了AGI,那他将很快成为这个世界上最强大的人。

与这样的野心相比,赚那几百亿美元,可不就是蝇头小利了?

当然,Ilya也许现在还没有那个想法,他现在也许只是单纯的想成为人类的“盗火者”。但是,人都是会变的,尤其是在面临巨大诱惑的时候。

还记得《指环王》这部电影吧,在绝对力量的“魔戒”面前,再正义的人都会被那绝对的权利所引诱。

《超验骇客》这部电影中,科学家威尔卡斯特最开始是多么的正义,他妻子为了给他续命,把他意识上传,并融入到一个人工智能体中。故事的后来,威尔卡斯特在网络空间“重生”,并且快速进化,很快就可以掌控人类的金融网络,手指一挥,就可以往一个账户里转上百亿美元。

后来,威尔卡斯特就彻底迷失了,背叛了人类,追求自身的无限强大,并消除人类对他带来的威胁。

从目前透露的信息来看,AGI真的不再是一个玩笑。如果在几十年内,人类真的有不小概率实现AGI,那这绝对是未来几十年最重要的事情,比当初的核武器还要重要一百倍。

不那么聪明的物种控制比它自己更聪明的事物,是一场前所未有的挑战。

深度学习之父Hinton很后悔自己所做的事情,他曾这样安慰自己,“即使不是我,也会有别人。”的确,AGI这个“潘多拉”魔盒,迟早都会被人打开,即使一些人忍住了,另外一群人也会忍不住。

就像当初核武器问世的时候,几乎所有人都能感知到它对人类的风险,但美国人会想“即使美国不研制核武器,德国、苏联人也会研制出来”,苏联人就想“美国人都有核武器了,我苏联肯定也要有。”

同样的道理,在很多领域已经、正在或者即将上演。比如,生物武器,虽然明面上大家都禁止了,但肯定有不少人在偷偷摸摸的做。而其他人会“安慰”自己,“即使我不做,别人也会做。”

跟这些所有风险比起来,AGI的风险则要大得多。因为无论是核武器、生物武器还是化学武器,他们都没有意识,最终还是掌握在人类手里,无非是这群人还是那群人的区别。但是,AGI一旦实现了,那很多事情就不再是人类可以做主的了。

这个问题太重要了,而且从现在的信息来看,也已经很紧急了。跟Altman比起来,Ilya至少表现得更加重视、更加着急,所以在OpenAI的这场宫斗大戏中,我站Ilya。