“这是你的办公室?”
马斯克环顾了一下四周,足足不下七八块显示器,还有一个大工作台,上面凌乱的摆满了各种工具和零件以及两套机械手。
墙边放着两台stratasys的3d打印机,墙角处还有一个不知道是什么东西的玩意儿盖着一块黑布。
“我在柚子科技没有办公室,这是我的私人实验室。”方豫扔给马斯克一瓶水,“没想到你会想要和我单独对话,没单独准备饮料,别见怪。”
马斯克接过水,拧开瓶盖喝了一口。
他有种感觉,面前这个年纪只比自己儿子大五六岁的年轻人,并没有像其他人对他一样的尊敬和仰视。
自从6年前spac的猎鹰9号成功发射后,马斯克走到哪里都是鲜花和掌声,都把他视作真正的硅谷钢铁侠。
虽然他并不住在硅谷。
在去年猎鹰9号成功回收以及特斯拉推出了第一款量产电动汽车models大卖后,马斯克更是一跃成为比肩古狗拉里佩奇、亚马逊贝索斯的顶级企业家。
10年前,大多数人以为他是骗子,8年前,大多数人认为他是注定会破产的疯子,6年前,大多数人认为他是运气好的天才,而现在,他是这个星球上重复创业成功次数最多、最成功的企业家。
zip2、paypal、特斯拉、spacex、solarcity、neuralink、openai……
但是,在这个比他年轻了两轮的年轻人身上,他却没感觉对方对他有丝毫的仰视。
“很别致的挂坠。”马斯克喝了口水,貌似不经意的看了一眼方豫胸口的无界信使。
方豫不动声色的笑了笑:“谢谢,马斯克先生想要单独跟我说的不会就是这个吧?”
马斯克仔细的观察了一下方豫的反应,没看出什么端倪。
马斯克定了定心神,不再想方吉斯和方豫之间到底有什么关系。
无论这两个人是不是一个人,和自己这次来的目的没有任何关系,更无法干扰自己对事物的客观判断!
“可能你不知道,我对所有做ai的研究团队都很熟,前年哈萨比斯将deepmind出售给拉里的时候我曾经劝说过他,也曾想要把他的团队收购过来。”
“但你知道,古狗对ai研究者的吸引力,虽然我出了比古狗更高的价格,但哈萨比斯还是把deepmind出售给了古狗。”
马斯克露出无奈的表情。
“因此,自从2月底橘子大模型战胜了哈萨比斯的alphago,我就想要和你深谈一次。”
马斯克停顿了一下,似乎在整理自己的思路,随后紧紧地盯着方豫的眼睛。
“我想要知道,柚子科技目前训练的最强大模型,是不是已经达成强人工智能?”
看到马斯克的表情非常认真,很明显这确实是他非常重视的问题,方豫觉得有点意外。
他原本以为马斯克是来谈合作或者投资的。
毕竟此前马斯克就给他发过邮件,希望能够与柚子科技合作开发无人驾驶系统。
只不过被他拒绝了而已。
对于马斯克的能力和做的事情,方豫还是很佩服的,但相比有导航的柚子科技来说,无论是spac还是特斯拉,在技术路径上其实都走错了路。
柚子此前摸过特斯拉ai的进度,根据柚子的分析,目前特斯拉的ai,如果说经过足够驾驶经验训练的橘子大模型的视觉与判断模组可以轻松达到l4.5级别的自动驾驶的话,那特斯拉的ai最多只能算l2.5。
目前特斯拉的自动驾驶算法使用的是浅层cnn神经网络,而且采用了大量人工标注驾驶数据训练他们的算法,而没有采用端到端的方式来进行训练。
这种模式的上限很低,最多只能到l3,想要突破,就必须改变技术路径。
使用开源的橘子大模型也是一个方案,但特斯拉在没有柚子科技的后台支持下,使用的又是落后了整整一代的开源大模型,无论是效率还是效果都不可能做到最好。
尤其在影像识别领域,目前特斯拉的自动驾驶难以实现针对某些特定突发状况的识别。
比如突然出现的大型车辆,方豫在开models的时候就已经发现,当在高速行驶时,前面有大车的情况下,大车减速或突然停止,存在识别不出来前方情况的可能性。
虽然models的自动驾驶包体验不错,但想要根本上提升到l3或更高的级别的自动驾驶,还有很长的一段路要走。
如果这时候柚子科技支持了另一家汽车公司来搞自动驾驶,那特斯拉在这方面取得的先发优势就会瞬间被拉平,甚至反超。
事实上,柚子科技也确实是这么做的,目前有一个专门的八人技术小组在和超越汽车对接,做l3.5级别的自动驾驶系统。
因此,方豫认为,马斯克是不可能放任这种情况出现的。
在柚子科技拒绝与迈国公司合作的情况下,他这次来海西,大概率考察投资环境是假,和自己谈橘子大模型接入特斯拉才是真。
方豫还是很好奇马斯克能开出什么条件的。
可没想到,马斯克居然开口就问目前柚子科技训练的最强大模型是不是已经达到了强人工智能。
这不是废话吗,当然达到了。
哪怕不提柚子在互联网中的那部分意识,只说橘子大模型,现在距离超级人工智能也不过就是堆参数堆数据的水磨工夫而已。
只不过不能对外说罢了。
“埃隆。这么称呼你可以吧?为什么这么问?”方豫不置可否的笑了笑。
“方,我希望你能够给我一个答案。”马斯克目光诚恳,“这对我来说很重要。”
你还真没架子啊。
方豫对马斯克的印象一下子好了不少。
“我只能说,目前发布的juzi2.5大模型,的确只是橘子大模型的一个子集。”
方豫考虑了一下,还是给了马斯克一个模糊的信息。
听到方豫的话,马斯克深吸一口气。
自己还真踏马猜对了啊。
“刚刚沈小姐告诉我,你们所有员工在本岗位工作三个月后,都要在下一个月拿出百分之七十的工时做对齐工作,这是一个降低人工智能风险的好办法。”
“但我们都知道,ai的进化是指数级的,我不认为只凭这种办法,能够避免ai所可能引发的智械危机,我认为我们应该拿出更负责任的行动,来限制这一风险。”
马斯克的语速并不快,一边思考一边说话。
“提出机器人三大定律的阿西莫夫想象不到人工智能是以神经网络的形式实现,现实不是小说,神经网络的原理就注定它们不会遵守所谓的机器人三大定律。”
“而同样,神经网络下诞生的人工智能,也必然会有一天诞生自我意识。”
“基于墨菲定律,ai诞生后,如果没有足够的监督和约束,发生智械危机的可能性是百分之百,无非只是时间问题而已。”
“尤其现在,更是一个危险的状态。”
“橘子大模型开源后,各个国家和大公司都进入了军备竞赛,英伟达的交货期已经排到了12月!你看一下英伟达这三个月的股价,已经是三个月前的3倍!”
方豫深有同感的点点头。
还好柚子科技提前买了6亿迈元的英伟达股票。
三个义子的私募也全仓了英伟达。
这一波自己和柚子科技加在一起足足赚了十五亿!
但他敢减持吗?
我敢,嘿嘿。
呵呵,10b5-1交易计划了解一下。
这个计划原本是针对公司高管的,允许公司高管提前设定交易计划,在未来的特定时间点进行股票交易,从而避免sec对内幕交易的指控。
但作为持股股东,同样也可以适用于这个交易计划,只不过很少有股东会这么做罢了。
马斯克看到方豫似乎没有什么反应,不由得皱了皱眉。
“对于神经网络,你我都不是外行,应该很清楚,这玩意儿迟早有一天能诞生出自我意识,只不过是一个概率问题,做的人越多,模型越庞大,碰撞出自我意识的可能性就越大。”
“这种程度的军备竞赛,就像是几十年前的核扩军,稍稍不小心,‘轰’。”
马斯克做了一个爆炸的手势,“人类就灭亡了。”
“毕竟没有任何一种智慧生命,愿意接受智慧远不如自己的另一种生命的统治。”
“现在全世界除了古狗外,其余所有ai研究机构都已经把主要研究方向转向了柚子架构和你开源的橘子大模型。”
“我认为,推开ai大门的柚子科技,有义务在ai安全领域承担更大的责任。”
听到马斯克这么说,方豫颇为诧异的看了看一脸忧色的马斯克,再看看他的精神力和灵光的状态。
去年倒是听说他在什么座谈里表达过对ai的担心,但你一个亿万富翁资本家,能担心成这样,也是有点奇葩。
这是典型的灾难性思维引发的焦虑症。
不过倒是也容易理解,自己不担心,是因为可以完全掌控大模型的底层法则。别说橘子大模型还没成为超级人工智能,就算成了超级人工智能,它的规模越庞大,底层法则也会越完善,自己随时都能通过埃瑟朗之核控制和消除任何一个基于柚子框架的大模型。
要是模型仍然是小规模,法则也会相应孱弱,自己的控制力反而没有那么强。
咦?好像和现在也没差多少。
方豫摸了摸下巴:“你是在指责柚子科技不应该开发出人工智能吗?”
“事实上,我们的预算接近三分之一花在对齐上。而且,即使柚子科技没有推开这扇门,也会有其他人推开。”
“就像你说的,墨菲定律,门就在那里,总会有人把它推开。”
马斯克摇摇头:“不,方,我并不是秉承着对抗性思维来和你探讨这件事情,而是希望我们能够找到一条解决ai安全发展的路径,避免最坏结果的发生。”
“那你的方案是什么?听起来,似乎你已经有了可行的方案?”方豫喝了口水,不由得有些好奇。
坦白说,如果不是因为有法则在手和柚子的辅助,他也没有绝对的把握能够确保ai的安全性问题。
这些日子对“神之模型”的研究倒是让他有了一些新想法,但这些想法究竟能不能成功,能不能够确保ai成为人类社会向前发展的助推器而不是大炸弹,还要看实际落地后的效果如何。
现在说起来还是有些太早了。
马斯克犹豫了一下:“我希望,作为目前在ai领域走的最快的企业,柚子科技能够站出来,和我一起呼吁全世界的开发者,暂停所有神经网络训练六个月到一年。”
“利用这个时间,各个企业和国家重新审视目前大模型的安全隐患。并且成立一个由各大公司和国家组成的ai安全委员会,制定出ai发展的安全标准,并将全球ai都纳入安全委员会的管辖范围。”
“只有这样,才能确保人类不会毁在ai手中。”
方豫一听,差点没喷出来。
不过想一想,马斯克接触大模型才仅仅两个月的时间,又不像自己一样,有柚子的辅助和“神之模型”能直接提供参考,也只能从限制ai发展的角度来考虑问题。
“你应该和古狗也谈过吧?他们怎么看?”方豫扬了扬眉。
马斯克沉吟:“我和拉里此前曾经是很好的朋友的,但在这方面我们的观点并不相同,他不同意对人工智能加以限制,更不同意放慢研发进度。”
方豫笑了笑:“所以,你说的不具备任何可操作性。即使我同意了你的意见,古狗不同意,其他公司不同意。”
“不提你刚刚说的那个全球性的ai安全组织,只说你前面提到的暂停研发,都是做不到的。”
“毕竟谁也不知道停止研发半年,会不会就被其他不遵守这个共识的企业所超越。”
“古狗不会同意,fb不会同意,那么多的ai研究者都不会同意。”
“而且,就算这些公司都同意了,那些没有丝毫名气,甚至刚刚注册和还没注册的ai初创企业呢?”
“大模型谁都可以训练,谁都可以堆参数,你的想法并没有从根本上降低ai发展带来的风险。”
“在大模型领域,我的预测是,每一年,大模型都会以十倍以上的参数量增长,直到达到人类电力所能提供的极限。”
“没有人会接受,自己一年时间,就落后对手十倍以上的性能差距。”
“我相信迟早会有你说的这样的组织出现,也相信其中会有所有的ai大企业。”
“但绝不会是现在,而是在第一次ai军备竞赛告一段落的时候才会出现。”
“并且,我也不认为这种组织的出现会真正对ai的安全起到多大的作用。”
“这种组织的出现,我认为反而会扩大ai风险。”
“这个所谓的安全组织看似接管了所有的ai风险,但它却不可能有真正降低ai风险的能力,反而约束了组织之外真正有效的ai风险管控措施。”
“组织建立在规则之上,组织规则一旦形成,就很难改变,更难以响应ai的发展速度所带来的新机遇和新风险。”
“没有任何组织的进化速度能赶上ai的进化速度。”
“就像icann,建立之初,所有人都认为需要有一个机构来管理互联网的域名分发。但实质上,目前icann的存在,已经构成了互联网最大的风险,并且严重阻碍了全球互联网的健康发展。”
“最有意思的是,icann甚至完全没有解决成立之初认为它们应当解决的问题,否则也不会有.sucks这种勒索域名的存在了。”
马斯克眉头紧皱,打断道:“我始终认为,做点什么总比什么都不做要好。你对icann的抨击我能够理解,我也赞同在风险人类可承受的前提下,给与新技术最大程度的自由度。”
“但ai不同,ai如果失控带来的破坏力,已经超越了人类可承受风险的极限。过去一百年间,唯一能和其相提并论的,只有核武器。试想一下,如果六十年前没有缔结核不扩散条约,可能我们人类社会在五十年前就已经灭亡了。”
方豫点点头:“你说的很对埃隆,我很赞同。但是,请注意,核不扩散条约当时只牵涉五个国家,仅仅只是这五个国家,从提出到达成协议,就用了四年时间,而生效,又用了两年。”
“你觉得,面对ai这种全球企业和个人都在参与的事情上,需要多久的谈判才能达成一致?”
“而且,更不能忽略的一点是,核武器的威胁是迫在眉睫的,当时包括当政者在内的所有人类,都在被核武器所威胁,限制核武器是当时人类的共识,而ai则不是。”
“换句话说,你说的这个方法,在不知道有没有效果的同时,也不具备任何的可行性。”
“除非,明天就爆发出一场智械危机,这时候人类才能吸取教训。”
“对了,你可以收购波士顿动力,然后自行引爆一场ai危机,说不定能起到一些作用。”
听了方豫的话,马斯克心头火起:“你的意思是,什么都不做,坐看人类毁灭吗?”
方豫眨了眨眼,一脸的无辜:“你怎么知道我们没有做事情?我只是说你控制ai风险的方法从根本上就是错的。依据你经常说的第一性原理,控制ai风险,不应该从ai大模型技术本身来着手吗?”
马斯克不由得愣了一下。
“你是说,后门?通过底层的后门来做ai的最终防火墙?”马斯克只是略作考虑,便摇头道,“后门的存在,会造成更大的风险,即使初期ai无法发现,也存在被第三方滥用的必然。”
“而且,当ai进化到具备自我意识后,必然能找到修补后门的办法,这并不是一个好办法。”
方豫哑然一笑:“埃隆,你对ai的思考太过于局限了。我说的当然不是后门,而是从大模型技术方向的角度去实现真正安全的超级人工智能。”
“确保ai的安全性,并不是依靠限制,而是依靠安全而可靠的技术路径,在最终实现了超级人工智能、甚至ai诞生自我意识的同时,还能够保证人类社会的安全与进化,让ai成为人类走向超级物种的助推器,这才是柚子科技真正在做的事情。”
“我们无法控制这个世界任何一个国家对ai的政策,但是,我们可以控制的是,比任何人都更先探索出达到安全超级人工智能的路径,这也被我称为sasi。”
“sasi?”马斯克目光闪烁,方豫所说的东西,确实是他没考虑过的,但他怎么听怎么觉得不靠谱。
超级人工智能只要诞生,他计算过,只要半个小时,就能接管全世界所有的网络设备、自动武器设施、甚至包括没有联网的电网设施。
“你的具体思路是什么?”马斯克眼睛瞪得溜圆,丝毫没有一天一夜没有睡觉的困倦。
“这牵涉到柚子科技后续研发的核心机密,我只能说,你们对ai后续发展的路径的预测是错误的,ai未来发展的形态,不应该是一个天网或奥创,我们应该从‘什么是生命’这个角度去寻求答案。”
马斯克立刻说道,“如果我没有搞明白这件事,我很难真正的相信你说的话,我可以保证不对外泄露一个字,需要的话,我可以签保密协议。”
就凭老子抢走了你的心上人?
问题是,你塌马也是黄毛好不好?
“保密协议就算了吧,我的保密协议一旦违反,是必然会生效的。”方豫意味深长的说了一句。
“你相信与否,对于我来说并不重要。我也是一名人类,而且非常热爱人类这个物种,我不会坐视任何损害人类整体利益的事情发生。”
“虽然我不能告诉你具体的技术细节,但既然你这么担心,我可以给你透露一些方向性的信息。”
“你一直在说,ai诞生自主意识将会毁灭人类。但是,人类也有自主意识,人类中也有战争狂人、也有希望世界毁灭的疯狂博士,为什么人类没有毁灭?”
“很简单的道理,人类的种群足够大,种群足够大的时候,任何极端思想都会被对抗、稀释、缓冲,最后回归到正态分布。”
“这就像是一个国家,国家越大,人口越多,往往民众价值观越具备正态分布特性。”
“而越是小国家,民众价值观却往往会比较极端。”
“同样,ai如果要产生毁灭人类的想法,必然是因为两点,一,作为一种生命体,它的种群太小了,小到了无法稀释极端思想的程度。”
“二,其数据受到了相当严重的极端化数据污染。”
“种群与数据,才是一切的根源,分布式的数据采集与中心式的数据清洗再反哺回分布式asi,这才是从根本上确保ai不会毁灭人类的正确做法。”
“当然,中心-分布-中心-分布的sasi架构,也并不是ai发展的最终形态,最终的目标有些太远了,现在和你说也没有什么太大的意义。”
马斯克毕竟是走在高科技最前端的大佬,听到一半,就听明白了方豫表达的意思,不由得倒吸一口凉气。
方豫所阐述的这种模式,的确能够最大程度的确保ai价值观的平衡,确保ai不会产生毁灭人类的想法。
但真的能做得到吗?
按照大模型的特点,纯粹的中心化超级人工智能才是最容易达成的吧?
“我需要进入柚子科技董事会,我不要股份,但我要具备随时了解公司目前战略的权力。同时,为了避免利益冲突,我可以和柚子科技签署协议,不进入ai行业,由柚子科技为我的所有公司提供ai服务,开个价吧。”
马斯克沉默了一会儿,开口道。
今天这一章写的太痛苦了,因为没有参考资料可以参考,完全需要按照自己对ai发展的了解进行合理预测与规划,而且还要结合进情节,确保与后续情节的连接合理性,写的太痛苦了,太痛苦了。
求个月票!!!