- 经验
- 1482
- 分贝
- 0
- 家园分
- 2965
- 在线时间:
- 0 小时
- 最后登录:
- 2015-11-14
- 帖子:
- 741
- 精华:
- 0
- 注册时间:
- 2015-11-14
- UID:
- 1170224
注册:2015-11-142
|
衡宇 发自 凹非寺
量子位 | 公众号 QbitAI OpenAI最新交互数据,就这么水灵灵被奥特曼全抖出来了:
- 每周超过3亿活跃用户
- 每天用户们在上面发送10亿条消息
- 130万美国开发者使用OpenAI开发,全球数量更庞大
用户快速增长和频繁使用带来的计算量剧增,OpenAI自己都没预料到。
奥特曼亲口表示,如果当时知道这些,OpenAI一开始就不会选择非营利结构。
以上,是OpenAI CEO奥特曼在刚刚结束的2024年纽约时报DealBook峰会上接受采访时的最新发言。
他往外吐露的当然不止这些,还有:
- 和微软的微妙关系
- 对马斯克xAI对垒的心态
- 预计能实现Super Intelligence的ddl
- AGI来得比想象中更快,但影响或许远低于预期
- 继续走Scaling AI的三大关键
- 转道以营利为导向的背后考量
- 为什么不拿股份只领年薪
- 对AI安全当下状况的思考
- AI出现后对人类创作者的保障
- (即将)作为一名父亲,怎么看待AI
与此同时,奥特曼不忘抽空发了条推特,丢下了足以让全球所有科技工作者或紧张或雀跃的Christmas gift——
OpenAI从今天起,连续12天,每天直播1场,发布一堆小小的新事物。
好吧,在正式开启12月的狂欢前,让我们一起看看奥特曼的采访都说了些什么新东西。
(以下内容以奥特曼本人口吻展开;部分内容在不改变发言者原意的基础上,做了删减调整)
Topic 1:不曾预料推出ChatGPT是正确的决定
你知道的,在某个时刻,出于某种原因,你突然就会清楚一项技术正在发挥作用。
那时候在OpenAI内部,我们明显感知到语言模型将继续拓展,它们可以做所有的有用的事。
可能会问,为什么是两年前发布ChatGPT,而不是在推出GPT-3和API的时候,或者是在晚几个月推出GPT-4的时候?为什么是那个确切的时刻在发布了?
早期的GPT-3和API,对很多事情都无能为力。但它作为杀手级应用的应用场景之一,就是开发者可以在playground里真正调用API之前,和ChatGPT聊聊天,快速测试一下想法能不能跑通。
是的没错,人们对着GPT-3无所不谈,这就是人们使用它的主要目的。
所以我们团队就觉得,如果这就是人们想要的,我们就让它变得更易用吧!不用注册开发者账号,也不用其它繁琐步骤。
所以我们说,如果这是人们想要的,我们可以让它更容易使用。
用户不必注册开发者账户并执行所有这些其他操作,甚至根据大伙儿最喜欢的使用场景,我们可以让它更擅长对话聊天。
于是我们就决定:Fine,把它变成一个产品吧!
本来一直计划用GPT-4作为背后模型,因为我们在2022年8月左右就完成了GPT-4。但我们还是把GPT-4往后压了一段时间。
说回开头的“某个时刻”。
我们一直坚信世界上会有一个重要时刻。
但你要说我们当时就知道推出ChatGPT是个正确的决定?当然不!
Topic 2:预计明年,对AI持怀疑态度的人会“哇”
万事万物都存在不确定性,就像人们对于Super Intelligence(超级智能),也有不同的定义。
两年前我说过,人类可能在几千天内拥有Super Intelligence。两年前,我觉得我们处于一个相当陡峭的曲线上,并且开始睁眼看世界。
因此我觉得“几千天内拥有Super Intelligence”是可能的,如果进展顺利的话,也许这一天还来得很快——我们当然希望前方是大道坦途,就像我们相信深度学习是人类难以置信的新发现一样。
我们认为我们可以触达Super Intelligence,并且OpenAI有责任把AI推进到这个阶段,然后让大家广泛从中获益。
是的,我们相信我们可以,并且现在也相信我们可以。
但一切充满未知,还有很多艰苦的工作,研究啊、工程啊之类的。
在不远的将来,我们可以拥有Super Intelligence。
我估摸着大概2025年吧,我们将拥有人们瞩目的AI系统。到时候,那些现在仍持怀疑态度的人也会出乎他们意料的一切“哇”出声。
你知道的,可以给AI系统一个很复杂的任务,就像给一个聪明的人布置任务一样。它需要花点时间,使用一些工具,然后创造一些有价值的东西
——我预计这种情况会在明年发生。
Topic 3:Scaling将继续,关键在计算+数据+算法
几周前我发布了一条推文:
不故弄玄虚地说,Scaling会继续下去。
好多人老是喜欢猜来猜去,比如是不是撞墙了呀、Scaling还有没有效啊……有的时候我都被大家的猜测震惊到。
为什么不直接看看进展曲线呢?在我看来,赌一个指数对抗另一个指数是个糟糕的选择。
这么说吧,Scaling有三个关键:算力+数据+算法。
它们之间没有固定的搭配比例,比如如果有更好的数据,可以少计算些;或者如果有更多的算力,可以用它弄合成数据,制作更多数据。
有段时间,摆在我们面前的是难以置信的收益,还是轻轻松松获得的那种;不过最近,我们在算法方面取得了很多进展。
在不同的时间,得到的回报可能不同。
但说实话,算法的进步是“the big, the biggie, the biggest one”。
Transformer就是最近的一个极佳案例。这种情况很少见,但一旦发生,就受益无穷。
但实际上,这三个领域需要同步推进,不同时间可能某一个方面的回报会更高,但我们始终关注这三个领域的协调发展。
虽然现实是我认为所有的事情都存在竞争,但算力竞争(the computer one)是最有趣、最戏剧化、最重要的一环,它最受关注。
这真的很重要,我不想忽视它,但大家都异常努力,保不齐谁能想到更好的算法、谁能保护新的数据源。
所以我认为算力、算法、数据三者都需重视。
不过!
无论如何,我们还有一堆新的好东西,所以我们正在做一些有趣的事:
从明天开始,我们将进行为期12天的OpenAI直播,在接下来的12个工作日内,每天推出一些东西或进行演示。
这里就不多剧透了,但总之是持续的进步。
Topic 4:“从没听过谁因为用微软的服务而忧心”
(采访者提及:你们和微软有合作关系,OpenAI现在依赖他们……但很明显,你们正在解绑)
我不认为我们在划清界限。
我是不会假装说完全没有分歧或挑战,但总体上,这种合作对两家公司来说都是非常积极的事情,我们也期待未来能一起做更多的事情。
也许我们有一些想法,外界会觉得非常疯狂,比如高风险、高回报。
OpenAI需要确保获取足够的、我们想要的算力资源,但这并不意味着OpenAI需要成为一家擅长搭建超级集群的公司,我们可以依赖和微软的合作。
这或许就是我自己成长习惯带来的结果。
之前的创业者每个人都必须搞硬件,要搞计算集群。然后突然之间,AWS改变了这个局面,不是吗?
所以我一直持开放态度。一开始可能必须全靠自己,但随着时间的推移,一些整合工作重要性会增加。
而且OpenAI更愿意专注于我们擅长的研究和产品开发。
11月1号的时候,ChatGPT推出了AI搜索体验,这是这么久以来我最喜欢的我们的产品/功能。我是重度使用用户,它完全改变了我对互联网的使用方式。
现在我们的产品已经扩展到了相当大的规模:
2年前,ChatGPT门可罗雀,但现在每周有超过3亿的活跃用户,每天用户向ChatGPT发送超过10亿条消息,还有大概130万美国开发者在使用,全球总数就更别提了。
所以我们需要大量的算力,比我们预期中的还要多得多。
从商业史上来看,迅速扩张是一件不寻常的事情。不过,我从没听过有人因为使用微软的服务而心烦意乱。
我们有自己擅长的事,微软也真的很擅长自己的业务,的确也需要在两者之间找到平衡。
但我再重申一遍,我们之间并没有剑拔弩张,总体来说,我认为两者的动机是一致的。
Topic 5:AGI飞速来临,但影响力将远低于预期
之前放话说,OpenAI的目标是视AGI为里程碑。
一路上我们也给自己留了很多机动空间,因为我们不知道会发生什么。
但我猜哈,AGI的到来比大多数人预期得更快,但其实际影响却可能远低于大众想象。
AGI出现后,世界会继续运转,只是经济发展会更快,增长速度加速。
更大的挑战来自于AGI之后的Super Intelligence,那才是我们需要更加关注的阶段。
但是从AGI进化到Super Intelligence,是会有一个漫长而旷日持久的过程的。
然而即使在AGI时刻,有一些事情也要提起重视。比如对一些社会惯性的影响,在AGI到来的几年后会更加凸显;随着每一次重大技术变革,都会有许多人的工作变动或流动,但我认为我们总能找到事做。
但我敢打赌,我们从未见过它发展得这么快。我相信研究人员会想方设法尽可能规避危险。
我这人吧,天生过于乐观,我的意思是世界上最聪明的人会解决一系列技术问题,OpenAI正在尽全力工作,其他人也正在非常努力地工作,我们还有令人难以置信的深度学习可以帮助我们解决这些非常困难的问题。
AGI带来的不仅是社会的影响,也不仅仅是创造大量工作和经济价值的事情。
但就像真正的Super Intelligence一样,这个系统不仅比你或我更聪明,而且比我们所有人加起来还要聪明,真的非常不可思议。
我们在技术方面负责让它安全,肯定也会有相关政策问题出炉,我还觉得应对这种情况必须全球协调。
Topic 6:迭代式发展是保障安全的最佳途径
AI大模型是一项发展非常迅速的新技术,新到一开始我们都不知道如何用它协调各方。
而现在,社会上大多数人普遍认为它是可以接受的安全和可靠的安全。
要准确定义ChatGPT意味着什么其实很难。
肯定有人认为和ChatGPT聊天不够安全,它允许一些不应该或者不能做的事情;有些人会说,可以找ChatGPT聊天哟,它可能比我们想象中要安全些。
但下一个系统的计划是啥?我们该怎么办?有人会坚持推出这样的AI系统就是不安全的,因为它加速了全球竞争,这就减少了我们在安全方面的工作时间。
所以,我们坚持己见,按照自己的立场迭代部署。
我们必须将这些系统推向世界,社会和技术必须共同发展。同时又必须在风险较低的时候就入局,要了解人们会如何使用它、它在哪些方面不灵光、它能起到什么作用。
还有其他人说,当然有益处了,但那不值得付出带来的代价呀!
但我们坚持认为,这种迭代式的方法才是通向安全的最佳途径。
Topic 7:偏爱把AI类比为晶体管
如果把深度学习看作一种类似物理定律的东西,然后人类发现了这个重要的科学规律,那么这部分技术肯定会被很多人掌握的。
关于AI的类比,每个人都有自己的看法:有人把它比作电力,有人说它像工业革命,还有人说它像文艺复兴。
我个人偏爱把AI比作晶体管。
晶体管是一项科学发现,最初只有少数公司掌握,但它彻底改变了我们的社会,并实现了惊人的规模化。多说一句,而当人们谈论“规模化定律”时,我认为最好的类比是摩尔定律。
后来,晶体管被全球范围内的企业广泛使用,今天我们周围的一切几乎都离不开晶体管,但我们不会说某样东西是“晶体管设备”,也不会称Google是“晶体管公司”,尽管他们的存在离不开晶体管。
我认为AI会有类似的趋势,未来会出现令人震惊的强大模型,广泛应用于各个领域。
人们将无法想象他们使用的设备、产品和服务不是智能的,而这些企业和产品可能会自称AI公司或AI产品。从某种意义上来说,AI本身作为一种“引擎”会变得商品化。
这没有问题,这很好——科学应该普及到整个社会,这也是我们专注于构建ChatGPT等产品的原因。
Topic 8:从小视马斯克为超级英雄,他起诉是因为“我们很棒”
马斯克的xAI是OpenAI的竞争者,是一个非常值得严肃认真对待的竞争对手。
这一点我们从一开始就预料到了,而且现在来看,xAI的许多前沿模型已经和我们的非常接近了。
我对他们能够这么速度地建立起超级集群非常之敬佩。
最近马斯克正在起诉我们,这让我感到非常难过。
我从小就把马斯克视为超级英雄,他为世界所做的事情曾让我觉得极为了不起。
当然,现在我的感受有所不同,但我仍然很高兴他存在。
这不仅仅是因为我认为他的公司很棒——这也的确是事实——还因为他在一个大多数人对未来缺乏雄心的时代,推动了很多人,包括我自己,更有野心地去思考问题。
我对此充满感激,或者说欣赏。
我们共同创立了OpenAI,但后来他完全不信任OpenAI,选择了自己的方向。
这也没问题。
我一直认为马斯克是个建设者,一个非常在乎自己能否成为“那个关键人物”的人。我觉得他是那种会在市场和技术领域竞争的人,而不是诉诸法律手段。
无论他的指控是什么,我认为他之所以这样做,是因为他是竞争者,而我们做得很好。
这让我感到遗憾。
最近《华尔街日报》有一篇文章推测我们是否忌惮马斯克的影响力。其实我并不担心,当然,可能最终我会错,但我坚信马斯克会做正确的事情。
利用政治权力来打击竞争对手、为自己的企业谋利,我不认为人们会容忍这种行为,也相信马斯克也不会这么做。
尽管他身上有很多我不喜欢的地方,但如果他这么做,那将完全违背我相信他珍视的核心价值观。
至于他认为OpenAI在阻止一些潜在投资者同时支持他创立的xAI和其他竞争者,绝无此事。
我们的非常明确地表示:
如果有人投资我们,同时也想投资我们的竞争对手,这是完全可以的,但我们会限制他们的信息访问权。 这是我们公司规模和影响力下的一个非常常见条款。我们不会再向这些投资者披露我们的研究路线图等信息,但他们仍然可以投资竞争对手。
很多人对此都觉得合理。
Topic 9:早知今日,OpenAI一开始就不选非营利模式
现在我想谈谈我们为何最初选择非营利模式。
起步时,OpenAI并没有计划成为一家产品公司,也不了解我们需要多大规模的资本。
如果当时知道这些,我们会选择不同的结构。
很难想象,但2016年的环境与现在完全不同。当时,我们没有研究出大语言模型,也没有任何产品。我们的重点是撰写论文、开发新的强化学习算法、研究理论、让机器人玩电子游戏,甚至是开发一只机械手。
那时候,我们不确定是否会有产品或收入来源,也不清楚是否需要。
后来,随着GPT-1的发布以及其他工作成果,我们意识到需要大规模扩展。
同时,马斯克也停止为OpenAI提供非营利的资金支持,我们无法找到其他资金来源,于是决定尝试设立一个有限利润模式。
这个模式在一段时间内有效,也在某种程度上仍然适用。但随着我们进入下一个发展阶段,所需的资金规模已经开始挑战这种非营利机构控制下的模式。
但不管怎样,非营利组织都不会消失。
例如,董事会讨论过的一种可能性是创建一个由非营利机构持有大部分股份的公共利益公司(PBC),然后利用这笔财富服务于非营利机构的目标。当然也有一些其他的想法。
Topic 10:想回到过去拿一点股份,只为现在不用回答“为啥不拿”
我从未在公司里拿过股份,年薪是76,000美元。
这方面确实有很多媒体报道,不过我没有拿股份这事儿说出去确实有点奇怪。
如果可以回到过去,我可能会选择拿一点点股份,只是为了现在不用向别人回答这个问题(笑)。
我已经解释了很多次,我现在的工作是世界上最有趣、最酷的工作,这是我职业生涯之后的梦想工作。
我的职业生涯已经不错了,现在我可以把时间花在自己喜欢的事情上,参与这些项目,即使收入很少甚至没有报酬,这对我来说也不奇怪。
但不管怎么说,这种解释往往不能被完全理解。所以我确实有点后悔没拿一些股份。
但这并不会影响我的工作态度或努力程度,但可能会让我和投资者之间的目标更清晰一些,而且这确实会让融资更容易。
就像有些投资者因为我没有股份,所以选择不投资OpenAI——这种情况出现过好几次。
对我来说,这份工作是我儿时的梦想……虽然并不是每天都很轻松,也有很多让我“撞墙”的时刻。
但能够参与AGI的研发,和世界上最聪明的研究者一起工作,参与这场疯狂的冒险,这就是我一直以来的梦想。
这些奇怪的问题和状况都无法掩盖一点:
对我来说,这种经历比任何额外的金钱都更有价值。
Topic 11:支持类“学习权”的新标准保障创作者权益
《纽约时报》目前正在对OpenAI和微软提起诉讼,涉及训练模型时使用内容的问题。有很多内容创作者,他们的生计依赖于创作。
我认为我们确实需要一套新的协议或标准,无论你怎么称呼它,用来保障创作者获得应得的回报。
我非常支持“学习权”这种理念。
就像如果一个AI阅读了一本物理学教科书并学会了物理学,它应该可以像人类一样将这些知识应用到其他事情上。我觉得版权法和合理使用的某些部分需要继续适用。
但与此同时,还有许多新探索的方向。
比如,我一直非常关注如何实现微支付(micro payments)系统。
假如某人生成了Aaron Sorkin(美国著名的美国编剧、导演和制片人,代表作《新闻编辑室》《白宫风云》《史蒂夫·乔布斯》)风格的剧本,创作者可以选择允许他们的名字、形象和风格被使用,并从中获得收益。
△Aaron Sorkin
不过,我认为关于现在讨论AI合理使用的层面是错误的。
当然,我们非常支持类似“学习权”的方式。但我相信我们确实需要新的经济模式,帮助创作者开辟更多的收入来源。
至于《纽约时报》的立场,我不想在别人的“家”里做客时表现得无礼。
这场对谈发生在《纽约时报》的DealBook峰会,所以采访者听后笑道:“我们会对此进行讨论和辩论,或许法庭见。”
Last Topic:从人类存在的意义来说,新技术的发展意义渺小
明年我可能会和爱人要一个孩子。
说实话,没有什么事情像迎接一个孩子这样让我感触深刻。
即使只是准备迎接孩子,就让我觉得AGI变得微不足道了——虽然我对AGI充满了热情。
但相比之下,对孩子的期待让我感到更加兴奋。这让我重新审视了什么才是真正重要的。
这其实反映了一个普遍现象。
我们一直在开发令人惊叹的新技术,每次都有类似的讨论:工业革命时,机器抢走了我们的工作;计算机革命时,电脑取代了许多职业。
那么,这意味着什么呢?
从人类存在的意义来说,其实并没有太大变化。经济会增长,人们的工作内容会发生变化。但无论技术多么先进,人们对孩子的爱始终远远超过对AGI或其他技术的关注。
深层次的人类驱动力是如此强大,而且已经持续了如此之久,以至于即使我的孩子在一个截然不同的世界中成长,某种程度上,这个世界对他们来说依然会和现在一样。
参考链接:
[1]https://www.youtube.com/watch?v=tn0XpTAD_8Q
[2]https://x.com/rowancheung/status/1864404295258615858
[3]https://x.com/OpenAINewsroom/status/1864373399218475440
来源:网易
|
|