通往超级智能之路——只需训练大语言模型,用更多合成数据训练,雇佣成千上万的人在后训练中“教育”你的系统,发明强化学习的新花招——我认为这完全是胡说八道。这根本行不通。
Meta正在变得更加封闭……FAIR被推动去从事一些比传统上更偏向短期的项目。
FAIR曾对AI研究生态产生了巨大影响,核心就在于高度开放的理念。但在过去几年里,包括OpenAI、谷歌、Meta都在变得封闭。
构建智能系统的正确打开方式就是世界模型。
大量经验证据表明,这根本行不通。
15000小时的视频信息量相当于一个4岁孩子一生中清醒时接收到的视觉信息总量,但这仅相当于YouTube半小时的上传量,而且后者信息结构更为丰富、冗余度更高。
所有科学和模拟都通过“发明抽象”来工作,例如计算流体力学忽略了分子等底层细节,只关注宏观变量(如速度、密度、温度),而这种抽象能够带来“更长期、更可靠的预测”。
我起初和当时所有人的做法一样,犯了试图在像素级别预测视频的错误,这实际上是不可能的,因为预测是非决定性的。
在训练过程中,模型可能将所有输入映射到单一的点或低维空间,导致嵌入空间中的样本不可区分,从而无法有效捕捉样本间的语义差异。
为了这一目标,我愿意继续做出贡献。
| 通信人家园 (https://test.txrjy.com/) | Powered by C114 |