量子位专访楼天城:AI是匹脱缰野马,Harness是这个时代最关键的能力
未来人该怎么和AI共存
量子位专访楼天城:AI是匹脱缰野马,Harness是这个时代最关键的能力 – 量子位
首页
资讯
智能车
智库
活动
MEET大会
AIGC
扫码关注量子位
< img id="wx_img" src="https://www.qbitai.com/wp-content/uploads/imgs/qbitai-logo-1.png" width="400" height="400">
量子位专访楼天城:AI是匹脱缰野马,Harness是这个时代最关键的能力
Jay
2026-04-27
18:48:17
来源:
量子位
未来人该怎么和AI共存
Jay 李根 发自 凹非寺
量子位 | 公众号 QbitAI
Harness(驯马)会成为这个(AI)时代最关键的能力之一。
这是
小马智行CTO楼天城
,在与量子位的对话中,给出的最新判断。
在他看来,如今的AI越来越像一匹脱缰野马。它开始学会了「调用」:调用工具、调用skills……因此能通过这些脚手架,自我演进,和人类打配合。
主动性和能量大幅提升,未来
甚至连人类,都可能成为被「调用」的一环。
楼教主表示,当「AI司机」也和Coding Agent一样学会了使用工具,人类工程师的角色,会逐渐从「教练」转变为「执行者」。
这种情况下——
人和AI的关系,必须重新思考了。
这也是小马智行发布PonyWorld世界模型2.0的根本原因。
自动驾驶,即将进入一个AI主导、AI评测、并「调用」人类协助的新时代。
这个趋势是确定的,毕竟,人类想要赶上模型的迭代速度,太难了。
连强悍如楼教主这样的工程师都坦言:
开发的主导权,会逐步交给AI。
是的,一个顶尖的人类程序员,此刻却在宣告:即便是天之骄子般的工程师,也必须将研发的主导权拱手相让。
听起来多少有些残酷。
但这就是教主楼天城和小马智行10年创业历程里,目前为止最直接的结论。开发时代的范式,正在发生方向性的质变。
关于这个问题,或许可以用楼天城在访谈中反复提及的一个词回答——
大势所迫。
被技术瓶颈所迫,被消费者的期望所迫,被自动驾驶的终局所迫,被小马智行十年来始终渴望实现的蓝图所迫。
而这个被逼出来的模型,叫作
PonyWorld世界模型2.0
。
这是一场自动驾驶开发范式革命中,必须被倒逼出来的一次投影。
而且随这种趋势打开的还有小马智行的2.0时代,以自动驾驶出发的PonyAI,现在已经到了开启更大空间探索的时刻,通往物理AGI的道路已经被打开。
以及,楼教主的观点是:
我们已经在路上了。
PonyWorld世界模型2.0深度解析
人类驾驶数据的价值,正在逐步归零。
并非思维实验。这个曾经看似遥远的未来,如今已成为小马智行一切技术研发的出发点。
当AI司机的安全性全面超越人类,再让人类工程师手把手教AI开车,无异于让业余棋手去辅导AlphaGo。
虽然从行业发展角度来看是件可喜可贺的事,但回想2020年,难免不有些让人唏嘘。
那基本是「模仿学习」的时代。无论自动驾驶还是人工驾驶,核心都是为了收集海量数据,让系统去模仿人的行为。
整个行业都在用影子模式收集海量人类驾驶数据,试图大力出奇迹。
但奇迹没有来。
模仿学习的天花板,就是人类本身。
而L4级自动驾驶是无法靠人类兜底的,这个几乎零容错的终局要求,远比「像人一样开车」严苛得多。
这也是2020年PonyWorld世界模型1.0启动的契机。
他们想给机器一个超越人的空间。通过创造一个虚拟驾校,让机器在里面自己摸索怎么开车,做强化学习。
不过,随着能力的进一步跃升,另一个尴尬的问题随之浮现。
当AI驾驶能力已经远超人类时,人类给AI的指导,很可能是错的……
一旦AI超过了人,人其实已经失去了评判权。因为我们无法再判断谁更好、谁更差。
在这种情况下,只有AI自己,能穷尽人类所不能察觉的维度,精准定位到底哪里出了问题。
也就是说,让AI来识别并指导AI。
这是AI时代的「图灵测试」。
基于这个理念,小马对1.0进行了一次开发范式的全面重构,带来了PonyWorld世界模型2.0。
人类不再是这个闭环的中心,
AI,正式成为总教练。
自我诊断,是这套系统进化的核心引擎。
目前行业里大热的VLA(视觉-语言-动作)路线,核心逻辑是在感知与动作之间硬塞进一个语言模型——让AI先把路况「翻译」成文字,再基于文字生成动作。
但语言,本质上是对复杂4D物理时空的一种极度降维的「扁平投影」。虽然它提升了信息的传播效率,却不可避免地丢弃了大量珍贵的物理世界上下文。
这种架构,从诞生的那一刻起,就注定了它的上限。
为此,小马智行选择
跳过「语言」这个中间商
,让传感器数据直接映射为驾驶动作。
这不仅大幅削减了算力消耗,更让物理数据的收集与世界模型精度的提升变得前所未有的高效。
但这并不意味着放弃了「可解释性」和「语义推理」。
小马在车端模型的训练中,引入了一个比语言更接近驾驶本质的中间层——Intention(意图)语义层。
真正的老司机在紧急避险时,脑海里绝不会先默念一段台词。
「前方有障碍物,我要向左打方向……」等把这些可能性都在脑海里推理一遍,黄花菜都凉了。
面对瞬息万变的路况,人类高手是直接产生「意图」。
这正是PonyWorld世界模型2.0想要复刻的本能。
模型在做出每一个驾驶动作的同时,其内部会同步生成结构化的意图表达。翻译成人类能懂的语言,就是:
我选择在路口前减速等待,是因为右前方那个行人正在走向斑马线,我预判他大概率会横穿。
请注意,这些意图信息不是事后用另一个模型「解释」出来的,也不是推理过程中额外插入的累赘,而是在训练阶段就与驾驶动作被联合学习的原生能力。
而当这个意图层被解锁时,将会带来一个此前鲜被讨论的杀手锏:
它可以被无限生成。
世界模型本身就是生成模型,我们可以基于意图去反向生成任何意图组合对应的虚拟场景,让AI在所有可能的意图排列组合中接受高强度的「特训」。
这带来了一个根本性的差异。
人类开车时,通常只能对其他交通参与者做「最大似然估计」——觉得最有可能发生什么,就按什么反应。
但小马的AI司机拥有比人类长得多的上下文记忆能力,这是AI的天赋。它不需要靠「直觉」这种玄乎的东西,而是可以同时Keep in mind所有可能的意图组合,再进行综合决策。
系统可以自动回溯每一次决策,精准定位偏差究竟出在哪一层。
这些数据在真实世界中是无法被收集的,毕竟,谁会告诉你他刚才打方向盘的时候到底在想些啥啊。
当AI补全了这块长期的数据空缺,模型的自我诊断能力,无疑将迎来质的飞跃。
这直接带来了第二个核心突破:
定向进化。
以前想提升世界模型的精度,路子很野,叫「广撒网」。
全无人车队到处跑,数据全量回传,然后指望工程师凭经验去「沙里淘金」。
但车队规模一旦从百辆冲到千辆,这招就不灵了。绝大多数数据对提升精度没啥用,只会变成昂贵的存储垃圾,白白烧钱。
PonyWorld世界模型2.0彻底反转了这个逻辑。
当系统自我诊断发现模型在某个场景下「心里没底」——比如某几个路口每到傍晚逆光时,模型对特定障碍物的模拟置信度就开始跳水——它会自动生成一个定向采集任务,直接给测试团队派单:
请在未来一周内,于下午4:30-5:30之间,在指定路口重点采集逆光条件下非机动车与行人混行场景数据。
随后,研发人员、测试工程师、运营团队……整个组织开始围绕世界模型2.0的「精度需求」运转。
AI说哪里差点意思,人类就去补哪块数据。
人类工程师的角色,从手握教鞭的「驾校教练」,变成了听命行事的「AI数据采集员」。
研发节奏不再由人类经验驱动,而是由AI根据自身进化需求,自动生成。
值得注意的是,这里有个前提:
即便是做「AI的数据采集员」,也极度考验人类对AI的驾驭能力。
人类并没有完全退出Loop(AI进化的闭环流程),只是
角色变了
。
未来,怎么驾驭AI这匹脱缰的野马,既让它按自己的意志行动,又能保留它自我演进的能力,将是人才最需要具备的特质。
而对小马来说,同样可以预见的未来是:
接入2.0的自我诊断和定向进化能力后,无疑会给小马智行已有的「飞轮」,再狠狠踩一脚油门。
而核心燃料,正是L4全无人车队在真实交通中运营产生的数据。
AI会遇到人类司机不容易遇到的场景。
通常而言,人类司机在意识到旁边是AI车时,反应模式会变。有人会更敢加塞,有人会更愿意配合,也有人会试探它的边界。
因此,世界模型不仅要模拟人和人之间的交互,还得模拟人和AI之间的交互,尤其当AI的开法并不完全像人时,这件事就更有必要了。
而这种数据,只有像小马这样跑全无人Robotaxi的公司才能采集到——
大规模L4无人车队商业运营,产生真实世界的高价值数据;世界模型据此提升精度;车端模型持续增强;更强的模型支撑更大规模部署;更大规模部署又产出更多高精度数据。
循环往复,自我加速。
如今,小马智行已经积累了千万公里级的多城市纯无人驾驶数据。
数据量级是对结果的一种印证,而这个过程中所积累的经历和Know-How,同样是一笔宝贵的财富。
当然,一切的一切,最终还是得回到技术。
而负责技术的
小马智行CTO楼天城
,给出了许多细节和实践认知。
对话楼天城
量子位:
以前你们一直用安全、舒适、效率这些指标,之前是人来定义。现在听起来,更像是AI在决定了。
楼天城:
整体架构最早当然还是人搭的,安全这些指标也一直都在。
但后来,我们通过学习的方式,训练了一些模型去做评价。
关键在于:AI为什么做得不好,问题到底出在哪。这件事现在人已经不太能判断准了,AI来当这个医生更合适。
量子位:
核心原因不是人有短板,是AI进化得太强了。
楼天城:
或者说人现在也很难再有什么进步(笑)。
但AI可以依靠
非常长的context
(上下文),让自己的理解能力变得特别强。
以前是人来判断,现在是AI来判断。收集之后够不够、还要不要继续改、这次改得好不好……这些关键决策点,正在逐步被AI接管。
量子位:
所以人真的成了「工具人」(笑)。
楼天城:
或者说,我们把人的精力放到了其他同样重要的事情上。至于判断这件事,就交给更擅长判断的AI。
这样做最大的意义就是突破天花板。如果今天还继续靠人来做,很多时候可能已经没法推动系统继续正向进步了。
量子位:
主导权交给AI,这里面会不会出现幻觉?
楼天城:
幻觉这个词最早是从大语言模型那边来的。
过去两年已经有太多例子说明,Scaling Law这条路,也就是单纯加数据,
并不能解决幻觉
。到今天,幻觉比例依然不低。
真正需要的是别的东西。比如对系统加限制,让它自我迭代、自我演进。
要让它自己意识到哪里有问题,然后自己去改进。
量子位:
怎么意识到?
楼天城:
它知道结果不对。比如因为幻觉导致最后撞了,或者发生了急刹,它就会回溯前面哪几步出了问题,然后再去改。
量子位:
在自动驾驶里,幻觉问题是不是相对更容易处理一些?毕竟交通规则还是比较完备的。
楼天城:
它确实相对更容易被压低,但问题在于,在真实世界中,
幻觉带来的代价非常高。
量子位:
PonyWorld世界模型2.0是一个升维概念,整个AI在训练AI,AI在驱动一切。那怎么确保系统始终安全?
楼天城:
有一整套非常精确的评价体系,来判断问题发生的概率到底是多少。
我们会告诉它什么是好的、什么是不好的,但不会直接告诉它具体该怎么评价。最终我们看到的是,指标在持续提升。
还有一点,就算让AI来判断,它判断得也比人更准。随着系统持续进化,人可能连某个问题到底是不是幻觉,
都判断不过AI了
。
到今天为止,所有基于概率的模型都还做不到彻底消除幻觉。但让AI来驱动改进,比让人来驱动,速度快得多,天花板也高得多。
量子位:
世界模型2.0对系统训练的速度和效率有了质的提升,那在落地层面,是不是也意味着质的提升?
楼天城:
(停顿2秒)这是多方面的。
首先,落地不再只是局限在固定区域,而是可以走向更多区域、更繁忙的路段,比如高峰期,还有那些我们原来并不熟悉的国家和市场。
这里可以用一个词,叫
superset
。在这些新地方遇到的很多场景,其实只是原有世界模型的一个子集。所以系统在新区域启动时,会更有底。
另外一个变化,是大家的
预期在提高
。早年大家会觉得自动驾驶偶尔犯傻也能接受,但现在大家要求已经高很多了。这也是长期商业化推进里很关键的因素。
量子位:
每个地方的驾驶行为和容忍度都不一样。有些地方让行人,有些地方加塞很激烈,这会影响系统吗?
楼天城:
这些其实都可以看作
子集
。
这些组合在世界模型里其实都已经出现过,只是在不同地方,它们的概率分布不一样。这个地方更保守一点,那个地方更激进一点,但两种场景本身都已经在世界模型里存在了。
量子位:
能不能理解成,北京训练出来的司机和广州训练出来的司机,风格上还是会有差别?
楼天城:
在L4这个层面,其实不需要特别明显的差异。
L4真正要解决的,是在一万小时驾驶里,那些因为风格不同或者极端行为导致的危险场景。而这些危险场景在很多地方,哪怕是海外,其实都没有本质上的巨大差异。
有些地方开车猛一点,有些地方保守一点,但
真正到出事的时候,其实都是一样的。
这可能和L2不同。辅助驾驶更在意不同地区整体的驾驶习惯,但L4更关注极端场景,而这些极端场景的分布其实非常一致。
所以去新地方,并不需要太多额外操作。
量子位:
世界模型2.0发挥作用之后,对车端传感器方案和算力会有什么影响?
楼天城:
先说传感器,这里面核心是成本。
如果我们希望使用更便宜、更标准化的传感器,那它们在质量上一定会有一些不足。比如在特别复杂的雨天环境里,标准化传感器可能就会比高端传感器差一些。
这确实需要世界模型继续进步,在生成阶段把这些问题也纳入进去。不过这项技术我们已经做完了,现在已经可以比较好地使用标准化传感器。
再说算力。通常
两三倍的差距不会带来本质变化
,除非是100倍这种量级,才可能真的改变很多事情。但100倍本身也不是个简单数字。
大多数时候,两三倍这种差异,主要还是通过训练范式、开发范式和模型结构去消化。
量子位:
10年前大家最常说的词是corner case,也就是极端场景。当时大家一直在讨论到底能不能穷尽它。现在世界模型是不是找到了一条能解决,或者说能穷尽极端场景的路径?
楼天城:
更准确地说,是穷尽这些场景里的
intention
(意图)
分布
。
场景本身并没有那么多变种,但我们不能说自己已经穷尽了全部场景。真正无限变化的,其实是不同物体之间的意图组合。
同样的场景、同样的状态,因为不同参与者的意图不同,就会形成非常多的组合。世界模型真正能做的,是把这些意图组合穷尽掉。
(停顿……)
在现实世界做这件事,是不可能的。
意图数据本身就很难收集,你不可能在真实道路上要求所有人按照某种设定好的意图去行动。
但在虚拟环境中,我们可以强制设定意图。
量子位:
你们博客里有一句话让我印象很深,在AI驾驶能力超过人类实际水平之后,普通人类数据对世界模型精度提升的价值会趋近于零。这是一个数据层面的洞察,还是认知层面的洞察?
楼天城:
这个认知其实已经存在一段时间了。而且我甚至觉得,如果系统已经做得很好,那这个价值不只是趋近于零,
甚至可能是负的。
量子位:
啊?(惊讶脸)
楼天城:
本质上其实是是AI发展阶段变了。AI会经历从不如人,到接近人,再到超过人,然后继续自我改进的过程。
当人已经明显比AI差的时候,人提供的很多数据反而会把一些不该有的坏习惯带进来。
AI刚超过人的时候,可能整体行为看起来还和人很像,只是它在那些和人不一样的地方做得更好。但恰恰是这些不一样的场景,人已经没法准确判断到底是好还是不好了。
有点像老师。早期当然很感谢老师教了很多东西,但真正到了做研究的阶段,老师其实已经
帮不上太多了
,更不需要再把早年的东西一遍遍重新灌给你。
接下来,
需要AI自己去生成。
这就好像你没法教AlphaGo下围棋,就算让我教,我也教不了啊(教主无奈)。
量子位:
有一种说法是,真正高级的AI司机,可能会在多车道变道时,直接从第一车道切到第四车道……
楼天城:
(打断)这其实要看具体情况。
如果路上视野特别好,看得很清楚,没有遮挡,那它这么做也许完全合理,甚至可能就是最优解。
但换个场景,就不能这么做。有时候人类司机没有意识到潜在风险,因为整个过程需要时间,而且前方可能有遮挡,只是恰好没碰上问题。但AI可以意识到这些潜在因素。
而且人本来就是千人千面。AI还得先判断「到底该学谁」,对吧?
因为有些人会这样开,有些人不会。
量子位:
所以现在让AI教AI怎么学,也能避免学到这些危险行为?
楼天城:
AI一旦不再以开得和人一样为目标,而是以开得更好为目标,它自然就会意识到这些风险因素必须纳入考虑。
但AI教AI最根本的一点,还是它要继续告诉自己,哪里开得不够好,然后持续改进。当AI已经明显超过人之后,要再往上提升,就必须让AI来驱动很多事情。
量子位:
你这个洞察,好像也回应了L2到底能不能升到L4这个问题。如果只是不断模仿和学习人的驾驶方式,是到不了L4的,对吗?
楼天城:
我确实说过类似观点,但这个问题要分技术和产品两个维度来看。
从技术上说,不能简单把某条路径打成L2技术。今天很多公司也在做强化学习。我当时真正想表达的是,
只靠收集人类驾驶数据,做不到L4。
这一点今天其实已经成了共识。几乎所有公司都在谈强化学习、谈世界模型。大家都发现,只靠大量车在路上跑、收集人类数据,这件事帮不了L4。
简单说,不是L2一定走不到L4,而是沿着L2那条纯模仿的技术路径,它本身帮不了你实现L4。
完全没做过L2的公司也一样可以做L4。
从产品角度看,又是另一回事。随着L2越来越安全,用户会慢慢产生一种差不多可以了的感觉。这种trust会导致一个问题,就是在需要接管的时候,用户反而接不过来。
这也是为什么L2开得越好,反而在产品层面会引出新的风险。技术上的瓶颈和产品上的风险,其实是两件事。
量子位:
有人说你给VLA判了死刑。
楼天城:
如果不看中间过程,只说自动驾驶最终形态……
应该,没有L的空间
(语速放缓)。
因为从效率上看,L并不是V和A之间最有效的中间层。今天我们已经能找到更好的layer(层)。
它可能对某些中间阶段是有用的,但我讨论的是终局。在终局里,VLA里的L不是最终的连接方式。
即便未来中间层还会保留一些语义推理能力,那也不太可能还是human language(人类语言)这种L,
更可能是一些新token
。
intention可能不是一种token,但本质上,这已经证明它是更好的中间层。以后也许还会有别的。
所以最终来看,
L不会是V和A之间真正长期存在的桥梁。
量子位:
那中间阶段呢?
楼天城:
中间阶段它当然是不错的。我没说中间阶段没有机会,只是说最终形态不会是这样。
量子位:
但确实已经有一些做VLA的系统,跑出了不错的效果。
楼天城:
对。但很多时候,VLA本身也在变,尤其是
L在变
,它已经不再是传统意义上的human language了。
VLA一开始之所以成立,是因为人类语言数据最好收集,所以它是个很好的起点。但再往后看,从工程实践和产业发展的角度,L扮演的角色会越来越少。
量子位:
你也提到,世界模型2.0让工程师的角色发生了变化。在信息AI领域,大家会讨论超级对齐。那在物理AI或者自动驾驶里,有没有对齐这个概念?
楼天城:
此对齐非彼对齐。这里真正需要对齐的,是对什么叫开得好的标准,而不是和人的驾驶行为做对齐。
如果你说的是
行为上的对齐
,那我们早就不追求那个了,而且那也不是正确方向。但什么叫「好」,这件事还是需要人的参与。
当然,人能提供的关于好与不好的维度,其实是很有限的。AI很早就已经基于这些维度做了大量扩展,而且做得更好。但它不会违反人设定的这些基本维度。
这在技术上未必叫对齐,但它可以实现类似对齐的效果。它
对齐的是评价标准,而不是驾驶行为。
所以它的驾驶行为本身,绝对不会再照着人类怎么开来学。
人会先给出最基本的原则,但再往上更细的东西,人其实也给不出来了。AI就在这些原则之上,把事情做得更好。
量子位:
假设未来要给火星设计一套新的驾驶系统或者交通系统,是不是那时候就该由AI来设计?
楼天城:
(教主漫长停顿5秒)
好问题。
短期内……不会发生。
很长一段时间里,
人类驾驶和自动驾驶还会共存
,所以系统还是必须建立在现有交通规则之上,不能违反任何规则。
当然,如果未来真的出现一种完全不同于今天的新交通体系,那空间就会被打开。但那可能要等到绝大多数车都已经是自动驾驶之后,才会慢慢开始。
如果真到了火星,而且是一个全自动驾驶环境,那就完全是另一套故事了。但这件事还非常远。
量子位:
我自己平时也开辅助驾驶的车。现在很多车会亮蓝灯,表示处于智能驾驶状态。如果我要加塞,我会优先挑蓝灯的车去加。因为现在交通系统里,最复杂的bug,其实往往是人类驾驶员自己。
楼天城:
人现在很多时候更愿意和AI配合,而不是和人配合。
我以前常用AlphaGo来举例。下棋的时候它是对抗关系,但到了配合场景里,你会发现
人其实更喜欢和AI合作
。
AI更懂人,而人也会越来越懂AI。
量子位:
你们提到,研发人员正在变成世界模型的数据员。
楼天城:
更准确地说,是一部分人会变成这样。另一部分人,比如做车载模型部署和优化的,还是在做别的同样重要、甚至更重要的事。
量子位:
你们一直以天才团队著称。当AI开始承担一些高水平研发角色,会不会降低未来自动驾驶行业对天才的需求?
楼天城:
这已经不只是自动驾驶的问题了。
核心在于,人必须学会用新的方式和AI配合。在AI擅长的地方,让AI主导;
在AI不擅长的地方,人去想办法驾驭它。
这不是某个行业、某家公司单独面临的变化,而是整个AI发展到今天,人都必须做出的改变。真正懂得怎么驾驭AI的人,才会成为下一代真正有价值的人才。
这是一次非常大的技术革命。
量子位:
但如果我们把视野放回自动驾驶,当AI开始能替代天才工程师,自动驾驶的入局门槛似乎正在降低,因为对人才密度的要求没那么高了。
不过,你们在构建世界模型2.0的过程中,又依赖了大量运营车辆、反馈数据、精度迭代和整个世界模型闭环……
这样看,入局的壁垒好像反而又更高了(困惑脸)?
楼天城:
其实更准确的说法,是
优势发生了转移。
当然还是需要很多顶尖人才,但他们做的事情会和以前不太一样。过去的技术优势,会逐步转化成更全面的优势。
量子位:
假设你已经知道了今天这些关于世界模型的洞察,如果重新做一次自动驾驶,会有什么不同?
楼天城:
世界上没有时光倒流这种机会(笑)。
但有些认知,确实要走到一定阶段之后才会慢慢形成。比如早年很多公司都觉得,只要不断收集人类数据、不断模仿,就能把事做成。到了今天,几乎所有人都已经认可强化学习的重要性。
但很多公司的车可能还没有发展到那个阶段,也就是还没强到让人彻底判断不了好坏,所以他们还会觉得现有研发方式能继续用下去。也许等再往后走,他们也会有类似认知。
如果真的能带着今天的记忆回到过去,可能确实能少走一些弯路。但现实是,一个团队也必须靠自己一步步意识到这些事情。
沿着原来的方法走,我们Pony自己也走了4年模仿学习。这些经历不是没用,恰恰是因为走过了,才真正理解为什么必须走向强化学习。我们也长期依靠人来主导开发,正因为做过,才真正理解为什么要把更多事情交给AI。
量子位:
所以说你们这十年自动驾驶的探索过程……
楼天城:
(提前预判)这个问题问得很好。
也许知道整个发展过程,才是一家公司真正的壁垒。
(停顿3秒)
一步步走到现在,经历过那些Know-How,经历过那些钻研,才知道下一步该怎么走。
整个
过程本身,就是一笔非常独特的财富。
量子位:
Scaling Law在你们的探索过程中起什么作用?
楼天城:
在数据量还比较小的时候,增加数据当然有帮助。
但当数据量上来之后,尤其是在自动驾驶这种出错代价非常高的场景里,已经被多次证明,单靠加数据帮助很有限。
真正需要的,是训练范式和模型结构层面的改变。不是说Scaling Law没用,而是它在早期作用更大,到了后期,决定上限的已经是其他因素了。
量子位:
你们在博文里
本文来源:量子位