当chatgpt掀起的大模型浪潮席卷全球,英伟达的gpu芯片几乎成了大模型训练与推理的“标配”,二者深度绑定的产业格局,让不少人联想到上世纪90年代到21世纪初,微软与英特尔联手缔造的“tel联盟”。这一比喻绝非牵强附会——从生态绑定的逻辑,到性能竞赛的路径,再到边际效益递减的困局,英伟达+gpt的组合与当年的tel联盟,堪称跨越时代的“复刻版”。更值得警惕的是,若沿着这条路径一路走到黑,其最终的结局,或许也会与盛极而衰的tel联盟如出一辙。
一、联盟的内核:“软硬绑定”的垄断性生态闭环
要理解两个联盟的相似性,首先要抓住“软硬深度绑定,形成排他性生态”这一核心。
(一)当年的tel联盟:系统与芯片的“共生垄断”
上世纪80年代,个人电脑行业群雄逐鹿,操作系统有dos、as等多个选择,芯片则有英特尔、摩托罗拉等玩家分庭抗礼。而微软与英特尔的联手,彻底改变了行业格局。
微软在开发dows操作系统时,会针对性适配英特尔的x86芯片架构,通过底层代码优化,让dows系统在英特尔芯片上的运行效率远超其他平台;与此同时,微软还会刻意预留“性能冗余”——每次dows版本升级,都会增加更多功能、更华丽的界面,这些新特性对芯片性能的要求会显着提升,老款英特尔芯片跑新系统会出现明显卡顿,用户若想获得流畅体验,只能更换新一代英特尔cpu。
反过来,英特尔则会根据微软的系统升级节奏,不断迭代芯片性能。从奔腾系列到酷睿系列,主频越来越高、核心数越来越多、缓存越来越大,这些性能提升,又给了微软“把系统做复杂”的底气——毕竟更强的芯片能支撑更臃肿的功能。
这种“你优化我,我倒逼你”英特尔芯片”。其他操作系统厂商(如lux桌面版)因为缺乏英特尔的深度适配,难以在流畅度上匹敌dows;其他芯片厂商(如ad早期)则因为dows的“偏爱”,市场份额被不断挤压。用户几乎没有选择余地,只能被动购买搭载英特尔芯片的dows电脑,这一格局持续了近20年。
英伟达与gpt的联盟,几乎复刻了tel联盟的绑定逻辑,只不过战场从个人电脑转移到了ai算力领域。
首先是技术架构的深度绑定。chatgpt等主流大模型的训练与推理,都是基于英伟达的cuda架构开发的。cuda是英伟达专为gpu设计的并行计算平台,能将大模型的海量参数计算任务拆解为无数个并行子任务,极大提升运算效率。而其他芯片厂商(如ad、国产昇腾)的架构(如ro),在生态完善度上远不如cuda——很多大模型的代码需要大量修改才能适配,且运行效率大打折扣。这就意味着,大模型公司若想快速落地产品,最省心的选择就是采购英伟达gpu。
其次是算力需求的相互倒逼。gpt的每一次版本升级,都是一场“参数军备竞赛”——从gpt-3的1750亿参数,到后续版本的万亿级参数,模型的复杂度呈指数级增长,对算力的需求更是几何级飙升。训练一个万亿参数的大模型,需要数千块英伟达h100gpu同时运行数月,算力成本高达数亿美元。这种“算力饥渴”,直接催生了英伟达gpu的“一机难求”,也让英伟达有了持续涨价的底气;反过来,英伟达每次推出新的gpu芯片(如从a100到h100再到h200),都会在算力密度、内存带宽上实现飞跃,这又给了大模型公司“堆参数”的底气——既然硬件性能提升了,为何不做更大的模型来追求“更强的效果”?
二、发展的路径:“性能竞赛”的正向循环与路径依赖
无论是tel联盟,还是英伟达+gpt的组合,都陷入了一条“性能为王”的发展路径——不断追求硬件性能的提升,不断加码软件的复杂度,形成相互强化的正向循环,但这种循环,最终会演变成难以挣脱的路径依赖。
(一)tel联盟的路径:系统越复杂,芯片越强;芯片越强,系统越复杂
微软dows系统的升级史,就是一部“功能堆砌史”。从dows95的简洁界面,到dowsxp的稳定实用,再到dowsvista的华丽特效,系统的代码量呈爆炸式增长,功能也越来越臃肿。很多功能对普通用户而言几乎毫无用处——比如vista的aero玻璃特效、复杂的系统服务,这些功能不仅占用大量内存和cpu资源,还导致系统兼容性下降、卡顿频发。
但微软的逻辑很清晰:只有让系统更复杂,才能倒逼用户升级硬件,进而带动英特尔芯片的销售,巩固联盟的市场地位。而英特尔则乐此不疲地跟进——你需要更强的cpu算力,我就提升主频;你需要更大的内存支持,我就优化内存控制器。双方在“性能竞赛”的赛道上越跑越远,却忘了一个核心问题:用户真的需要这么复杂的系统和这么强的芯片吗?
对绝大多数普通用户而言,日常办公、看视频、浏览网页,根本用不到酷睿i7的性能,也用不上dows系统的诸多“高级功能”。但在tel联盟的垄断下,用户没有选择——你要么花高价买高配电脑,要么忍受老电脑跑新系统的卡顿。“为了性能而性能”联盟逐渐与用户需求脱节。
如今的ai行业,正在重演tel联盟的“性能竞赛”剧本,只不过主角换成了“大模型参数”和“gpu算力”。
openai等大模型公司的核心追求,就是不断提升模型的参数规模——仿佛参数越多,模型的智能水平就越高。从千亿参数到万亿参数,模型的训练成本从数千万美元飙升至数亿美元,但对用户而言,模型效果的提升却越来越不明显。比如,万亿参数的模型生成的文案,和千亿参数的模型相比,可能只是措辞更流畅了一点,但用户需要为此支付的api调用成本,却可能翻了好几倍。
而英伟达的策略,就是跟着大模型的算力需求走。大模型需要更高的算力密度,英伟达就推出h100;大模型需要更大的内存带宽来处理海量数据,英伟达就升级h200的hb内存。每一次芯片升级,都精准命中大模型的“痛点”,但也让大模型公司对英伟达的依赖越来越深——毕竟,只有英伟达的芯片,才能支撑起万亿参数模型的训练与推理。
这种循环带来的,是严重的路径依赖。大模型公司陷入“参数竞赛”的陷阱,不敢轻易尝试轻量化模型,因为“参数少”会被市场认为“技术不行”;英伟达则陷入“算力竞赛”的陷阱,不断推出更强的芯片,却忽视了芯片的能效比和成本控制。整个行业都在“为了算力而算力”,却忘了ai发展的核心目标——用更低的成本、更高的效率,解决用户的实际问题。
三、用户的困境:成本攀升,边际效益却持续递减
无论是当年的tel联盟,还是如今的英伟达+gpt组合,最终的成本都转嫁到了用户身上。更糟糕的是,随着性能竞赛的加剧,用户支付的成本越来越高,但获得的价值提升却越来越小——边际效益递减规律,成了两个联盟共同的“死穴”。
(一)tel联盟时代:用户为冗余功能买单,体验提升却微乎其微
在tel联盟的巅峰时期,用户的换机成本直线上升。一台搭载dowsvista系统和英特尔酷睿2双核cpu的电脑,价格比搭载dowsxp和奔腾4cpu的电脑高出近50。但用户实际体验到的提升,却远不如价格涨幅明显——vista系统的卡顿问题饱受诟病,很多用户甚至选择“降级”回xp系统。
这就是典型的边际效益递减:当cpu主频从1ghz提升到2ghz时,用户能明显感受到系统运行速度变快;但当主频从3ghz提升到4ghz时,日常使用的体验提升几乎可以忽略不计。同样,当dows系统从“能用”升级到“好用”时,用户愿意买单;但从“好用”升级到“臃肿”时,用户就会觉得“不值”。
更让用户无奈的是,tel联盟的垄断,让他们没有其他选择。想要用主流的办公软件、游戏,就必须用dows系统;想要流畅运行dows系统,就必须买英特尔芯片的电脑。用户只能被迫为自己不需要的性能和功能买单,这也为后来移动互联网的颠覆埋下了伏笔。
(二)ai时代:企业与开发者为算力买单,价值回报却越来越低
如今的ai行业,用户(企业和开发者)正面临着和当年tel用户一样的困境。
一家中小企业若想部署一个大模型,需要采购数十块英伟达h100gpu,单块gpu的价格就高达数万美元,再加上服务器、机房、电力等成本,总投入动辄上千万。而部署之后,模型能带来的价值却未必能匹配成本——比如,用大模型做客服机器人,可能只是把人工客服的工作量减少了20,但投入的成本却增加了数倍。
对开发者而言,api调用成本也在不断攀升。chatgpt的api调用价格虽然经过几次下调,但随着模型参数的增加,单次复杂调用的成本依然不低。很多开发者发现,用大模型生成一篇文案、做一个简单的图像识别,成本比用传统算法高出不少,但效果提升却很有限。
这同样是边际效益递减在起作用:当模型参数从10亿提升到100亿时,效果提升显着;当参数从100亿提升到1000亿时,效果提升尚可;但当参数从1000亿提升到1万亿时,效果提升可能只有5-10,但算力成本却翻了10倍。企业和开发者为了那一点点的效果提升,需要支付数倍的成本,这种“得不偿失”的模式,注定难以长久。
四、最终的困局:路径依赖下的创新锁死与颠覆契机
tel联盟的盛极而衰,核心原因是路径依赖导致的创新锁死——当联盟把所有精力都放在“提升性能、堆砌功能”上时,却忽视了用户对“轻便、低成本、高性价比”动互联网时代的ar+安卓组合颠覆。联盟,也正在面临同样的困局。
(一)tel联盟的结局:被移动互联网颠覆的“性能巨兽”
tel联盟的路径依赖,让微软和英特尔都陷入了“性能至上”的思维定式。微软执着于把dows做得更复杂,英特尔执着于把cpu做得更强,却忘了市场正在发生变化——移动互联网时代来临,用户需要的是能在手机、平板上流畅运行的系统和芯片,而不是笨重的个人电脑。
ar架构的芯片,虽然性能不如英特尔x86芯片,但胜在功耗低、成本低、适配移动设备;安卓操作系统,虽然早期不如dows成熟,但胜在开源免费、轻便灵活、适配移动场景。安卓的组合,精准击中了用户的需求痛点——用更低的成本,提供更便捷的体验。
当智能手机和平板电脑成为主流,tel联盟的市场份额被不断挤压。微软不得不推出dowsphone系统,英特尔不得不推出移动版cpu,但因为长期的路径依赖,它们已经难以跟上移动互联网的节奏。最终,tel联盟从“垄断巨头”沦为“行业参与者”,再也无法重现昔日的辉煌。
一方面,轻量化模型正在崛起。ta的la系列、国内的通义千问轻量化版本、讯飞星火的端侧模型,这些模型的参数规模只有数十亿到数百亿,但通过精准的场景适配和数据训练,足以满足大部分企业和开发者的需求。更重要的是,这些轻量化模型可以在普通服务器甚至个人电脑上部署,成本只有大模型的几十分之一。对中小企业而言,轻量化模型才是“性价比之王”——它们不需要万亿参数模型的“过剩性能”,只需要能解决实际问题的“够用就好”的模型。
另一方面,开源生态正在打破垄断。开源大模型的兴起,让大模型技术不再被少数公司垄断。任何人都可以下载开源大模型的代码,在自己的服务器上部署、微调,不需要依赖chatgpt的api;开源芯片架构的发展,也正在打破英伟达的cuda垄断——ad的ro架构不断完善,国产昇腾芯片的生态也在逐步成熟,大模型可以在这些芯片上高效运行,成本比英伟达gpu低得多。
更重要的是,边缘计算和端侧ai的需求正在增长。随着物联网设备的普及,用户需要的是能在本地设备上运行的ai模型,而不是需要依赖云端算力的大模型。端侧芯片的组合,正在成为新的趋势——比如,在智能手机上运行的ai图像识别模型,在智能家居设备上运行的ai语音助手,这些模型不需要强大的云端算力,却能提供更便捷的体验。
五、结语:性能不是终点,价值才是核心
当年tel联盟的覆辙,已经为ai行业敲响了警钟。唯有回归技术的本质,聚焦用户的需求,ai才能真正走向普惠,而不是沦为少数巨头的“算力游戏”。