作者:关键帧
图片来源:由无界AI生成
AI竞技场正静静见证着一场深刻的技术权力腾挪。
这场由DeepSeek引发的变革仍未见平息,大模型竞争进入“后暴力计算时代”,效率的重要性跃然纸上,而AI权力也面临重构,OpenAI“一家独大”的局面正不断受到冲击。
后浪凶猛进化,前浪披荆斩棘,“城头变幻大王旗”赢家尚未有定论,如何既通过开源获取生态的加持,又利用闭源实现商业变现,才是决胜的关键。
01、中国AI项目乘政策风“井喷”
国产AI的发展在不声不响间悄然酝酿。2023年被业内人士视为人工智能发展的分水岭。
人工智能科学家李飞飞曾说:“在历史上,2023 年有望因技术的深刻变化和公众觉醒而被人们铭记。”
而在此之前,关于人工智能的技术探索和创新早已不胜枚举。
1956年约翰·麦卡锡在达特茅斯会议上首次提出“人工智能”(Artificial Intelligence)概念,AI作为一门学科正式诞生。
但到了1973年,由于AI研究遭遇瓶颈,对AI的资金投入大幅缩水,发展进入 “寒冬”。
1986年,直到“AI教父”杰弗里·辛顿(Geoffrey Hinton)提出了反向传播(Backpropagation)算法,神经网络的复兴让AI发展再迎曙光,再到2017年Google提出基于自注意力机制(Self-Attention),取代RNN/LSTM,成为后续大语言模型(LLM)的核心架构……
回望国内的AI发展历程,2023年同样是“国产AI时代开启元年”。
据天眼查,仅2023年上半年与大模型直接相关的融资事件超20起,国内已发布的各类大模型数量超过100个,而到了2024年7月时完成备案并上线的生成式AI大模型数量接近200个。
直到今天,有机会冲进决赛圈的依然只有十几家。咨询机构弗若斯特沙利文指出,我们目前在通用基础大模型领域的竞争者已缩减至20余家,主要由互联网企业、云计算巨头及人工智能创业公司主导。
大家都是这场没有硝烟的“战争”的亲历者,站在2025年的开年回望,或许是经历了2024年 “百模大战”的大浪淘沙,DeepSeek才得以在2025年开年在全球科技行业投掷下“惊雷”,推动国产AI实现了"关键一跃",站稳脚跟。
拥有持续创新能力的企业逐渐占据市场主导,从图文转视频到多语言广告生成,人工智能的应用范围正在迅速拓展。
与此同时,大模型和智能体技术也进入了加速发展阶段。无论是C端的用户体验优化,还是B端的企业解决方案,智能体和大模型正在重新定义技术与社会的连接方式。
决赛圈里目前有三股力量:一是阿里巴巴、字节跳动代表的互联网大厂、云服务商,介入大模型;二是科大讯飞代表的人工智能国家队,以G/B/C联动的方式,既做解决方案又做硬件产品;三是智谱、DeepSeek等AI创业公司,少数还在坚持基础模型创新。
产业链上下游处境分化,模型厂商发展路径分野。即便“AI六小虎”,也面临道路分化。例如,百川智能已转向医疗等行业大模型;零一万物将超级大模型训练交给阿里;月之暗面和MiniMax专注做C端应用和产品。
业内人士普遍认为,与产业链上下游相比,处于中游的模型厂商普遍面临盈利困境。2025年,大模型决赛圈的选手,还能在基础大模型层创新的企业,会进一步减少。
02、从“烧钱信仰”到“效率革命”
如果说“成本、AI Agent、多模态”是当下AI产业的三个关键词,代表着2024年大模型的进化方向,那么它们或许也代表着大模型迈向产业落地的关键节点。
首先,成本无疑是决定企业生死的关键,训练和部署大规模 AI模型对计算资源的庞大需求不容忽视,这也使得企业必须背负高昂的计算成本和运维成本。
DeepSeek-R1也正是抓了企业在效率和成本控制上的痛点,实现了在相对较低的算力投入下,可媲美甚至超越头部模型的性能表现。
传统人工智能发展模式往往依赖于“规模至上”的逻辑,追求超大规模模型和超大规模算力集群。DeepSeek R1的轻量化模型和开源策略,降低了人工智能应用的门槛,促进了中端算力设施和分布式数据中心的普及。
产业链上游的英伟达,因DeepSeek的出现开始面临一定需求结构调整的压力。
ASIC芯片厂商则迎来了新的发展机遇。由于ASIC芯片能够针对特定人工智能应用进行硬件加速,在能效比和成本控制上具有明显优势,更适应分布式算力发展的趋势。
对于算力服务端来说,区域性数据中心凭借低时延和贴近应用场景的优势,开始承接制造业智能质检、金融风控等对延迟敏感的应用需求。
AWS、阿里云等云计算巨头调整部分大型数据中心的建设策略,加大在边缘计算和分布式算力布局方面的投入。
而应用端则将受益于算力成本的下降,驱动人工智能在制造业、金融、医疗等领域的渗透加速。
在代码托管平台GitHub上,已涌现出大量基于DeepSeek模型的集成应用案例(awesome deepseek integration),形成“需求牵引供给”的正向循环,实现“算力+行业”的双向赋能。
人工智能技术将加速渗透到各行各业,成为推动产业升级和经济发展的重要引擎。
但值得关注的是,DeepSeek R1的技术突破,在降低人工智能应用门槛的同时,也可能引发“杰文斯悖论”。
杰文斯悖论由19世纪经济学家 William Stanley Jevons提出,他发现,随着煤炭使用效率的提高,煤炭的消耗总量反而增加。这一悖论揭示了一个深刻的经济规律:效率的提升并不必然导致资源消耗的减少,反而可能因为成本降低和应用范围扩大,刺激需求增长,最终导致资源消耗总量增加。
微软 CEO 萨提亚·纳德拉引用杰文斯悖论来解释DeepSeek R1可能带来的影响,可谓一针见血。
纳德拉认为,更实惠、更易于访问的人工智能技术,将通过更快的普及和更广泛的应用,导致需求的激增。随着人工智能技术的门槛降低,过去由于成本限制而无法应用人工智能的领域,例如中小企业、边缘计算场景等,将涌现出大量新的应用需求,从而导致算力调用密度指数级上升。
新兴应用场景的爆发,也将加速算力需求的裂变。智能驾驶、具身机器人等前沿领域对实时算力的需求极为庞大,远超DeepSeek技术优化的速度。即使单任务效率提升数倍,百万级智能终端的并发需求,仍将形成巨大的算力吞噬黑洞。
03、“开源”与“闭源”的协同
随着开源大模型DeepSeek的“爆火”,“开源”和“免费”等关键词频现。
如果说,在DeepSeek之前,国内大模型企业关于“开源”和“闭源”的路径仍多有分歧,现在“开源”、“开放生态”、扩大朋友圈的呼声似乎成了主流。
在DeepSeek这条鲶鱼的冲击之下,国内大模型企业展示出更“开放”的姿态,希望加快建立自己的开发者生态和应用生态。
而开源模型和闭源模型的关键差异,则可以从基础条件、技术层面和商业化三个维度来观察。
从基础条件看,开源模型以公开数据集、社区贡献数据为数据来源,以分布式的、开发者自有的GPU集群为算力支撑,为开发者、研究者、企业等提供了平等的接入机会,促进了技术的创新和共享。
闭源模型则是由公司或团队开发,以专有数据如用户行为日志、私有数据库、清洗后公开数据为数据来源,用户只能根据公司提供的接口或平台使用这些模型。
从盈利场景看,开源模型本身并不直接带来收益,但它们通常通过附加服务(如云计算、技术支持、培训、定制化开发等)来实现营利。公司可以通过商业化的方式提供增值服务,依托开源模型形成可持续的收入来源。
闭源模型的商业化路径相对直接,企业通过授权许可、订阅服务、平台收费等方式实现营利。闭源模型能为公司带来高利润,因为客户需要为其使用权限和服务支付费用。
开源与闭源并非“水火不融”,未来很可能会形成开源与闭源相互作用的形式,开源加速了AI技术的普及和创新,而闭源则确保技术能够在商业上获得长足发展并维持稳定性
未来的赢家将是能同时掌握开源和闭源能力的多面手,,既通过开源获取生态势能,也利用闭源实现价值捕获。
正如纳德拉所说,“超大规模AI不会出现赢者通吃的局面,开源模式将制衡闭源。”
尾声
DeepSeek 在当下的AI时代将扮演重要角色,就像 Android 之于移动互联网革命。
重构产业生态,引发链式反应,加速上层应用发展与下层系统统一。这将调动起跨越软硬件和上下游的生态力量,促使各方加大 “模型 - 芯片 - 系统” 协同优化与垂直打通的投入,进一步削弱 CUDA 生态优势,为国产 AI 产业发展创造机遇。
DeepSeek 通过技术创新,在 AI 模型训练过程中实现了对高端进口芯片依赖的降低,这为国内企业展示了一条可行的技术路径,极大地增强了国内企业自主研发算力芯片的信心。
博弈,不仅仅是开源以及闭源的技术选择,更是涉及 AI 发展的话语权、市场主导权以及算力的分配的角逐。而这场AI权利争夺战已然开始。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。