摘要
近期,AI龙虾(OpenClaw)作为开源本地AI智能体框架迅速爆火,从普通用户“养龙虾”的全民热潮,到腾讯、阿里等大厂纷纷布局,其核心突破在于实现AI从“会说话”到“会干活”的跨越,成为推动算力需求从“对话级”向“工业级”升级的关键变量。
本报告通过拆解AI龙虾的核心特性与算力消耗逻辑,结合最新产业动态、政策导向、市场数据,分析其对算力产业链各环节的拉动作用,预判算力产业链将迎来新一轮景气周期,并梳理各环节核心机遇与潜在风险,为市场参与者提供参考。
一、引言:AI龙虾爆火,开启AI执行时代
1.1 AI龙虾核心定义与爆火逻辑
AI龙虾并非海鲜养殖相关概念,其全称OpenClaw,是由奥地利退休程序员彼得·斯坦伯格(Peter Steinberger)于2025年11月发起的开源本地AI智能体框架(最初仅为“周末项目”),因Logo为红色龙虾、“Claw”(钳子)象征其数字操作能力,被网友戏称为“龙虾”,部署、训练、使用的全过程被称为“养龙虾”。与ChatGPT、豆包等传统对话式AI不同,AI龙虾是具备“本地大脑+数字双手+永久记忆+技能进化”的“数字员工”,获得授权后可直接操控电脑、手机,实现“听懂指令→拆解任务→动手执行→自动汇报”的全闭环,彻底打破了传统AI“只给方案、不做执行”的局限。

AI龙虾的爆火并非偶然,其核心驱动力在于解决了用户“高效落地生产力”的核心需求:3月6日深圳腾讯大厦北广场出现近千名开发者排队安装的盛况,腾讯推出免费安装服务解决普通用户部署难题,马化腾直言“没想到养龙虾这么火”,傅盛卧床14天靠龙虾搭建8人AI团队,普通打工人用它解放80%重复工作。同时,“养龙虾”热潮催生了配套服务产业链,小红书、抖音上“OpenClaw安装教程”相关帖子刷屏,上门安装服务定价299-800元仍供不应求,甚至出现印着龙虾标志的迷你主机一体机售卖,销量火爆。截至2026年3月9日,其GitHub星标数已突破28万,超越React(24.3万)和Linux(21.8万),登顶全球开源软件项目榜,大厂纷纷跟进推出一键部署服务或自研同类产品,全民级应用热潮快速形成。
1.2 核心变革:从“对话AI”到“执行AI”的算力需求跃迁
AI龙虾与传统对话式AI的本质差异,直接导致算力需求的量级式提升。传统对话式AI一次对话仅消耗1000-5000 Token,相当于“说一句话”的算力成本;而AI龙虾作为7X24小时持续运行的智能体,一个智能体持续运行1小时,可能消耗10万-100万Token,相当于“一个人工作一整天”的算力成本。中国人民大学高瓴人工智能学院执行院长文继荣指出,未来每个人可能拥有多个AI智能体,每日可能消耗千万级Token,对底层算力基础设施构成巨大压力。
各大证券公司对此均有明确观点,其中华泰证券测算,与聊天机器人相比,智能体的token消耗或提升十倍以上,对应的算力需求将增长百倍以上,且这种需求变革将推动推理算力历史性超越训练算力,成为算力需求的核心支撑;中信证券认为,AI龙虾的爆火标志着AI智能体从“概念”走向“落地”,算力需求将从“脉冲式”转为“持续性”,成为算力产业链中长期增长的核心引擎;中金公司则补充,AI龙虾的全民级普及将快速放大推理算力缺口,倒逼算力硬件升级与算力服务扩容。
量化对比来看,若100万人同时使用龙虾处理工作,其算力需求相当于1000万个传统大模型用户同时对话,呈现指数级增长态势,这种从“对话级”到“工业级”的算力需求跃迁,成为拉动算力产业链增长的核心引擎。
二、AI龙虾的算力消耗逻辑:四层架构驱动需求升级
AI龙虾之所以能实现“执行能力”,核心依靠网关层、大脑层、执行层、记忆层的四层模块化架构,各层级协同运行均需消耗大量算力,且呈现“持续占用、动态增长”的特点,具体拆解如下:
2.1 网关层:多通道交互的算力基础
网关层作为AI龙虾的“五官+神经中枢”,是所有指令的唯一入口,默认监听本地端口并实现多通道统一接收(微信、飞书、钉钉、Telegram等全平台)、身份鉴权、指令归一、任务队列管理与结果反馈。这一过程中,需实时处理语音、文字、图片等多格式指令的转换与传输,同时保障多任务并发时的秩序,对算力的实时性、稳定性提出基础要求,虽单条指令算力消耗较低,但海量用户并发时将形成规模化算力需求。

2.2 大脑层:任务拆解的核心算力消耗端
大脑层(LLM)是AI龙虾的决策中枢,采用模型无关设计,兼容GPT-4、通义千问、Kimi K2.5、MiniMax M2.5等各类大模型,核心负责意图理解、复杂任务拆解、工具决策与异常处理。
值得注意的是,OpenClaw已成为OpenRouter平台最大的token消耗源,接入其生态的大模型获得了指数级增长的需求管道,其中Kimi K2.5因性价比优势成为OpenClaw官方免费主力模型,发布不到一个月近20天累计收入便超过2025年全年总收入,MiniMax M2.5、阶跃星辰Step 3.5 Flash等国产模型也凭借OpenClaw生态实现调用量暴涨。
大脑层处理指令时,需将复杂任务拆解为原子化步骤,例如面对“整理桌面文件,按类型分类,生成今日工作总结,明天早上9点提醒我开会”的指令,需拆解为多个子任务并持续调用大模型推理,这一过程是算力消耗的核心环节,且指令复杂度越高、任务链条越长,算力消耗呈几何级增长。
2.3 执行层:实时操作的算力支撑
执行层作为AI龙虾的“双手+四肢”,基于RPA机器人流程自动化技术,直接对接操作系统、各类软件与API,实现系统级(文件增删改查)、软件级(Office、浏览器操控)、网络级(API调用)的全场景操作。这一过程需要实时模拟鼠标、键盘动作,同步处理软件交互中的各类反馈,对算力的低延迟要求极高——任何算力不足导致的卡顿,都可能造成任务执行失败。此外,执行层的技能库(如文档处理、代码编写、数据抓取)升级与迭代,也需要持续的算力支撑,而AI龙虾的规模化应用,进一步提升了对执行层算力的稳定性、高效性要求。
2.4 记忆层:永久存储的算力消耗补充
记忆层采用本地文件持久化存储,根治传统AI“健忘症”,分为短期记忆(当前任务上下文)、中期记忆(会话记录)、长期记忆(用户偏好、职业习惯),且记忆永不丢失。这一特性让AI龙虾具备极强的互动感,可主动向用户发送消息、提供个性化反馈,但同时也需要持续占用存储算力,用于数据的实时写入、读取与更新,尤其是长期使用后,用户专属记忆数据量不断增加,对存储算力的需求将持续提升。
三、算力产业链现状:需求爆发叠加政策护航,景气度持续升温
算力产业链以“算力生产-算力调度-算力应用”为核心逻辑,分为上游硬件、中游服务、下游应用三大环节。AI龙虾的爆火叠加政策支持、技术迭代,推动各环节需求持续爆发,行业整体景气度迎来新一轮提升,具体分析如下:
3.1 上游硬件:核心环节需求爆发,国产替代加速
上游硬件是算力的基础载体,主要包括算力芯片、AI服务器、光模块、液冷散热等细分领域,是AI龙虾算力需求的直接受益者,呈现“订单饱满、国产突破”的特点,各大券商对此形成共识:
- 算力芯片:作为算力核心,需求呈指数级增长。英伟达新一代GPU(如GB200)算力密度大幅提升,其Blackwell架构已实现推理领域领先,Rubin平台更将推理token成本最多降低至Blackwell平台的1/10,首批部署已对接亚马逊云科技、谷歌云等主流云厂商;国产方面,海光信息、寒武纪、华为昇腾等企业的芯片批量落地,同时AI龙虾带动国产大模型爆发,间接推动国产算力芯片的规模化应用,2025年国内AI芯片厂商营收同比增长超300%,国产化率持续提升,逐步替代海外高端芯片。对此,招商证券表示,AI龙虾带动的智能体普及,将持续推高GPU等算力芯片需求,尤其是推理型GPU,未来1-2年出货量将保持50%以上增速;兴业证券补充,国产算力芯片将借助AI龙虾带来的国产大模型爆发机遇,加速实现进口替代,长期国产化率有望突破30%。
- AI服务器:处于订单爆发期,浪潮信息、工业富联等头部企业的订单已排至2026年下半年,国内头部互联网厂商的算力资本开支同比增长50%以上。AI龙虾的规模化部署,进一步拉动AI服务器需求,尤其是支持多任务并发、低延迟的高端服务器,成为市场核心需求,同时AI服务器的升级的也为AI智能体的持续运行提供了硬件支撑。中信证券指出,AI龙虾的7X24小时运行特性,对AI服务器的稳定性、并发处理能力提出更高要求,将推动高端AI服务器占比提升,头部服务器厂商将持续受益;华泰证券测算,仅AI龙虾个人端部署,未来1年就将新增AI服务器需求超10万台,叠加企业端部署,需求缺口将持续扩大。
- 光模块与液冷散热:800G光模块需求持续放量,1.6T产品已进入小批量交付阶段;随着单机柜功率突破30kW,液冷技术成为新建智算中心标配,2026年新建智算中心100%标配液冷设备,渗透率直冲80%,英维克、高澜股份等企业订单饱满,业绩增长确定性高。需注意的是,800G光模块出现产能过剩迹象,价格下跌导致毛利率压缩,需警惕产能过剩风险。对此,中金公司表示,AI龙虾带动的算力需求爆发,将推动光模块向1.6T及以上高端产品升级,缓解800G产能过剩压力;国金证券则认为,液冷散热作为智算中心标配,将随着算力密度提升持续放量,行业景气度将维持3年以上高增长。
3.2 中游服务:枢纽作用凸显,盈利稳定性提升
中游算力服务是连接上游硬件与下游应用的关键枢纽,主要包括智算中心运营、算力租赁、算力网络调度,市场规模占整个产业链的51%,受益于AI龙虾带来的规模化算力需求,呈现“稳增长、高盈利”的态势,各大券商重点关注算力租赁赛道:
- 智算中心:国家“东数西算”工程持续推进,八大算力枢纽2026年集群总投资超2000亿元,西部节点主打AI训练,东部节点主打推理需求,智算中心利用率持续提升。阿里云单集群算力达EFLOPS级,科华数据等企业在全国布局多个数据中心并推进智算业务,以满足AI龙虾等智能体的大规模算力需求,尤其是推理算力需求的爆发,推动智算中心优化资源配置。
- 算力租赁:成为行业热门赛道,国内大模型企业、科技公司纷纷通过租赁算力降低自建机房成本,快速满足AI龙虾部署需求,尤其是中小开发者和企业,通过算力租赁快速接入AI龙虾生态。据预测,2026年中国算力租赁潜在收入市场规模有望达到2600亿元,并以每年20%以上的速度快速增长,IDC预计到2026年全球算力租赁市场规模将突破800亿美元,年复合增长率超25%。对此,华泰证券认为,AI龙虾的普及将大幅降低算力使用门槛,中小开发者和企业的算力租赁需求将迎来爆发,算力租赁行业将进入“量价齐升”阶段;中信证券补充,算力租赁企业若绑定国家算力枢纽节点、拥有稳定算力资源,将在行业竞争中占据优势,长期盈利稳定性突出;东方财富证券则提到,AI龙虾(OpenClaw)普及将直接拉动算力租赁需求,同时带动国产GPU/CPU、数据中心等相关板块同步受益。
- 算力网络调度:工信部部署“1+M+N”国家算力互联互通节点体系,解决以往“算力孤岛”问题,实现算力像电网一样统一调度。截至2026年3月,全国算力互联互通节点已接入155家企业的578个资源池、316EFLOPS智算资源,调度效率大幅提升,推动中游服务运营效率升级,更好地匹配AI龙虾带来的分布式算力需求。
3.3 下游应用:AI智能体打开新空间,需求场景持续扩容
下游应用是算力需求的最终来源,AI龙虾的爆火推动AI智能体应用场景持续扩容,除个人办公场景外,已逐步渗透至企业服务、政务、开发辅助等多个领域,进一步放大算力需求:
- 个人办公:AI龙虾可自动整理文件、写周报、做数据分析、发邮件等,解放用户重复工作,成为个人办公的核心辅助工具,规模化普及直接拉动个人端算力需求,同时个人用户对“养龙虾”的个性化需求,进一步提升了算力消耗的多样性。
- 企业服务:腾讯、阿里等大厂将AI龙虾接入企业办公系统,帮助企业实现流程自动化,降低人力成本,企业端规模化部署成为算力需求的重要增长点;同时,AI龙虾带动国产大模型商业化突破,月之暗面、MiniMax等初创企业凭借接入OpenClaw生态,实现收入爆发式增长,进一步推动企业端算力需求释放。
- 政务与其他场景:深圳福田区已部署“政务龙虾”,自动分析民生诉求、生成报告;在开发辅助领域,AI龙虾可自动写代码、调试Bug,进一步拓展算力应用场景。同时,AI龙虾与自动驾驶、工业互联网、智慧城市等领域的融合,将持续催生新的算力需求,推动算力应用场景持续多元化。
3.4 政策护航:多重利好推动产业链升级
政策层面持续加码算力产业,为产业链景气周期提供有力支撑:2026年《政府工作报告》首次写入“算电协同”,提出实施超大规模智算集群等新基建工程;工信部印发《关于开展国家算力互联互通节点建设工作的通知》,部署“1+M+N”国家算力互联互通节点体系;国务院国资委推进中央企业“AI+”专项行动,2025年央企在战略性新兴产业中的投资达2.5万亿元左右,其中中国移动2025年计划算力领域投资达373亿元,占其总资本开支25%。政策红利与AI龙虾带动的产业需求形成共振,推动算力产业链持续升级,为算力供给提供保障。
四、产业链景气周期预判:需求主导,新一轮增长可期
4.1 景气周期核心驱动因素
结合当前产业现状,算力产业链迎来新一轮景气周期的核心驱动因素主要包括三点:
一是需求端,AI龙虾带动AI智能体规模化普及,推动算力需求从“对话级”向“工业级”跃迁,形成指数级增长动力,且推理算力需求将逐步超越训练算力,成为算力需求的核心;
二是供给端,国产算力芯片、AI服务器等核心硬件技术突破,液冷、1.6T光模块等新技术落地,缓解供给瓶颈,同时国产替代加速,叠加AI龙虾带动国产大模型商业化,为产业链增长提供双重支撑;
三是政策端,国家持续加大算力基建投资,“东数西算”“算力互联互通”等政策落地,优化资源配置,推动产业链协同发展。
各大券商对此高度认同,其中中金公司预判,AI龙虾带动的算力需求爆发,将推动算力产业链进入新一轮3-5年的高景气周期,行业整体增速将维持在30%以上;招商证券则强调,国产替代与AI智能体落地形成共振,是本轮景气周期的核心亮点,将推动产业链盈利水平持续提升;兴业证券补充,算力产业链的景气度将呈现“上游强于中游、中游强于下游”的格局,与当前产业需求结构高度匹配。

发表评论 取消回复