今天初八,新的一年开工了。关于AI创业,我也简单、系统性地整理了一下自己的一些笔记,便于日后查阅、纠偏、以及与朋友们分享。
首先,我认为围绕AI可做的事情从下至上还是可以大致分为三类:基础设施(芯片)、模型和应用。我想复盘一下关于这三类事情的格局、机会与陷阱,以及分析一下我为什么想暂停已完成的一个原型(TripMeta)和分享一下曾经构思的GEO创业项目,最后找找OPC的可能性。关于GEO和OPC的事情一篇写不完,之后另作分享,这篇先为TripMeta做个总结吧。
第一部分:AI的三层楼
如果把AI产业比作一栋三层建筑,每一层的玩家、逻辑和机会完全不同。
第一层:基础设施——卖铲子的人
这一层离普通创业者最远,但它是整个行业的根基。
芯片 vs. 算力:这是一个容易被混淆的概念。简单说,算力是需求(你需要多少计算能力),芯片是供应(提供计算能力的物理硬件)。就像货运公司,算力是你要搬多少吨货,芯片是那辆卡车。
GPU不是唯一的答案。英伟达以92%的市场份额占据绝对主导,但AMD(7%)和英特尔(1%)也是重要参与者。更重要的是,随着AI从“训练”走向“推理”,芯片的格局正在被重塑。
-
GPU(图形处理器):全能特种兵。适合模型训练和多样化场景推理,但功耗高。代表:NVIDIA H100/A100。
-
推理芯片(NPU/TPU):自动化机器臂。专攻高吞吐量、低功耗的推理任务,能效比极高。代表:Google TPU、华为昇腾910。
这里有一个关键概念需要厘清:ASIC、NPU、TPU的关系。TPU是Google设计的一种NPU,而NPU是专门用于AI计算的ASIC。按用途从宽到窄:集成电路 → ASIC → NPU → TPU。
Groq的启示:2025年底,英伟达以约200亿美元“技术授权+人才收购”的模式“收编”了Groq——一家专攻AI推理的芯片初创公司。Groq的LPU(语言处理单元)用SRAM取代HBM,实现了极低延迟,在某些场景下速度比H100快10倍。英伟达之所以愿意支付3倍溢价(Groq三个月前估值仅69亿美元),是因为AI的“下半场”是推理,而Groq精准点中了GPU的软肋。
算力单位:PetaFLOPS(每秒千万亿次浮点运算)是衡量AI算力的常用单位。一张H100的峰值算力约2 PFLOPS,通常一台AI服务器里插上 8 张 H100,那么这台机器的总算力就大约是16 PFLOPS。训练一次GPT-4需要消耗大约2.15e25 FLOPS,换算下来大约是 21,500 PetaFLOPS·天。意思是,如果用一台算力为1 PFLOPS的机器去训练,需要不间断地跑 21,500 天(约 59 年);如果用那台16 PFLOPS的服务器,则需要1343 天(约 3.7 年)。——这就是为什么需要数万张芯片组成的超大规模集群,用并行计算来缩短训练时间。
第二层:模型——红海中的差异化
这一层是我花最多时间研究的,也是绝大多数AI创业者最纠结的地方。
通用模型:双雄并立,开源闭路各有所长。
| 国家 | 模型名称 | 开发商 | 定位/生态 |
|---|---|---|---|
| US | GPT-5.2 | OpenAI | 极致逻辑与语音交互,闭源 |
| US | Gemini 3 Pro | Google DeepMind | 全能型多模态Agent,100万Token上下文,闭源 |
| US | Claude Opus 4.5 | Anthropic | 长文档与代码安全专家,闭源 |
| CN | Qwen系列 | 阿里巴巴 | 全球开发者首选的开源模型,Hugging Face下载量已超越Llama,开源(Open-weight),并提供闭源的旗舰推理模型(如Qwen3-Max-Thinking) |
| CN | DeepSeek系列 | 深度求索 | 极致性价比与开源生态,OCR领域有独特创新,开源 |
| CN | 文心大模型5.0 | 百度 | 原生全模态架构,闭源 |
| CN | Kimi K2.5 | 月之暗面 | 高规低价“中式模型”,闭源 |
| CN | 豆包大模型2.0 | 字节跳动 | 多模态Agent模型,闭源 |
两个关键趋势:
- 开源力量的崛起:以阿里Qwen和DeepSeek为代表的中国开源模型,凭借极高的性价比和开放的策略,已经成为全球开发者的“首选底座”。在硅谷,使用开源技术栈的初创公司中,高达80%正在运行中国模型。
- 竞争焦点的转移:从“参数规模”到“Agent能力”与“多模态”。模型正在从“聊天助手”全面转型为能够处理实际工作的“智能体”。
垂类模型:通才与专家的不同路径
通用基座模型的预训练需要海量、多样化的语料(超级语料包,互联网级,数万亿Token),从零开始预训练,成本极高(千卡/万卡集群,如LLaMA 3用了1.6万多张H100,跑了54天)。
垂类模型的预训练则是拿到开源的通用基座模型,灌入垂直领域数据继续预训练(专业语料包,如千万级论文/专刊),成本可能只有前者的1/10甚至更少。
补充:在实际应用中,垂类模型的训练并不只有“预训练”这一条路。通常有三种路径,
- 完全从零预训练:成本极高,除非你有海量的独有数据和雄厚的资金,否则极少采用。
- 领域继续预训练:(上文提到的)这是打造深度专家模型的主流方式。
- 通用模型 + 微调:(这是更常见的低成本方案)如果只是想让模型理解特定业务(比如做一个客服机器人),甚至不需要做领域预训练。只需要拿一个现成的通用模型,用几千条高质量的“问题-答案”对进行“监督微调”,它就能很好地完成这个任务。
一个完整的模型成长路径:

预训练:自监督学习 + 反向传播。让模型学会“预测下一个词”,从海量数据中习得语法、知识和推理逻辑。成果是基础模型(满腹经纶但不懂世事)。
监督微调(SFT):用高质量的“问题-答案”对,教模型如何与人对话。成果是指令模型(学会遵循指令)。
基于人类反馈的强化学习(RLHF):让模型内化人类对“好坏”的判断标准。成果是对齐的模型(有用、无害、诚实的智能助手)。
推理:模型实际使用的过程,一个字一个字地生成回答。这是AI真正大规模落地的“下半场”。
大语言模型(LLM)是目前最常见、最成熟的一类基座模型。
第三层:应用——机会与陷阱
这一层离用户最近,也是最多创业者涌入的地方。
通用Agent:基本已经被大厂垄断。国内:豆包、千问、元宝、DeepSeek、Kimi等。国外:Gemini、ChatGPT、Claude等。Manus能成主要是因为时间早,春节前大厂还在加速“内嵌Agent”争夺流量入口,节后基本牌桌已关、不要入局。
垂直Agent(编程):Claude Code、Cursor,窗口收窄、门槛极高。
垂直Agent(金融/医疗/旅游等):金融/医疗头部玩家开始卡位,需深度行业know-how;携程Trip.com已内嵌产品生成旅行攻略等;剪映集成了Seedance 2.0。机会因人而异。
OpenClaw的启示:从“做Agent”转向“为Agent服务”,从SaaS转向AaaS(Agent as a Service)。OpenClaw是“系统级自主操作型Agent”,Cowork(及国产版如QoderWork)与其虽然有区别,但都预示着桌面Agent将是下一个超级入口。
具身智能:软硬件结合的赛道,正在分化。
小成本:情感陪伴类、成长型的毛绒玩具
大成本:家庭机器人(陪伴老人、打扫卫生、小孩教育)、机器人女友/男友、工厂搬运机器人等
代表玩家:波士顿动力(CES 2026上新一代Atlas人形机器人亮相并官宣量产)、宇树科技(春晚)、银河通用、魔法原子、松延动力、科大讯飞、新松机器人
值得关注:马斯克的Optimus人形机器人,2026年Q1将发布第三代,目标成本2万美元以内
第二部分:TripMeta原型为什么暂停了?
想复盘一个自己暂停的原型——TripMeta,因为它是我心中的白月光。
当初为TripMeta写商业计划书的时候,对它的定位是垂类模型应用,核心想解决旅游攻略生成的问题。但最终没有继续,原因值得记录:
核心竞争力问题
Tripmeta的核心竞争力应该是垂类模型。但实际开发中,我们用的是通用模型API,并没有自己训练垂类模型。
为什么不自己训练?(上文提到的)垂类模型的训练有三种路径:
-
完全从零预训练:成本极高,需要海量独有数据和雄厚资金
-
通用模型+灌入领域数据继续预训练:成本适中,但需要高质量领域数据
-
通用模型+微调:成本最低,用几千条“问题-答案”对即可
其实我们可以走第二种路径,但我们选了第三种,那么问题来了:如果只是微调,核心竞争力在哪里?通用模型厂商随时可以做同样的事。
获客问题
(上文提到的)旅游行业有机会,做小众深度游、非遗文化、中医体验,确实有市场。但问题在于:如何找到这群人?
如果通过内容营销获客,就意味着需要长期打造专业性内容,周期长、概率低。在冷启动阶段,这是致命的。
最后的结局
想清楚后,结论很明确:最后大概率会被通用大模型厂商或者行业大佬归零。不是因为他们做不出来,而是因为他们有流量、有数据、有场景,一旦他们做,我们没有任何壁垒。
第三部分:回顾
回到开头那三层楼:基础设施(芯片)、模型、应用。
每一层都有机会,但每一层的门槛和游戏规则完全不同。芯片层是巨头的游戏,模型层是开源的天下,应用层是精细化运营的战场。
我的选择在哪里,下篇继续。



哈哈哈,作为独立开发者(创业者),真的最终又会回到获客这个问题上。现在因为AI的接入,开发的门槛越来越低(起码表面上是这样的)。可是但凡不是玩票性质,深度思考大多数自己项目的时候,最终会回到你提到的“获客”,太有共鸣了。AI是相对新的赛道,但是获客渠道却已经是成体系的,要撕一条口子,远比开发来得的难得多。
很棒!共勉
AI是相对新的赛道,但是获客渠道却已经是成体系的,要撕一条口子,远比开发来得的难得多。--是的,这就是我想表达的,你要分清楚 哪些是新的 哪些已经是护城河;而且反过来,如果你已经站在巨轮上 也需要做这个(关于 获客 比如通过 卖课 打造个人IP ) 因为未来生产工具的变化 带来的变革 最不会受到影响的 是你的思维 就是你的 课程。
但我 本身 对 知识付费 接受度没有特别高(因为网上一堆 卖课 的 良莠不齐),如果是个人 小范围创业 我觉得 持续性地对自己的知识积累做内容整理和输出(build in public)还是很重要的,因为要让大家看到 才能纠偏和产生更多的商业价值,如果是个人想做大平台 影视飓风是个挺好的参考例子 迅速组建团队融资 才是方向,讲好故事就能融到钱,不一定要先有 MVP 有milestone,因为AI发展的速度 还是比 互联网 快太多。
嗯,我沉思了,现在就是一个萝卜一个坑 ,想入坑必须有占位符。 那如果自己挖坑呢?
我们可以聊下趋势吗?
我做市场架构
写的非常好👍,尤其是能对照自己的项目来复盘。
已三连,期待下篇:)
谢谢大灰鼓励和支持💪
不错,一切顺利吧
太宏大了,你列举的这些哪怕最小也是十亿级的生意。
电鸭草根们 能抓个十万的小稻草就能多活很久了。