昨天,我和一位刚拿了非常大规模融资、正在做 AI 游戏的朋友聊了很久。那种谈话并不是信息密度特别高的那种技术交流,更像是两个已经深度身处这个行业里的人,对同一个时代节奏产生的共同震荡。
最强烈的感受,其实只有一个: AI 的发展速度,已经开始明显超出我们作为从业者的认知边界。
01
如果把时间拨回一年多以前,AI 仍然处在一个“几个月一个爆款”的节奏里。我们会在一次模型发布、一次产品突破之后,集体惊叹一下技术进展有多快,然后再回到原本的工作节奏中。
但从 2026 年开始,这种节奏被彻底打碎了。
现在的状态更接近于:几乎每一周,都会出现一次足以改变产品形态、改变工作方式、甚至改变认知框架的更新。不是小功能,不是参数优化,而是可以实实在在重构生产流程的能力跃迁。
过去一两周,我自己几乎是以一种不太健康的方式在跟进这些变化。平均每天睡四个小时左右,除了必须处理的工作和生活事务之外,大量时间都用来阅读最新的模型进展、产品发布和研究动态。即便如此,我仍然只能很勉强地告诉自己:大概跟上了。但如果严格一点说,其实已经开始掉队。
而真正让我意识到这种变化对现实世界冲击有多强烈的,是我那位朋友的状态。
他现在管理着接近四十人的团队,方向非常明确,就是做 AI 驱动的游戏产品。从融资规模、人员配置和组织成熟度来看,这已经是一家相当健康的创业公司。AI 的确极大地提升了他们的生产效率。很多原本需要四五个人协作完成的模块,现在一个工程师就可以在极短时间内交付。
从表面看,这反而意味着团队不再需要继续扩张研发规模。
但现实恰恰相反。他的焦虑感,比我更强。
原因很简单。AI 的更新节奏已经快到这样一个程度:每一次模型能力的跃迁,都会直接影响产品设计方式、系统架构、玩法设计乃至商业假设本身。更重要的是,他是管理者,而不是一线研究人员。他并没有足够的时间与精力,去系统性地追踪每一条技术路线、每一个新模型的能力边界。
所以他已经开始非常认真地考虑一个在几年前听起来极其奢侈、甚至有些“脱离业务”的配置——专门招聘几名只负责跟进 AI 前沿研究的人,而不是直接参与产品开发。
他们的唯一任务,就是确保公司在认知层面不被时代甩下。
这一点对我触动很大。因为这意味着,在 AI 高速演化的阶段里,“认知更新能力”本身,正在变成一种稀缺资源。
02
在交流中,我们也谈到了国内 AI 公司的整体格局,并且非常自然地形成了一个高度一致的判断:在中国的 AI 企业中,最有可能率先进入第一梯队,甚至在某些方向上形成引领效应的,很大概率会出现在字节体系。
这个判断并不来自于对某个模型参数的对比,而是更偏现实和组织层面的判断。
第一,团队整体的执行效率与工程能力极强,与许多传统大厂已经不在同一个效率维度上。
第二,决策层对新技术的投入意愿和进取心非常强。
第三,也是最容易被低估、但在 AI 时代极其关键的一点,是其所掌握的数据规模和数据多样性。
更重要的,其实是产品路线。
相比很多团队仍然高度聚焦在“模型智力天花板”这一单一目标上,字节系的核心产品明显选择了一条更加面向大众使用场景、更加强调普及率和真实使用频次的路线,而不是单纯追求能力榜单的领先。
从用户规模与活跃度的角度看,这条路线已经开始形成非常明显的优势。至少在国内市场,豆包面向普通用户的 AI 产品渗透率,很可能已经处在绝对领先的位置,甚至在活跃用户规模上,我个人判断很可能已经超过了 ChatGPT。
从商业视角出发,我们进一步讨论了一个更根本的问题:AI 到目前为止,究竟有没有创造出真正意义上的新商业模式?
我们的结论,其实非常克制。
到今天为止,AI 本身并没有带来超越互联网范式的新商业结构。它更多带来的,是对原有业务体系的一次彻底重构。
尤其是在互联网行业中,这种重构显得尤为合理。传统业务普遍存在流程复杂、系统割裂、组织冗余的问题,而 AI 提供了一种极为直接、且具有规模效应的降本增效手段。
在这种背景下,真正能够最大化享受 AI 红利的,并不是那些从零开始的新公司,而是本身已经拥有成熟商业模型、稳定用户入口和完整生态体系的科技巨头。
这也是为什么无论是阿里将通义千问深度接入自身业务体系,还是谷歌将 Gemini 融入其全家桶生态,在商业逻辑上都显得极其合理。它们并不需要重建一套新的商业模式,只需要让 AI 大幅提升现有体系的效率与竞争力。
对这些公司而言,AI 更像是一种“超级效率引擎”,而不是一场模式革命。
03
但如果从创业者的角度来看,AI 依然是一场前所未有的机会。
原因也非常直接。生产力结构发生了根本改变。
过去需要一百人规模团队才能完成的事情,现在十个人就可以完成。再往前推,很可能一个人就可以构建出完整的产品原型、系统架构乃至早期商业闭环。这意味着创新的门槛正在被大幅拉低,试错成本急剧下降,产品迭代速度呈现出指数级提升。
但在这种极大解放生产力的背后,其实隐藏着一个非常容易被忽视、甚至被刻意回避的问题:好项目的数量,会发生爆炸。
过去,全世界每天真正值得被认真关注的创业项目,其实并不多。资源、技术和组织能力本身构成了天然筛选器。而在 AI 的加持下,这个筛选器正在快速失效。每天可能会出现几十个、上百个,甚至上千个完成度极高的产品原型。
这会对传统投融资体系形成极大的冲击。
我很难想象,在高质量项目数量成倍增长的情况下,传统 VC 依赖人工判断、长期尽调、深度陪跑的决策模式,如何维持原有的效率与回报结构。
进一步推演,我们甚至开始设想一个更激进的场景:当几乎人人都可以构建自己的产品之后,AI 产品本身可能会逐渐演化为一种新的注意力经济市场形态,类似于今天的 Meme 生态。
但两者存在一个关键差异。未来的 AI 产品是真正可用的,并且可能在极短时间内完成商业闭环。也就是说,一个 AI 产品很可能在几周之内,就完成整个生命周期所需的收入积累。
在这种高度短周期、高并发创业形态之下,融资与退出反而会成为最大的摩擦成本。正因如此,我们甚至认真讨论了一个此前看起来非常激进的判断:未来部分 AI 项目的投融资过程,很可能会更多通过 Crypto 体系来完成。
原因并不复杂,从纯粹经济效率的角度看,它可能是目前我们所能看到的、最接近极致资本流动效率的基础设施。
在讨论完产业结构和创业形态之后,我们回到了一个更底层的问题:现在的大模型,距离真正意义上的 AGI,到底还有多远?
我们的判断非常直接。从“聪明程度”本身来看,当前主流模型已经非常接近我们对通用智能的直觉预期。
真正可能引发下一次质变的,并不完全来自模型规模本身,而更可能来自两个方向。
第一,是权限与长期记忆。
当一个 AI 拥有极高系统权限,能够接管个人设备、账户系统和行为数据,并且具备长期记忆能力,能够持续学习和理解一个人的偏好、习惯和决策模式时,它的能力将不再只是“问答工具”,而会转化为真正意义上的个人智能中枢。
第二,是高质量、实时且高度专业的数据源接入。
这一点,我自己有非常具体的经验。
在一个多月前《阿凡达》讨论度最高的时候,我分别向多个主流模型(豆包、ChatGPT、grok、Gemini)询问当下最新的国内外票房数据和市场表现情况。结果非常有意思。只有豆包给出了非常准确且更新及时的数据,其它模型大多只是基于通用谷歌搜索结果,抓取了一些已经明显滞后的新闻报道。
根本原因并不在模型能力本身,而在数据源结构。通用搜索本质上只能提供低频更新的公开信息,而真正高质量的数据,来自于高度专业化的数据服务体系。
这件事背后的意义其实非常重要。未来,大模型公司与专业数据公司之间的深度合作,很可能会形成一条极其关键却不容易被公众察觉的护城河。当用户在高度专业问题上持续获得准确、实时且可信的数据反馈时,体感上的智能水平会出现显著跃迁,即使模型本身并没有发生颠覆式变化。
从用户体验角度看,这种跃迁甚至比单纯的推理能力提升更加直观。
04
当然,我们还聊了很多更细节的内容,其中一部分涉及他公司的具体战略和内部布局,我并不适合展开。但有一个结论,我们几乎完全一致。
未来五到十年,很可能会成为人类历史上变革幅度最大的一段时期。
不是局部行业变化,而是社会运行方式、生产结构与个人能力结构的系统性重构。
我们都非常焦虑。但同时,也都感到非常幸运。
能够身处这样一个剧烈变化的时代,本身就是一次难得的机会。
真正危险的,并不是失败,而是对稳定的错觉。
我越来越坚定地认为,所有相信自己的职业路径、能力结构和行业位置已经稳固的人,未来大概率都会为这种判断付出代价。
在这个时代,我更愿意把自己定位为一个“投机分子”。
不是投机资产,而是投机方向。
当趋势发生变化时,能够迅速调整认知结构;当底层逻辑发生迁移时,愿意推翻已有路径,重新构建自己。
不是赌一次成功,而是尽可能保证自己,始终站在变化之中。

