周鸿祎近日出席2026崇礼论坛并发表主题演讲,围绕人工智能发展的关键趋势与实践路径展开深入阐述。
开场时,他以轻松诙谐的方式说道:“我这次来到太舞小镇,和大家的目的基本一致——主要是来滑雪的。另外还有一个多年未竟的小愿望:我滑了许多年雪,但技术始终平平,特别想掌握上下身分离这项核心技巧。”
在回顾人工智能演进历程时,他勾勒出一条清晰的发展轨迹:2024年是大模型竞相涌现的爆发之年;2025年则迈入智能体规模化构建的关键阶段,大模型逐步演化为具备自主规划与执行能力的智能体;进入2026年,全球智能体数量预计突破百亿量级。届时,在AI产业格局中,资产规模达百亿元的企业,已难称巨头,仅能归类为中等体量参与者。
他指出,早期大模型多停留于交互式问答层面,尚不具备承担真实业务的能力;唯有升级为可理解任务、调用工具、持续反馈并闭环执行的智能体,才能真正嵌入千行百业,实现价值落地。
针对业内普遍存在的理解偏差,他特别澄清了训练算力与推理算力的本质区别。训练算力门槛极高,集中于少数头部机构,属于资源密集型投入;而对绝大多数用户与企业而言,实际高频使用的是推理算力。二者消耗量级相差巨大:日常与大模型对话,即便每日输入两万字文本,每月token用量也仅数万;但若驱动一个智能体完成一部短剧创作,或组织一场专业领域的深度授课,所需推理算力往往高达百万乃至千万token级别。
他还强调,当前一种典型误判在于,将大模型研发与芯片制造等同于AI发展的全部重心。技术底座固然重要,但要让AI真正扎根企业、服务产业,核心在于构建面向垂直场景的智能体。这一过程的主导者,并非算法工程师,而是深耕一线的业务专家与行业实践者。
他解释道,每一家企业内部都沉淀着大量难以显性化表达的知识资产——包括岗位特有的能力要求、流程中的隐性规则、客户交互的独特话术,以及管理者凭经验形成的判断逻辑。这些内容往往深植于资深员工的记忆中,部分甚至构成企业的核心技术壁垒。若将其直接用于通用大模型训练,极易引发知识外泄风险;而用于训练专属智能体,则既能保障数据安全,又能精准释放业务价值。
在他看来,率先将这类隐性知识系统化转化为智能体的学习语料,正是把握本轮AI发展红利的关键入口。

评论
更多评论