AI

2026年人工智能产业发展趋势如何?这里有30条未来预测(1)

1.定义:“默认式AI(Default AI)”

1.1概念定义:默认式AI(Default AI)

图片

这个底层逻辑是什么?

甲子光年将其定义为:默认式AI。

“默认式AI”(Default AI):无需用户主动选择或感知,默认存在、默认开启的人工智能形态。

——甲子光年

经历了数年的爆发与重构,AI从“技术的奇观”成为了“默认的存在”。它不再是实验室里的惊叹,而是社会的结构,是经济系统的沉默底层。它不是“被使用的AI”,而是“自然而然存在的AI”。

1.2默认即智能:智能成为常态,AI走向日用而不觉

图片

2023年我们感受到的AI是惊讶、尝鲜;2024年我们感受到的AI是商业的拷问;2025年我们感受到的AI是一种“默认”——默认即智能:智能成为常态,AI走向日用而不觉。

如果我们打开一个网页,没有AI,你会觉得很奇怪;如果你的一位朋友没有使用过AI,你会觉得很反常。

数据显示:超过一半的美国成年人(61%)在过去六个月中使用过人工智能,近五分之一的人每天都依赖人工智能。

1.3默认式AI特征:关闭才是例外,不用才是例外,不会才是例外

图片

“默认式AI”具有三大特征:

1.非选择性(Non-optional):用户不再“决定是否使用AI”,而是在日常操作中自动与AI交互。例如:输入框默认AI补全、相机默认AI识别、搜索结果默认AI重写。
2.低感知(Invisible):AI的参与被隐形化和底层化,用户甚至不察觉AI在起作用。例如:iPhone照片自动分类、邮件的智能排序、文档自动摘要。
3.系统绑定(System-integrated):AI不以独立应用的形式存在,而是嵌入操作系统、平台或设备的基础层。例如:Windows Copilot、Apple Intelligence。

1.4AI社会化三阶段:工具式AI→伴随式AI→默认式AI

图片

默认式AI(Default AI)是人工智能社会化演进的第三阶段。

阶段1:工具式AI(Tool AI)——AI是“被使用的能力”,强调“我在用AI”。

阶段2:伴随式AI(Assistive AI)——AI是“共同工作的伙伴”,强调“AI在帮我”。

阶段3:默认式AI(Default AI)——AI是“世界的底层逻辑”,强调“AI就在那儿”。

当一项技术成为“默认式”的,意味着它已经深度嵌入社会结构,具备了不可逆性——即使后续技术路线更迭,甚至经历商业泡沫,但这个时代依然开启了——就像互联网曲曲折折,也经历过互联网泡沫,但互联网时代依然不可逆地继续推进着。

今天来看,AI也进入了这样一个时代。它从“被使用”变为“被预设”,成为了所有人的战略前置。刚才所说,“轰然成势,万象归一”,而“默认式AI”,正是这个“一”的内涵。

接下来,我们看具体的判断。

2.2026年全球人工智能发展趋势30条判断

2.1技术趋势

【判断1】“智能基线”的提升:仍是AI本质驱动力,AI正在九个维度变得更强

图片

2025年,可能很多人有一种直观感觉,业界议题大比例地聊AI应用、AI落地,但第一个判断首先我们还是想强调一点——智能本身的提升。

智能的基线决定了“AI能做到什么”。没有更强的推理、记忆、理解能力,Agent只是更精巧的流程图。所以,我们依然需要“更高一级的智能”。

OECD(经合组织)在2025年发布了AI能力指标:用九个维度描述了当前AI的能力进阶,包括语言能力,社会互动能力,问题解决能力,创造力,元认知与批判性思维,知识、学习与记忆能力,视觉能力,操作能力以及机器人智能。这些维度共同定义了“智能本身”的基线。

如图所示,2025年,围绕这些维度,各个前沿模型不仅没有停滞迭代,还在强劲地进步,且竞争比任何时候都更加激烈——智能这件事本身还远未到天花板。

【判断2】Beyond Transformer:“架构级”探索仍在继续,但仍未撼动Transformer地位

图片

在大模型研发的最核心层——架构层,仍然存在关键变量。

Transformer依旧是当下的绝对主流:几乎所有最强通用模型仍基于Transformer或其变体。但随着应用规模放大,它的短板也被放大:比如算力成本、推理效率和存储瓶颈

为解决这些问题,人们在不同的路径上探索:一方面,Transformer路线本身在持续进化,另一方面,非Transformer架构也在同步发展。如今,两条路线也正在融合,走向混合架构。

路线分化的内在逻辑是,Transformer路线更多追求的是“智能的上限”,非Transformer路线追求的是“智能的效率”——在提供同等性能的同时,把计算复杂度降低为线性复杂度,在可承受成本内把智能铺到更多场景和终端。两条路线正对应甲子光年智库之前提及的AI的“进击”和“普惠”两个方向。

例如,RockAI为非Transformer国产化的表率,率先推出中国自主架构大模型,且在PC、平板、机器人、树莓派等终端上率先落地。RockAI以“让世界上每一台设备拥有自己的智能”为使命,于2024年1月发布国内首个非Transformer架构大模型Yan 1.0,2025年7月发布全球首个拥有原生记忆力的大模型Yan 2.0 Preview。

2025年,AI模型架构正在“Beyond Transformer”,但尚未“After Transformer”,transformer仍未被“机制级”颠覆。但最值得期待的创新,恰恰是跳出路径依赖、改写规则的创新——如果“After Transformer”最终形成,它可能已经在今天展现出了雏形。

【判断3】智能与智能体互相锻造:智能赋予行动以可能,行动回馈智能以演化

图片

智能(intelligence)与智能体(agent),绝不仅仅是“大脑+行动”的简单分工,更好的比喻是“生成器”与“校验器”——它们互为条件、互相锻造,在递归循环中共同走向更高阶的复杂性与通用性。

第一,基模的智能,直接决定智能体的上限与可靠性。

有了智能,agent才获得“想象能力”——比如“如果我在状态s采取动作a,期望回报会是什么”,这让智能体能在多个备选动作之间做权衡,可能性空间因此被打开,这正是目标导向和自主性的根源。

第二,智能体又反过来锻造智能本身。

基础模型的优化,并不是关起门来训练,而是不断从智能体与环境的交互中形成“任务执行→行为结果→数据回流→基模迭代→能力跃迁”的正循环。

智能体构成“外环”,智能是“内环”。外环的实践不仅修正自己的动作,还能回灌到智能系统,修正内环的规则本身。我们不能低估了这种“回灌”——科学史上的实验反常倒逼理论革命就是这条回路的体现。

第三,多智能体协作,提供了“智能体反哺智能”的一个视角。

来自清华的一项研究观察到了“协作缩放定律”:大模型不只是“单体变大”可以遵循scaling law,“多智能体的协作”本身也有一条scaling law——当多智能体通过特定结构协作,其集体表现可以超越个体性能总和,随着智能体数量增加,解决方案的质量以“S型曲线”提升,这进一步说明智能体对智能形成反哺。

【判断4】智能体与世界模型“同源同宗”:当智能体足够强,世界模型就出来了

图片

接下来分享一个很有意思的观点:长期以来,世界模型是否是实现AGI的必需条件,一直存在争论。

而在一篇ICML2025的论文里,DeepMind的科学家们表示:任何能泛化完成复杂任务的智能体,它的策略里一定已经学习了其环境的预测模型(即世界模型),而我们甚至可以通过观察智能体的行为来提取这个模型,且智能体的性能越高,其内部世界模型就必须越准确。

论文中有句原话:“通用代理就是世界模型,模拟环境所需的所有信息都编码在其策略中。”

论文用数学证明了一个核心直觉:如果智能体真的懂“怎么做”,那它必须懂“世界会怎样变化”——策略能力与世界模型知识在数学上等价。想成为聪明的智能体,就得在脑子里“重建世界”。

这让人们回想起2023年3月,OpenAI联合创始人Ilya提出了一个深刻的论断:大型神经网络的功能远不止预测下一个单词,它实际上是在学习“世界模型”。

我们可以做一个比喻:把一位顶级武林宗师看作“智能体”,他脑中对江湖格局与招式后果的快速推演就是“世界模型”。一个强大的智能体,必须能够理解其行动在环境中的后果——这种“理解”的本质,是一个关于环境如何运作的模拟,也就是世界模型。

所以,智能体与世界模型同源同宗,换句话说:行动即建模。

【判断5】AI记忆突破:从“能记住”到“会回忆、敢遗忘”

图片

如今,大模型正在从生成工具演化为具有长期交互能力的智能体,这对“记忆能力”提出了更高的要求——只有记忆突破,AI才能“持续陪伴”,这是增加用户黏性的必然。

然而,如何提升AI的记忆能力?这是一个值得深思的命题。

哲学家博尔赫斯有一篇短篇小说《博闻强记的富内斯》:

主角在坠马重伤后意外获得了无法遗忘的超凡记忆力。他记得每一粒玉米的纹理、每一次呼吸的湿度,但却无法抽象出“玉米”、“呼吸”的概念,他陷入无穷的细节中,最终失去了思考能力——“无限记忆”反而造成了“认知灾难”。

这个故事启发我们反思:什么是好的记忆?

过去几年,业界在追求“更长的上下文窗口”。

这种方法很像一个极度用功的学生:在阅读长文章时,他把每个单词、每个标点都仔细抄进笔记本,但随着笔记本越来越厚——要查找、比对每一页的内容都变得缓慢而吃力。这让记忆变成了“甜蜜的负担”

AI记忆的难题体现在三个维度:“准确-实时-经济”。

  • 准确:看似要追求信息的完整,但当信息过多时,模型反而会lost in the middle,多余的信息不是中性的,是有害的;
  • 实时:看似要求记忆即时更新,但如果每次对话都立刻写入记忆库,就像“边开车边修车”,反而会造成严重延迟;
  • 经济:看似要求控制计算与存储成本,但过度节省又会牺牲信息质量。

越来越多人意识到,通往高级记忆的路径,并非简单的“扩容”。于是,业界开始更重视长期记忆、外部化记忆等其他方法。各式解决方案基本指向了同一个方向——“聪明的选择”比“全面的记忆”更重要。

比如浙江大学团队推出的LightMem系统,带来了三个反直觉的启发:

第一个反直觉:过滤——压缩掉50%的信息,准确率不降反升;

第二个反直觉:分层——不按人工规则切段,让主题自己“长出来”,效果更好;

第三个反直觉:异步——延迟更新比实时更新更准确,更快。

所以,他们让AI学会“遗忘”——准确说,是让模型学会像人脑一样,优雅地过滤、分层、异步处理记忆。

2025年是AI记忆突破的关键年份,AI的“记忆”完成了从“能记住”到“会回忆、敢遗忘”的跨越。企业也纷纷加大相关投入。

比如红熊AI认为“记忆不是存储,而是重建”。其自主研发“记忆科学”平台,解析多模态对话记录,采用增量式图谱重构技术,在原有记忆体系上动态新增或重建关联节点,实现非冗余存储与图结构优化,达到97%的多模态记忆精准采集,92%的记忆机制模型预测准确率。

记忆方法的迭代,更新了AI设计的哲学。真正的智能,不在于记住一切,而在于知道什么值得记住。

当然,AI记忆的考验才刚刚开始:如何在记住与遗忘之间找到平衡点,既不让用户因被遗忘而失望,也不因被牢记而恐惧。优雅的解决方案本质都是取舍的艺术。对于AI记忆来讲,尤其如此。

【判断6】下半场开启:“AI胜负手”从“训练更强”走向“定义更好”

图片

今年有一篇文章引起了广泛关注,OpenAI研究员姚顺雨的《AI的下半场》。

他讲到,我们正站在AI发展的中场分界线上。

上半场的核心竞争力是新模型与训练方法

转折点来自强化学习(RL)的通用化,这让我们有了一个泛化的、通用的方法。

强化学习包含三大要素:算法、环境、先验知识。同时,我们有了一套“通用配方”:海量语言预训练、数据/算力规模、推理与行动机制。

语言内化的海量先验知识,使推理成为可能,这正是实现高级泛化的关键。这之后,AI不再是靠穷举试错来学习,而是可以像人一样,根据基本原理和常识,来应对新任务。

“强化学习+这套配方”的组合跑通了,攻克基准就变成了一件可复制、可规模化的事情。此后,针对特定任务的新方法可能仅提升5%,而下一代通用模型不专门优化就可能提升30%。再设计更难的基准,也会被迅速攻克,而且刷榜节奏只会越来越快。一旦你可以定义一个考试,离它被解决也不远了。

于是,我们来到了下半场:我们从“解题人”变成了“出题人”。我们不再只问“能否训练模型解决X”,更要追问“该让AI解决什么?如何衡量实质进步?”

换言之,AI的“胜负手”正在从“训练更强”转向“定义更好”。

当然,下半场的开启并不意味着上半场的结束,更准确的表达是:上半场的游戏仍在继续,下半场已经开启。

【判断7】大模型开启“性价比”叙事:从“堆规模”到“挤水分”,“每单位智能成本”成为赛道新基准

图片

AI的发展,每一年都有核心叙事。2025年,一个核心的叙事是大模型的性价比

2025年以前,AI界盛行着一种信念:只有巨额投入和疯狂堆算力才能打造最强大的模型。2025年开年,DeepSeek R1打破了“砸钱堆料”的路径依赖,如同一块投入湖面的石子,激起了层层涟漪,把“性价比”推到了牌面中央。

从训练角度看,从DeepSeek开始,行业出现两极分化。

向上看冲击能力前沿的训练越来越贵:前沿模型的训练成本以2-3倍/年的速度攀升,一次训练可能就要花掉上亿美元,照这个趋势推算,2027年前后就会出现“单次训练成本超十亿美元”的模型

向下看复刻既有能力的成本在被快速打穿:2025年,DeepSeek把R1的强化学习训练阶段压到29.4万美元,连同底座一共大约600万美元

冲前沿越来越贵,复刻同代能力越来越便宜。两条轨道同步扩张,形成明显的“哑铃型”结构。

从推理角度看,近年来,在同等能力水平上,LLM推理的“单位智能价格”正在快速坍塌,在各类基准性能下,价格每年下降9倍到900倍不等,且价格下降在2024年后明显加速。

训练成本决定了模型能否被经济地创造出来;推理成本决定了模型能否大规模商用。在“性价比”的新叙事下,二者被统一到了一个更高的目标之下:总成本和商业回报的最大化。

如今,业界譬如DeepSeek-OCR等各类进展也在推动性价比的进一步提升。

最危险的对手,不是那个跟你拼烧钱的人,而是那个证明根本不需要烧那么多钱的人。真正的比赛,落在“每一单位智能的成本”上。

【判断8】算力迭代:非GPU技术推动AI芯片架构革命

图片

过去,AI芯片市场GPU一家独大,但如今算力格局正在被改写,非GPU已经开始成为AI芯片新宠,这里尤其以TPU和可重构芯片为代表。前阵子发布的Google TPU v7更是引发了关注。此外,很多初创企业也在非GPU路线探索。

GPU虽然强大,但在推理速度、能耗、算力成本方面都存在问题,这些维度都是非GPU技术的潜在优势。此外,范式多样性本身就是创新的前提。

从市场份额来看,2025年上半年,我国非GPU加速服务器市场占比30%,而2029年其市场份额可能达到半壁江山。

值得注意的是,北京市构建的自主可控AI“芯片矩阵”,有四家明星企业,其中有三家都是非GPU。

比如,清微智能是国内研发“非GPU”新型架构AI芯片的代表企业。其研发的可重构AI芯片在保留GPU通用性的同时,通过算子的动态重构,趋近TPU等专用AI芯片的能效优势,也被称为“通用型TPU”。

【判断9】AI打破“分科”壁垒:从“Science+AI”走向“AI+Science”,AI在跨领域寻找答案

图片

当我们谈通用时,对立面往往是垂直。然而,当我们谈“垂直”时,意味着一种局限性思维——AI与人类切割“垂直”的方式本身就是不一样的。

自然科学横跨物理、化学、生物、材料等多个重要领域。在长期发展中,各领域形成了不同的数据表达方式和研究方法,但也导致了“知识的孤岛”,当我们硬生生给AI去“分科”,可能恰恰错失了一些可能性。

AI的思维模式是“跨领域求解”,而非“分科而治”。

第一,AI的知识是网络化的:大模型的知识本质上是将所有信息视为一个巨大的关联网络。对它而言,一个医疗问题和一个机器人控制问题,可能只是网络中被某条路径连接的两个节点;

第二,问题的本质是相通的:很多看似分属不同领域的问题,在底层可能共享相同的逻辑。AI没有先入为主的“学科”概念,更没有路径依赖。

这意味着AI科研范式可以有一种完全不同的视角:从“Science+AI”走向“AI+Science”。

后者不是把AI当作工具,而是把AI当作科学的“新主体”,以AI为核心重新布局整个科研流程。

从实践来看,研究者正在积极基于此理念构建“科学基座大模型”。

譬如,微软研究院开发了一个跨学科的科学基础模型NatureLM。其核心思想是:我们可以将小分子、蛋白质、材料、DNA/RNA等都看作是某种“序列语言”,构建一个统一的模型,来帮助科学家进行跨领域的研究。

研究人员训练了三个不同参数大小的版本,并看到了“规模法则”——论文评估了22个任务类别,其中有18个任务随着模型规模的增加表现出明显提升。这展现了大型基础模型在科学发现中的潜力。

AI的真正潜力,恰恰在于其能够打破人类的知识框架,在看似不相关的领域之间建立连接,从而产生原创性的解决方案。

【判断10】原生多模态:从拼接方案走向“原生统一”,是走向AGI的必由之路

图片

刚才的AI+Science体现了一种不同学科“原生统一”的思想,我们承接这一点,聊一聊“原生多模态”

我们正在从“拼接多模态”走向“原生多模态”,这种转变是AI对世界理解方式的一次深刻升级。

拼接模式就像是一个“翻译团队”:视觉编码器负责“看图说话”,语音模型负责“听写转文字”,再由语言模型进行理解。任何一环的“误译”都会导致偏差。

原生多模态大模型则更像一个“通才”,在训练阶段就进行跨模态统一表示,让“看、听、说、想”在同一语义空间中协同涌现,这能更深入地挖掘不同模态数据间的潜在联系,也带来了更高的效率、更低的延迟。

以大型多模态推理模型路线来看,可以分为四个阶段,感知驱动模块化推理、语言中心短推理、语言中心长推理、原生多模态推理。原生多模态是大势所趋。

2025年,我们看到了一系列显著的进展——“原生多模态”成为了领先模型的“默认配置”。

真实世界本质是跨模态信号流。原生多模态不仅是当前技术发展的明确方向,更是走向AGI的必由之路。

【判断11】具身智能大模型:架构并未收敛,虽然端到端VLA火爆,但尚未形成具身版本的“Transformer”

图片

如果说,Transfomer这样的统一架构,最终催生了ChatGPT等旗舰产品,那么现在具身智能还没形成自己的“Transfomer”。目前具身智能赛道,软硬件皆没有收敛,模型层面有端到端VLA模型、分层模型以及世界模型等,并没有进入“一个大模型打天下”的局面。

首先,从每年推出的VLA模型与数据集看,VLA的热度快速上升,2025年尤其如此。

其中,端到端VLA是“舞台效应”最强的,也是资本热度最火爆的。“一套权重看图听话直接出动作”的思路最抓眼球,也最符合第一性原理。

但量产与落地的主流仍是大小脑分层方案。VLA是“技术天花板”最被追捧的路线,却未到“市占天花板”——风口在端到端,交付靠分层。

2025年行业实相是“分层+端到端VLA+世界模型”三主线并行:端到端VLA负责旗舰Demo与科研;分层承担量产主力;世界模型还处于早期验证。

这反映了具身智能的复杂性,即单一方案难以解决从高层认知到物理交互的全部挑战。因此,行业必须通过多方协作,共同推动技术进步和标准制定,才能加速具身智能的落地。

2.2产品趋势

【判断12】AI即系统:AI正在“操作系统化”,成为第一调度实体

图片

我们开篇讲到,我们已经进入“默认式AI”时代,其中一个重要体现是,AI正在“操作系统化”。

回顾历史,OS本身经历了三个阶段的进阶。从PC时代的Windows、macOS,到移动时代的Android、iOS,再到今天的AI OS。

当Windows在90年代悄然成为个人电脑的默认界面时,很少有人想到,它会定义此后数十年的个人计算;当iOS带着App Store亮相时,整个移动互联网生态因此解锁。AI OS也将扮演类似角色。每一代操作系统的迭代,都伴随着硬件形态、交互方式、信息内容等多个维度的变迁。

AI成为OS,意味着AI将成为“第一调度实体”:负责资源调度、任务编排、流程优化。

举个例子,浩鲸科技推出企业AI操作系统鲸智百应,旨在让企业真正实现从“使用AI”到“本身就是AI”的转变,依托Data Cloud的企业数据建模与洞察能力、Function Cloud的全域功能调度与协同能力,以决策、流程、知识、记忆、插件五大引擎构建智能底座,驱动AI从“外挂工具”变为组织“原生能力”。

【判断13】“无头商业”崛起:AI正在成为所有软件的默认能力

图片

刚才我们说了操作系统,现在说一说“默认式AI”时代的软件,尤其是SaaS的变化。

甲子光年智库曾经提到一个概念叫“AI的主语化”,这个概念对SaaS出现了明显的逻辑替代。

首先,主语让渡:AI是中枢,SaaS变组件。

SaaS是面向人的,而未来很多流程是面向AI的。人需要“界面化”的操作,AI完全不需要这些,它更喜欢API和数据流,它可以通过调用接口完成整个业务链路。

以前,人是流程枢纽,SaaS是工具;现在,AI是流程枢纽,SaaS变成了“能力组件”。

举个例子:过去,发票的填写、审核、归档,人需要在不同系统里录入、校验、提交;未来,你不再需要打开一个个CRM、ERP、OA页面,而是直接说“帮我审核一下发票”,Agent直接将各个能力组件串起来,中间几乎不需要人介入。

其次,功能解耦:SaaS退居幕后,从完整套件向API/微服务转变。

今天的SaaS系统往往是一个完整的套件,功能繁杂,前端笨重。但未来,它们会被拆解成一个个API或微服务。

这意味着单体系统解耦为功能集群。例如,CRM不再是一个大而全的客户关系系统,而是一个“客户数据查询API”。

最终,员工可能只需要面对一个统一的智能体,类似一个“超级前台”背后有一群“数字同事”。你只需要跟它说需求,它会自己决定调用哪个系统和接口。这时,SaaS在用户眼里消失了。

这意味着“无头商业”的崛起。最终,这会导致IT公司的竞争逻辑变化:

  • 赢家:谁更能开放API、融入智能体生态,谁就有机会成为AI时代的基础设施;
  • 输家:谁仍然依赖复杂的页面操作和封闭的功能套件,谁就可能被AI绕过,逐渐边缘化。

未来AI与AI之间的交互(A2A)将超过人与AI的交互(H2A)。未来的竞争不再是“谁的功能更多”,而是“谁更能让AI调用”。

【判断14】AI交互的静默革命:从“聊天框”到“无形代理”,界面逐渐消失

图片

过去一年,AI交互方式正在剧烈变革。2024甲子引力×AI创生时代里,我讲了一个观点:“Prompt只是阶段性产物,最好的UI是忘记UI。”今天可以就这个话题进一步说一说。

甲子光年认为:AI交互方式会经历四个阶段的变革。

  • 操作界面交互:用户通过GUI、键盘、鼠标输入明确指令,AI被动响应。
  • 自然语言交互:通过聊天框,用户模糊表达需求,AI通过追问澄清。
  • 代理结果交互:以目标为导向,AI代理主动识别用户需求、执行并交付结果。
  • 物理AI交互:以增强现实(AR)、虚拟现实(VR)和脑机接口(BCI)等新兴技术将人机交互彻底改写。

首先,从“操作界面”到“聊天框”。

曾经“图形界面+键盘鼠标”让计算机可视化。而目前,聊天框几乎已经取而代之。

进一步,从“聊天框”到“无形代理”。

传统聊天机器人式的交互正在被更自主的Agent取代。在这个过程中,AI越来越不再需要“聊天”。将AI等同于“更聪明的聊天机器人”就如同将互联网定义为“更快的传真机”——它局限了技术的本质。

未来的AI界面将逐步缩小甚至隐形。最好的界面,可能恰恰是正在消失的界面。

再进一步,随着物理AI各类新载体出现,AI与人的交互方式将进一步被改写甚至颠覆。

【判断15】Agent泛化方式:改造“车”来适应所有“路”

图片

伴随Agent的崛起,一个问题有意思:Agent与环境的关系,是前者去适配后者,还是后者去适配前者?

如果把Agent比喻成车,把所有环境里涉及的工具、能力等等比作路,这个问题就变成了:你是想改造你的车让它适应所有路,还是改造所有路让它适应现在的车?

我们的观点很明确,是前者。

这里面一个本质的思考是“通用”的来源:我们畅想的终极Agent,是像人类一样,仅凭自然语言和常识就能完成各类任务。如果“通用”是目标,那“泛化”就是唯一路径。

首先,“新路无穷”:在开放世界(网页、桌面应用、代码库、机器人操控)里,环境千差万别、实时迭代,你必须接受全部复杂性,只能提升Agent的泛化与鲁棒性来适配之。

其次,目前各类基准设计与数据,基本都把适配环境当“一等公民”来考。

最后,从感知泛化到策略泛化,再到行为泛化,以DQN、AlphaZero到RLHF为代表的一系列强化学习进展,让“尽量少改路、多改车”变得可行。

了解更多详情:FindAI发现力量findpowerai.com

扫码添加小助手,获取企业销售增长专属方案

企微