如果说LLMs是“人类智慧”,那么AI Agent就是“使用火燧”,引领人类文明进入下一个时代。
2024年,AI Agent称得上最火热的概念。一方面,大模型赛道降温,并呈现出赢家通吃的局面;另一方面,AI Agent则是大模型应用落地的最佳形式,其能够解决LLMs在具体应用场景中的局限性。
那么,当前AI Agent采用现状如何?哪些领域会率先冲出来?
我们结合两份重量级报告——LangChain发布的State of AI Agents,以及Langbase发布的2024 State of AI Agents进行梳理,试着寻找AI Agent在开发、采用过程中的关键问题。
LangChain调查了1300多位专业人士,职业包括工程师、产品经理、业务领导和高管;行业分布:科技(60%)、金融服务(11%)、医疗保健(6%)、教育(5%)、消费品(4%)。报告链接https://www.langchain.com/stateofaiagents
Langbase调查了3400多位专业人士(100多个国家),职业包括C级高管(46%)、工程师(26%)、客户支持(17%)、MKT(8%)。报告链接https://langbase.com/state-of-ai-agents
具体内容如下:
1、谁在采用AI Agent?
LangChain调查显示: 约有51%的受访者已经在生产环境中采用了AI Agent;78%的受访者计划在近期将AI Agent引入生产应用。
按规模看,员工人数为100-2000的中型企业最为积极,采用率达到63%;按行业看,90%的非科技公司已经部署或计划部署AI Agent,这与科技公司(89%)旗鼓相当。
(你们公司是否在生产中采用AI Agent?)
Langbase调查显示:目前,AI(非AI Agent)的实验用途比例远远大于生产用途,虽然后者在稳步增加中。
(你们公司采用AI的广泛程度如何?)
2、AI Agent基座大模型哪家强?
Langbase调查显示 :OpenAI(76%)占据主导地位;谷歌(59%)正迅速崛起,成为其强劲的竞争对手;Anthropic(47%)紧随其后。Meta的Llama、Mistral和Cohere影响力不高,但增长势头不容忽视。
(你用谁家大模型开发AI Agent?)
各家大模型的采用情况如下:
OpenAI在技术和营销应用处于领先地位,同时也是翻译能手;
Google在健康和翻译领域表现相当出色,展示其在语言和医学领域的强大实力;
Anthropic是处理技术任务的高手,但在营销和翻译方面的使用率较低;
Mistral在技术和科学领域表现不错,不过是个偏科生;
Meta被广泛应用于技术和科学领域;
Cohere在多个领域的齐头并进。
3、选择AI Agent基座大模型受哪些因素影响?
Langbase调查显示,准确性(45%)是最重要的因素 ,其次是安全性(24%)和可定制性(21%),成本(10%)影响相对较小。(注:与“企业采用AI Agent有何顾虑”基本一致)
(哪些因素影响你选择基座大模型?)
4、企业在哪些场景采用AI Agent?
LangChain调查显示:研究与总结(58%)、个人生产力工具(53.5%)、客户服务(45.8%)。
(你认为目前的AI Agent最适合执行哪些任务?)
该结果显示——人们希望将耗时任务交给AI Agent。
知识过滤器:AI Agent能够快速提炼关键信息。在文献综述或研究分析中,人们无需自己手动筛选海量数据;
生产力加速器 :AI Agent可以协助安排日程、管理任务,提升个人效率,让人们专注于更重要的工作;
客服神助攻 :AI Agent帮助企业更快地处理客户咨询、解决问题,大幅提升团队的响应速度。
Langbase调查显示:自动化、简化 是企业采用AI的首要目标,其在效率和流程简化方面受益;定制化解决方案、提升协作能力则反映了大模型日益增长的灵活性,以及消费者对系统共享访问的兴趣。
(采用AI时,你的主要目标是什么?)
在具体场景上,Langbase调查显示 :
AI大模型在软件开发(87%) 应用最广泛;
其次是文本摘要(59%)、市场营销(50%)、IT运营(48%)、客服(43%);
最后是人力资源(26%)、法律合规(15%)等领域。
值得注意的是,该结果与上述LangChain的调查有些出入。主要原因是——Langbase的提问方式是AI大模型,而非AI Agent。
(你们公司采用LLM有哪些用例?)
5、在生产中采用AI Agent存在哪些顾虑?
LangChain调查显示,性能质量(41%)是首要关注点,其重要性远超成本(18.4%)和安全(18.4%)等因素。
(将更多AI Agent投入生产的最大障碍是什么?)
AI Agent依赖LLM“黑盒”控制工作流程,这会带来不可预测性,增加出错风险。因此,团队难以确保其Agent 能否始终提供准确、符合上下文的响应。
对于小企业而言,性能质量尤其重要——45.8%的小企业将性能质量列为主要关注点,而成本因素仅为 22.4%。
对于必须遵守法规,要敏感地处理客户端数据的中大型企业来说,安全问题也很普遍,超过了成本因素。
(不同规模企业面临不同挑战)
除了上述因素,LangChain在书面回复中发现,团队还面临知识、时间难题。
知识不足 :许多团队缺乏构建和部署 AI Agent的专业技能,特别是在特定应用场景下的实现。员工们还要苦练专业技能,以高效利用AI Agent。
时间有限 :构建可靠的AI Agent需要投入大量时间成本,包括调试、评估和模型微调等环节。
Langbase调查显示:复杂的扩展和部署过程 是阻碍采用的首要问题;其次是数据隐私和安全合规性;缺乏监控工具、高昂的基础设施成本也阻碍了技术的落地应用。
(阻碍你在工作流中采用AI Agent的首要因素)
6、AI Agent开发相关问题有哪些?
Langbase调查显示:在生产环境中部署LLM和AI Agent面临关键挑战,包括定制化难度高、缺乏用于质量保证的评估方法,可重复使用的基础设施不足。碎片化工具、集成问题以及可扩展性限制进一步加剧困难,突显出构建简化流程和强大支持工具的必要性。
(中型企业——在生产中部署AI Agent时,你遇到的最大挑战是什么?)
开发者将AI Agent的版本控制视为开发平台最重要的功能。强大的SDK、库生态系统、本地开发环境也受到关注。
(影响你选择开发平台的主要因素是什么?)
大多数受访者需要多代理RAG能力以提高上下文信息处理;评估工具对于确保AI系统按预期工作同样很重要;多代理流水线也是在生产中实现复杂任务的关键技术。
(哪些平台特征对你至关重要?)
7、对AI Agent有哪些展望?
LangChain调查显示:企业在采用AI Agent,既有新的期待,也会面临持续的挑战。
新的期待:
处理多步骤任务 :AI Agent具备更深入的推理和上下文理解能力,能够应对复杂任务。
自动化重复性任务 :AI Agent被视为自动化日常任务的关键工具,释放人力投入更具创造性的工作。
任务分配与协作 :优化任务分配,确保合适的Agent在正确的时间处理特定问题,尤其在多Agent系统中。
类人推理能力 :不同于LLMs,AI Agent能追溯并优化自己的决策,根据新信息调整策略,类似人类的思考过程。
(人们对AI Agent的期待)
主要挑战:
Agent的黑盒机制 :工程师发现,他们很难向团队和利益相关者解释 AI Agent 的功能和行为。尽管可视化步骤有助于理解到底发生了什么,但 LLM 的内部机制仍然是个黑盒,增加了解释的难度。
重点关注:
对源AI Agent的兴奋 :许多人对开源AI Agent 表现出浓厚兴趣,认为集体智慧能加速创新。
期待更强大的模型 :大家期待更高级的 AI Agent,由更强大的模型驱动,以更高的效率和自主性处理复杂任务。
(人们对AI Agent的重点关注)
结语
从企业的采用意愿来看,2025年或将成为AI Agent的爆发元年。
从爆发领域来看,软件开发、客户服务、市场营销等领域将率先跑出种子选手。目前已知的就包括编程神器Cursor、AI Coding“鼻祖”Replit等等。
值得关注的是,这两份报告均揭示出当前AI Agent落地的最大难点——准确性,甚至连成本因素都名列二、三位。
一个办法是等待“至尊”大模型出现,但这取决于巨头们的能力边界。而在某种程度上,AI Agent的出现本身就是为了解决LLM在具体应用场景中的局限性。因此,开发者需要尽可能地在记忆、规划、工具使用等其他技术栈下功夫。
如果不能迅速实现,我们也可以换个思路:短期内商业化成功的AI Agent,不一定是看起来“代理化”程度最高的产品;而是能够平衡性能、可靠性,以及用户信任的产品。
换句话说,如果做不到完全自主,开发者需要从一开始考虑如何将人类员工融入其中,做到准确性万无一失。
正如吴恩达的观点,形容词“Agentic”比名词“Agent”能更好地帮助我们理解这类智能体的本质。如同自动驾驶汽车L1-L4,Agent的进化也是一个过程。或许,一个确定的趋势是先拥有AI Copilot,再拥有AI Agent。只不过,Copilot这个词的存在感可能会降低,转而被“少量Agentic能力”代替。
来源:36kr
|