起源:DeepTech深科技(起源:MIT Technology Review)AI 智能体现在是科技范畴的热点话题。从 Google DeepMind、OpenAI 到 Anthropic,各年夜顶尖公司正竞相为 LLM 付与自立实现义务的才能。这类体系外行业内被称为 Agentic AI(代办式人工智能),是硅谷新的热议核心。从英伟到达 Salesforce,各家公司都在探究怎样应用这项技巧推翻行业格式。Sam Altman 在上周的一篇博客文章中表现:“咱们信任,2025 年第一批 AI 智能体可能会参加职场,并本质性地转变企业的产出。”狭义上看,AI 智能体是一种可能自立履行义务的软件体系,平日只要少少乃至完整不须要监视。义务的庞杂水平越高,智能体所需的智能程度也越高。对很多人来说,现在的 LLM 曾经充足智能,能够驱动智能体实现一系列适用义务,比方填写表格、查找食谱并将所需食材增加到线上购物车,或许在集会前经由过程搜寻引擎疾速实现最后的研讨并天生扼要的要点总结。2023 年 10 月,Anthropic 展现了一款进步的 AI 智能体:Claude 的一项扩大功效“Computer Use”。望文生义,这项功效应用户可能像批示人类一样领导 Claude 操纵电脑,包含挪动光标、点击按钮跟输入文本。用户不只能够与 Claude 对话,还能够请求它直接在屏幕上实现义务。Anthropic 指出,这项功效现在依然存在繁杂跟轻易犯错等成绩,但已向一小局部测试职员开放,包含来自 DoorDash、Canva 跟 Asana 等公司的第三方开辟者。这个名目展示了 AI 智能体将来开展的一个缩影。为进一步探究趋向,MIT Technology Review 采访了 Anthropic 的结合开创人兼首席迷信家 Jared Kaplan,他分享了 AI 智能体在 2025 年可能开展的四个偏向。(Kaplan 的答复经由稍微编纂以顺应篇幅跟晋升表述的清楚度。)更善于应用东西“我以为能够从两个维度来懂得 AI 的才能。一方面是 AI 体系可能实现义务的庞杂水平。跟着体系变得越来越智能,其在这一方面的才能一直晋升,而另一个要害维度是 AI 能够应用的情况或东西范例。”Kaplan 表现。“举个例子,假如咱们回想近10年前 DeepMind 的围棋模子 AlphaGo,它曾经鄙人棋方面超出了人类。但是,假如 AI 的才能仅限于棋般游戏,它的利用情况就十分受限。即便领有极高的智能,这种 AI 在事实中不现实用处。跟着文本模子、多模态模子的提高,以及像‘Computer Use’如许的功效(乃至将来可能波及的呆板人技巧),AI 正逐渐融入多样化的情况跟义务中,从而变得愈加适用。”他持续说道。“咱们对‘Computer Use’觉得高兴的起因也在于此。直到近来,年夜言语模子还必需依附特定提醒或东西,且范围于特定情况。而我以为‘Computer Use’将疾速晋升模子在实现差别义务及更庞杂义务方面的才能。别的,AI 也将逐步学会辨认本人的过错,并在面临高危险成绩时认识到须要追求用户的反应。”他指出。更理解懂得高低文Claude 须要对你的详细情形跟你所处的束缚前提有充足的懂得,才干真正对你施展感化。这包含你的详细脚色是什么、你的写风格格怎样,以及你跟你的构造的需要是什么。“我以为咱们会在这方面看到明显改良,Claude 将可能从你的文档、Slack 等外容中搜寻跟进修,从而真正懂得对你有效的货色。这一点在智能体的探讨中每每被低估了。一个体系不只要有效,还须要保险,可能正确实现你冀望的义务,这长短常主要的。”Kaplan 表现。别的,很多义务现实上并不须要 Claude 停止太多推理。比方,在翻开 Google Docs 之前不须要停止长时光的沉思熟虑。“因而,我以为将来的开展偏向不只在于让智能体领有更多的推理才能,更在于确保它在真正须要时施展推理感化,同时在不用要的时间防止挥霍时光。”他说道。晋升代码助手的才能“咱们盼望在‘Computer Use’功效还处于初期阶段时,向开辟者供给一个测试版,以便网络反应。跟着这些体系的一直完美,它们可能会被更普遍地采取,并真正与用户合作实现种种义务。”他表现。像是 DoorDash、Browser Company 跟 Canva 如许的公司,正在实验差别范例的阅读器交互,同时借助 AI 计划这些交互方法。“我估计代码助手将进一步改良,这是一个对开辟者来说十分令人高兴的范畴。现在,应用 Claude 3.5 停止编程曾经惹起了极年夜的兴致。它不再仅仅是供给主动补全功效,而是可能真正懂得代码中的成绩,调试代码,经由过程运转代码察看其行动,并停止修复。”他表现。须要被计划得更保险“咱们创建 Anthropic 的初志,是由于预感到 AI 技巧的疾速开展,并认识到保险成绩必定会变得愈加主要。我以为往年这些成绩将愈加直不雅且紧急,由于 AI 智能体将越来越多地融入咱们的任务中,咱们须要为种种潜伏挑衅做好筹备,比方提醒词注入。”Kaplan 表现。提醒词注入是一种攻打方法,经由过程向年夜言语模子供给开辟者未预感或未盘算处置的歹意提醒停止攻打。比方,能够将歹意提醒嵌入模子可能拜访的网站中,以此实行攻打。“提醒词注入可能是咱们在 AI 智能体普遍应用中须要优先思考的要害成绩之一,尤其对‘Computer Use’功效而言,这个成绩尤为主要。“咱们正在踊跃应答这一挑衅,由于假如‘Computer Use’被年夜范围安排,可能会呈现歹意网站或其余手腕试图引诱 Claude 履行不当操纵。”他表现。“别的,跟着更高等模子的问世,相干危险也会增添。咱们制订了持重的扩大战略,确保跟着 AI 体系才能的晋升,可能无效避免其被滥用。比方,防止它被用于帮助可怕分子等不当目标。”他持续说道。“只管如斯,我对 AI 的现实利用仍充斥等待,究竟它确切在外部晋升了咱们的任务效力。Anthropic 团队以多种方法应用 Claude,特殊是在编程范畴,后果尤为明显。但是,弗成否定,挑衅同样不容疏忽。往年无疑将是充斥变更跟新机遇的一年。”Kaplan 表现。原文链接:https://www.technologyreview.com/2025/01/11/1109909/anthropics-chief-scientist-on-5-ways-agents-will-be-even-better-in-2025/