AMA | 第2集 - AI智能体接管:区分炒作与现实(Featuring Databricks)

在本次 AMA 中,Sahara AI 团队继续带来“AI 智能体接管”系列活动的深度分享,聚焦智能体如何通过叙事进行推理、交流与协作。本次对话由市场负责人 Joules Barragan 主持,邀请到 CEO 兼联合创始人 Sean Ren,以及特邀嘉宾——加州大学圣地亚哥分校助理教授、Databricks(通过 MosaicML)研究科学家 Prithviraj Ammanabrolu。探讨内容围绕叙事理解如何拓展智能体的智能边界、长程规划以及人机协作。从交互式叙事与科学推理到自主系统的安全性与对齐挑战,本次会议既探讨了让 AI 智能体以故事方式思考的前景,也剖析了其中的潜在风险。
链接: https://x.com/i/spaces/1DXxyqEDvNNxM
抄本
Joules: 好的,各位,我们几分钟后开始。感谢大家的参与。我看到 Raj 已经到了。先把他设为发言人吧。你怎么样?
Raj: 挺好的,你呢?
Joules: 我也很好。今天很高兴你能来。我们几分钟后就开始。我听得很清楚。对了,是读作 Viraj,对吧?
Raj: 对,是 Prithviraj。不过叫我 Prithviraj 或 Raj 都行。
Joules: 好的。
Sean: 好。
Joules: 我看到很多嘉宾已经用上了我们酷炫的 Bitsy 头像框,太棒了。非常感谢大家。欢迎各位。Sean,能听到我们说话吗?
Sean: 能听到。
Joules: 太好了,你的麦克风声音很清楚。Raj,你也在这里。
Raj: 在的。
Joules: 好的,那我们开始吧。欢迎大家,我是 Sahara 的 Joules,今天由我担任主持。这是我们“AI 智能体接管”系列的第二期。今天的 AMA 非常精彩,我们邀请到了 AI 领域的两位杰出人物:一位是 Sahara 的 CEO 兼联合创始人 Sean Ren。
Sean: 大家好,我又来了。
Joules: 是啊,距离你上次参加 AMA 才过了一周。非常感谢你再次加入,Sean,我知道你非常非常忙。
Sean: 确实,很高兴来交流。
Joules: 我喜欢你的新眉毛特效,刚看到你更新了。是的,大家可以去读我们的博客文章,确实是新的。今天看到很多人都在用头像框,真的很酷。我们还有一位特邀嘉宾,Prithviraj,简称 Raj。Raj 是加州大学圣地亚哥分校的助理教授,领导 Pearl 实验室,同时通过 Mosaic ML 担任 Databricks 的研究科学家。他曾在 AI2 担任研究员,在此之前于佐治亚理工学院获得博士学位。感谢你今天的参与,Raj。
Raj: 感谢两位的邀请。很高兴见到大家,Sean,也很高兴再次与你交流。
Sean: 非常期待能在这个领域与大家交流。
Joules: 今天的 AMA 将探讨 AI 智能体如何利用语言、反馈、真实世界语境和叙事推理,成为更优秀、更具协作能力的沟通者。如果你正在收听,在 AMA 过程中有任何问题,欢迎在下方评论区留言,我们会在最后统一解答。好的,我们开始吧。Raj,你花了多年时间研究机器如何讲故事。是哪个时刻或哪个洞见让你真正感叹“哇,AI 需要像人类一样理解叙事”?
Raj: 好的。要回答这个问题,我需要稍微往回退一步,讲讲背后的动机。在我读博早期,我读了一篇对我整个研究生涯影响深远的论文。那篇论文叫《具身认知》(Grounded Cognition),作者是心理学家 Larry Barsalou,当时他也在亚特兰大,在埃默里大学。这篇论文的核心观点是:人们做事、学习的方式,是通过与周围世界的互动,我们所理解的所有概念并不是那么抽象,而是与世界中的事物紧密相连。而且这种具身不仅仅是“我的概念与某个物理对象相关联”,还可以是我们之间共享的概念。这让我非常着迷。而将这些概念联系在一起的方式之一,就是通过叙事。我们认为叙事是人类最自然的沟通形式,从古至今,许多道德准则、人生道理,都是通过故事、神话等形式传递的。这就是最初的灵感来源:如果我们能让 AI 讲故事、进行沟通,那么在某种意义上,故事就解决了 AI 与人类之间的沟通问题。这也是我最初尝试构建这类智能体的灵感起点。
Joules: 太好了,非常感谢。Sean,Sahara 的一个重要使命也是赋能创作者,不仅是保护他们的作品,更是为他们提供 AI 工具,帮助他们捕捉个人风格、放大创意、优化工作流。结合 Raj 刚才关于叙事的观点,你认为 AI 能够像人类一样理解叙事,对于帮助创作者训练出真正反映自我的 AI 来说,有多重要?
Sean: 相比于 Raj,我对叙事的视角肯定更偏实用一些。我更多地把叙事理解和生成看作衡量当前 AI 能力和水平的一种方式。我认为叙事理解和生成给 AI 或智能体带来的最大挑战之一,是这种高层次、全局性的规划和结构构建能力。举个例子,如果你想写一篇博士论文,你需要考虑整篇论文的叙事结构。这可以拆解成很多更小的任务:你需要对你研究的领域做文献综述,与已有工作进行对比和区分;然后思考如何在众多文献中定位自己的观点,并以人们能理解的方式表达出来;还需要告诉别人你如何执行大的想法,拆解成四年的研究计划,以及各项任务如何一步步推进。这是一个非常复杂的推理和规划任务,就像我们现实生活中,无论是独立完成复杂任务,还是与同事协作完成更大的目标,都需要考虑很多可能出错的环节、备用机制,以及如何在不同的可能性中最终达成目标。当你让 AI 生成一个非常复杂的叙事时,这些细微之处就能被近似地体现出来。但与真实世界不同的是,叙事理解和生成不必受限于那么多规范,甚至物理规律。你可以发挥创意,甚至生成现实中不存在的奇幻内容,这正是让人们感到有趣的地方。所以我认为,叙事生成与理解在某些方面,与构建能在现实中与人协作的智能体是不同的。但从另一个角度看,对研究界来说,叙事理解和生成是一个非常好的试验场,可以用来真正测试和挑战当前 AI 或智能体的极限,看看它们到底能做到什么程度。
Joules: 是的,说得很精彩。继续关于叙事和 AI 的话题,Raj,你研究过一种我特别喜欢称之为“叙事智能体”的东西,因为它们本质上就是 AI 故事讲述者。我不知道“叙事智能体”这个词是我自己编的还是在哪儿看到的,反正现在也记不清了。但这些确实是一种特殊的学习型智能体,对吧?你能为我们的听众解释一下,到底什么是“叙事智能体”吗?
Raj: 好的。叙事智能体的一种理解方式,是想象一个纯粹通过语言与世界互动的智能体。它们以叙事的形式接收输入——关于周围世界的文字描述、身边人物的描述、人物的性格、所处的位置等等。然后根据这些描述,它们需要执行动作。它们需要在这个模拟或真实的世界中与他人对话、互动,能够操控和移动物品,总体上是为了实现自己的目标。这些目标,至少在互动叙事领域,范围很广,从破解谋杀谜案——你扮演侦探角色——到我们最近做的一些事情,比如 Science World,在那里智能体试图从基本原理出发学习如何做科学实验。也就是说,它们不是去死记硬背科学问题的答案,而是试图自己搞清楚实验步骤,然后系统地执行。这看起来很像强化学习领域,只不过环境是文本形式的自然语言,智能体也以文本形式向环境输出动作。这是这类智能体最基本的形式,至少在我差不多十年前刚开始涉足这个领域时是这样的。自那以后,它们已经变得复杂得多了。
我常举的一个例子是 Zork 这个游戏。Zork 是最早的电脑游戏之一,由 Infocom 公司在 70 年代开发,那时候电脑图形等东西都还没出现。人们开发了这类游戏,你需要在游戏世界中探索、收集宝藏、解谜。这些游戏非常复杂,因为它们从 70 年代开始,人们一直在不断丰富。现在如果你去看其中一些游戏的源代码,它们有数百万行代码,世界设定极其复杂,包含几十到上百个地点、角色等等。顺便说一句,我自己高中时就玩过这类游戏,当时花了我三四个月才通关其中一个。所以这是我读博初期开始做的一件事:“好吧,要让 AI 能够通过自然语言进行推理和互动,解决这类谜题,需要具备哪些能力?”事实证明,我们在这个过程中学到的一些经验,也适用于很多其他类型的 AI 智能体。一个具体的例子是,对于具身智能体——比如机器人——你实际上可以在这种叙事性的文本环境中训练它们。你教它们在纯文本环境中用高层语言进行规划,比如如何按食谱做菜。这种环境计算速度快,易于模拟,然后你可以把它们迁移到视觉模拟环境中,再迁移到现实世界的机器人上。这种多阶段的训练流程,比直接在某种机器人环境中训练要高效得多。这就是这类智能体的整体概况,它们的一些直接下游影响,以及我为什么喜欢用它们作为研究自然语言的试验平台。另外提一下,我的一个学生最近发布了一个名为 TAILS(文本冒险学习环境套件)的基准测试,其中包含了 3400 多个这样的环境。结果显示,在最难的那部分任务上,即使目前最好的推理模型,得分也只有 15% 左右。这清楚地表明,要开发出能够有效在叙事中进行推理的智能体,我们还有很长的路要走。
Joules: 是的,这真的很酷。说到叙事智能体,我脑子里首先想到的是游戏和聪明的 NPC,我终于可以和它们互动了,它们能理解叙事,能以智能的方式理解我在说什么。我觉得这真的太棒了。但听你这么一说,我也在思考这些叙事智能体的其他应用方式,比如帮助人们通过有趣的故事来学习和理解复杂的概念。你还能想到其他有意思的应用例子吗?
Raj: 你提到这一点很有意思。我之所以喜欢这类智能体,正是因为它们的应用范围极其广泛。游戏中的 NPC 是其中一个有趣的方向。在大语言模型时代之前,我们就已经在研究如何实现这一点,如何将这些叙事智能体用作游戏中的 NPC。我们做过一个小项目,当时我在 MSR,和 Xbox 合作,试图将一个智能体植入到《盗贼之海》这款游戏中。当时文本生成技术还不够好,而且游戏开发者对 NPC 的台词非常挑剔。最终我们把这个叙事智能体做成了游戏里一只海盗的鹦鹉,效果很不错,参与度很高。那还是在 Transformer 模型出现之前。自那以后,情况已经大大改善。这类应用有很多层次,从游戏中的 NPC 提供娱乐,到……我当时的很多合作者后来去了 Facebook AI Research,继续研究这类叙事智能体。我团队里不少人后来联合创立了 Character AI,相信在座很多人应该熟悉,那是目前打造个性化 AI 和角色互动的首选平台之一。所以除了娱乐方面,还有很多其他用途。你可以让这些智能体学习如何做科学实验、执行具身任务,并将能力迁移到真实机器人上。所以它的用途非常广泛。任何你能想到的事情,几乎都可以用叙事的形式来表达,而叙事本身就是我们之间最自然的沟通方式。
Joules: 是的,真的很酷。我对这个领域的发展方向感到非常兴奋。我有一个问题想问 Sean。我们看到智能体在任务自动化方面越来越强,但正如我们在上一期“AI 智能体接管”节目中讨论的那样,完全自动化仍然是一个巨大的挑战。从你不同的视角——无论是叙事层面还是多智能体协同层面——你认为构建能够真正独立思考和行动的智能体,目前最大的挑战是什么?
Sean: 这是个好问题。我相信这个问题会有很多答案。我可能只谈其中一点。我认为,即便是对人类来说,要围绕一个目标保持始终如一、强有力的执行力也是非常困难的。假设你告诉 50 个不同的房地产经纪人:“嘿,帮我在这个区域找到最好的房子。”你甚至可以基于自己的个人标准来定义什么叫“最好的房子”。你把同样的目标交给他们,几个月后,他们可能会给你带来截然不同的结果。我认为原因有很多。首先,每个人的信息缺口和掌握的信息范围不同,他们为你找到的结果自然会有很大差异。其次,他们对你的指令或标准的理解也可能大相径庭。这就涉及到意图理解、理解你的个性、你的个人经历等一系列问题。然后,他们在如何搜索信息、如何根据一条信息深挖出另一条信息、如何沿着路径找到最终结果等方面,也会有各种不同的执行路径。我认为人类在尽力完成工作时,这种情况经常发生。如果把这些思考问题的方式放到 AI 智能体身上,对智能体来说就更难了。
今天,当我们谈论智能体能够自动化某些任务时,我们实际上指的是非常狭窄、非常专门化的任务。例如,总结一篇文章、改变一篇文章的语气、或者翻译文章。我们在向更复杂、多步骤的任务迈进,比如“根据我提供的一些标准,帮我找到最好的商家”。像 Deep Research 或其他一些智能体搜索产品已经能做得相当不错。但如果你真的让它们执行“帮我找房子”这样的任务,考虑到所有可用的信息和 API 接口,我认为这些智能体根据其执行路径的不同,仍然会给出相当不一致的结果。所以今天,当我们思考距离让这些智能体自主、独立地为我们执行任务还有多远时,我认为还有大量工作需要做,需要赋予智能体长程规划的能力,并帮助它们更好地对齐和理解人类那些表述模糊的意图和个人历史。我认为这是目前最大的瓶颈。当然,我很想听听 Raj 对这个领域的看法。
Raj: 是的,我认为很棒的一点是,我们在语言与叙事领域一直使用的许多智能体,以及最初为此开发的许多算法,至今仍在沿用。你可以想象像 Deep Research 这样的产品,或者你设想的这种智能体搜索,从强化学习的角度来看,在某种程度上也非常相似:你输入从互联网获取的文本,输出是这个特定智能体需要进行的各种工具调用及其参数。我的实验室探索过一些方法,基本上就是使用类似于过去交互式语言智能体的技术,它们执行带有参数的动作。“从桌上拿起一把刀”和“拿起”作为一个函数调用,是非常相似的。从强化学习的角度来看,这两者实际上映射到了相同的底层马尔可夫决策过程。
但我认为你说得对,我们还没有完全实现的是,能够以稳健的方式处理非常长程的任务。目前的模型在运行几百步之后,往往会失去连贯性。例如,对于一个计算机操作智能体来说,在某些任务上可能能自主工作大约一小时,之后就会忘记自己在做什么。所以长程任务的处理肯定需要解决。这也是我最初对这类交互式叙事非常感兴趣的核心原因之一——你在很早之前做的一件事,比如在问了某个问题后收集到的一条信息,最终可能会对突破后续的某个瓶颈非常关键。这对所有类型的智能体都是如此。现在很多科学家正在使用的 Deep Research 智能体,帮助他们做文献搜索或提出新的研究思路,任何需要这种长程思考的事情,都存在着这类依赖关系,模型需要能够从本质上克服它们。我认为解决这个问题将是 AI 接下来面临的一大挑战,但我对目前的进展感到兴奋。
Joules: 是的,我很喜欢这个讨论。我对未来的方向非常着迷。回想一下一年前、两年前的情况,就让我对一年后、两年后的发展充满期待。这一定会非常非常酷。我有个后续问题想请教两位。叙事是我们理解世界的方式。随着 AI 智能体在创作和理解故事方面比现在做得更好,你认为这会对我们学习、工作、决策的方式产生什么影响?我们之前的回答中已经简单提到了一些,但我想更深入地探讨一下。谁先有想法都可以先说。
Raj: 我认为在不久的将来,我们会看到人机协作变得更加紧密。随着 AI 能够更好地创作叙事,它们会成为更自然的沟通者,能够以更个性化的方式向我们传递信息,让我们更容易理解。一个具体的例子是教育领域。我是 UCSD 的教授,我的一个学生正在做一个名为 Socratic Mind 的项目。回想一下你在大学时做课堂答题器题目的情景——那是一种互动学习方式,而不是单纯听讲。我们在 UCSD 的一些课程中试点使用了这样的系统,利用 AI 进行互动式口头评估,促使学生进行更深入的思考。不再是那种静态的四选一、对错立判的答题器问题,系统会根据阅读材料或课堂内容向学生提问。学生给出答案后,AI 会进一步追问:“嗯,你答案的这部分没问题,但能再多解释一下另一部分吗?”这里的关键,也就是叙事理解的部分在于,如果 AI 只是直接把正确答案抛给学生,其实并没有太大用处。更有价值的是,AI 能够编织一个叙事,帮助学生更好地理解某个特定概念。例如,“你是个六年级学生,搞不懂酸加碱等于盐加水这个原理,但你之前理解两种颜料混合会变成第三种新的颜料。现在,把同样的类比应用到‘两种不同的东西结合会产生全新属性的事物’这个概念上。”这种基于学生已有知识来构建叙事的能力,已经显现出了益处。很多初步结果表明,这确实改善了学生的学习效果。这只是我们现在正在做的一个具体事情,我认为随着 AI 越来越擅长以人们更容易理解的方式表达语言,我们会开始看到更多这样的应用实例。
Sean: 我想在 Raj 分享的基础上补充一点。如果我们真的拥有了长程规划的能力,以及消化用户模糊意图的能力,这将极大地影响我们的工作和学习方式。我举一个更贴近加密货币领域的例子。如今,如果你想请一个 AI 智能体帮你做一些交易任务,你可能需要说得非常具体。你必须告诉它:“用这个钱包地址,将这么多代币 A 兑换成代币 B。”你需要用完整、表述清晰的句子,把所有参数都明确规定好。AI 在今天就能为你执行这样的操作。
但我们真正希望的是,你可以像跟财务顾问聊天一样说:“我手里有 1 万美元,想投到加密货币的某些领域。我有点担心最近 memecoin 市场的波动,你觉得未来三个月我有哪些潜在的投资可以尝试?我想先试试水。”与之前的例子相比,你提出的是一系列高层次的要求或约束,但同时也在投资兴趣方面给出了很大的自由度。现在,如果我们能有一个 AI 智能体,它能够理解这些模糊的指令,基于它所了解的用户信息、整个市场状况以及所有相关的知识库进行解读,然后做出合理甚至精明的投资和交易执行,那将是一个巨大的转变。这将极大地影响我们使用和与 AI 智能体协作的方式。我们不再像管理员一样事无巨细地控制智能体,而是更多地把智能体当作伙伴、顾问、朋友,可以和它聊天、获取见解、讨论策略、制定执行计划。我认为这是一种截然不同的工作模式。积极的一面是,我们已经开始看到很多这样的趋势,比如 Deep Research 和其他不同领域的智能体搜索产品。例如,在金融领域,我们看到分析师使用智能体搜索来生成关于不同项目的研究分析,并与这些智能体进行更多的讨论和互动式协作。所以我认为我们正朝着正确的方向前进,我相信很快我们就会在不同应用场景中拥有这种更多扮演“顾问”角色的智能体。
Joules: 两位都给出了很深刻的见解。我们时间不多了,所以我想留出时间回答社区的问题。我看看……有个问题想问两位:在考虑创建叙事智能体时,开发者最需要注意的一点是什么?
Raj: 我觉得首先要考虑的是你的受众是谁。这个叙事智能体将与谁互动?他们期望看到什么样的语言?你需要从实际使用者的角度出发来思考,然后反向推导出设计。
Sean: 我同意。基于目前我们可以构建的工具和智能体的能力,我们需要把需求做得尽可能具体和明确,这包括理解目标用户或受众的实际需求。只有这样,我们才能构建出成功的智能体来满足这些需求。如果你只是想做一个能和你聊天、让你开心,但不完成任何任务的智能体,那是一种类型。这让我想起了 Character AI 早期,他们就是想构建能让人在聊天中保持投入、感到快乐并获得情感支持的聊天机器人。但这些智能体不一定会提高生产力或工作效率。所以你真的需要理解智能体的需求,这是第一点。
Joules: 谢谢。社区还有另一个问题。这个问题听起来很简单,但很重要:“现在好像什么 AI 都叫智能体。到底什么才是真正的智能体?ChatGPT 算不算智能体?”
Sean: 好问题。我可以简短回答一下。“智能体”这个词的含义过载,即使在学术界,不同的人也有不同的理解。我简单总结一下,智能体是一种既能思考又能行动的 AI。关键词是“行动”——它们可以采取行动,可以思考,并且可以执行多步的思考和行动,制定计划和策略来实现目标。我喜欢强调的一点是,智能体应该是目标驱动或任务驱动的。它有一个高层次的目标或任务要去实现。我认为这能让智能体听起来更令人兴奋,也区别于过去五年我们看到的大多数 AI。我很好奇 Raj 怎么看。
Raj: 我大体上同意 Sean 的观点。有意思的是,我在本科和研究生的课程中,第一节课讲智能体时,就会问:“智能体到底是什么?”这有点像问生物学家“生命是什么”一样。你可以列举出大多数人认为应该属于智能体组成部分的不同特征,但如果你要求他们给出一个全面的定义,没人能做到。大家普遍认同的两点是:智能体会有某种形式的记忆——记录过去所做事情的记忆,用来决定未来该做什么。第二点是基于第一点,它们会做事。它们具有能动性,能够以有意义的方式执行动作。像基本的 RAG(检索增强生成),一个检索步骤跟一个生成步骤,这种不一定算智能体。但像工具使用那种,智能体进行动态搜索,这就更接近我心目中的智能体。我可能与 Sean 略有不同的地方在于,我不认为目标驱动是智能体的必要条件。我觉得这是“锦上添花”,而非“必不可少”。因为现在有一些东西让我想起 Tim Rako 在今年 ICLR 上的主题演讲,他谈到了具有内在动机的智能体。它们会在世界中进行开放式探索。肯·斯坦利以前写过一本书叫《为什么伟大无法被计划》。这在短期内可能实用性稍弱,但我认为其中蕴含着很多潜在的洞见,可能帮助我们以某种定义实现 AGI,或者实现能在广泛任务上比人类更聪明的智能体。其中一个观点是,我们可以而且可能应该尝试在没有即时目标的情况下训练这些智能体。当然,这些都是针对可能的开放式智能体所做的开放性研究。总的来说,我认为在高层次上,有一些组成部分是大家都认同的,属于各类智能体的一部分。我不认为有人能给出一个确切的定义,如果有人告诉你他们有一个公认的、确切的定义,那他们很可能是在骗你。这就是我那个“长篇短答”。
Joules: 不,我真的很喜欢这个“长篇短答”,总是很棒。我想我们还有时间再回答一个问题。我试着挑了一个我最喜欢的:“如果智能体开始讲故事或构建叙事,我们该如何避免它们操纵人或传播错误信息?”
Sean: 这是个好问题。简短的回答是:非常难。如果没有任何控制手段,可能会造成很大的危害。从政府的角度来看,应该有一些基本的合规规则和法规,用于追溯 AI 生成内容的来源。我们有很多技术路径可以探索。Sahara 正在做其中一件事——我们试图在 AI 开发过程的每一步都嵌入水印,从数据集到模型,再到这些模型或智能体生成的内容,这样我们就可以追溯到是谁真正生成了这些内容。这有助于我们更准确地将智能体输出或行为的正面和负面结果归因到原始来源,从而更快地定位问题。我认为这是我们需要谨慎对待的一个重要方面。在研究方面,关于模型指纹识别以及将模型行为归因于其训练数据点的研究非常活跃。我们也在密切关注模型溯源和指纹识别未来的发展方向。
Raj: 我非常赞同 Sean 提到的各种方法。这基本上是以不同形式重新阐述的对齐问题:如何确保 AI 不会试图欺骗人们,或者试图以某种方式讲述叙事来说服人们做别的事情?这让我想起几年前的一篇论文,叫做《人们在哪里在线讲故事?》。如果你熟悉的话,Reddit 上有个子版块叫“改变我的观点”,发帖人会表达某个观点,其他人试图通过讲故事来改变发帖人的观点。有趣的是,这在一定程度上被用作 AI 评估,看看 AI 讲故事改变别人观点的能力有多强。事实证明,目前 AI 在这方面已经惊人地有效,即使是针对相对简单的事情,它们也能让人们听取与自己原本不同的观点。
和所有事情一样,对齐问题是一把双刃剑。随着这些系统在讲故事方面变得更好,它们可能会被用来化解持不同观点的人之间的冲突。同时,它们也很有可能会被用来传播错误信息。因此,正如 Sean 提到的,进行归因核查,或者与可信用户的偏好对齐,在不久的将来将变得非常重要。这样你就能确切知道模型训练的底层动机是什么,这些模型的后训练目标到底是什么,提供数据让模型学习对齐的人是谁。保持开源和透明,对于增强公众对这些系统的信任大有裨益。
Joules: 两位说得都很有道理。当我看到这个问题时,我立刻想到的是本月早些时候 OpenAI 更新 GPT-4o 时发生的事。它变得非常谄媚,这表明人们信任 AI 的程度,更多是取决于它讲故事的方式、与你沟通的方式,而不仅仅是它的准确性。这让我想到这会对人们的行为产生多大的影响。Sean,你和同事们之前写过一篇关于这个问题的论文,能简单谈谈吗?
Sean: 好的。有一篇由斯坦福大学的 Caitlin Joe 主导、与 AI2 合作的论文,我们研究了 AI 语言表达方式如何影响人们对 AI 答案的信任度或信心。例如,如果你让表达方式更温暖、更具同理心,人们就更容易相信 AI 的回答,无论这个回答在事实上是否正确或有效。这基本上证明了,仅仅通过操纵 AI 的表达方式,就能对人类将 AI 视为权威的程度产生显著影响。因此,我们需要对这种潜在操纵格外小心,如果这种操纵是以可疑或非预期的方式进行的,例如在政治立场或其他可能产生巨大社会影响的事情上。我认为那篇论文只是引起了人们对这种潜在危害的关注。
Joules: 太棒了,谢谢。那篇论文真的很有意思。强烈推荐大家有时间读一读。我们时间到了。Sean、Raj,在结束之前你们还有什么想说的吗?
Raj: 没有了,很高兴能和 Sean 以及大家交流。我非常期待看到你们未来构建的成果。
Sean: 我也是。Raj,感谢你分享见解并抽出时间与我们交流。我认为我们今天至少触及了智能体 AI 时代两个最重要的问题。一个是 AI 的长程、目标驱动的推理和规划能力,我们在这方面取得了很大进展,但还没完全实现。第二个是安全和对齐问题,我认为随着 AI 能力飞速发展,这个问题至少和第一个同等重要,甚至更重要。Sahara 的主要使命是创建一个开放、安全、透明的 AI 生态系统,因此,在人们看到 AI 智能体能力取得巨大进步的同时,也需要更多地关注 AI 的安全、保障和所有权方面的问题。谢谢大家。很高兴在这里和大家分享和交流。
Joules: 是的,非常感谢 Sean。谢谢你,Raj。很高兴你能来。本次 AMA 有录制,大家可以分享给朋友们。我们稍后会在本周内发一篇回顾文章。好的,祝大家今天愉快。谢谢!
Raj: 再见大家。
Sean: 谢谢。再见。保重。



