AMA:2025年及以后的人工智能

2025年1月2日

在这次AMA中,Sahara AI的首席执行官兼联合创始人Sean Ren和Anthropic的Rohan Taori反思了今年最大的AI突破,并分享了他们对2025年行业走向的看法。从新兴趋势到AI代理的未来,他们解析了接下来可能发生的事情及其对AI格局的影响。

完整录音链接: https://x.com/i/spaces/1yNGagBaPZVxj

Joules Barragan (04:11)
大家好!欢迎参加我们的第一次AMA,“2025年及以后的人工智能。” 我是来自Sahara AI的市场部的Joules,今天我将担任你的主持人。我们很高兴能有两位了不起的嘉宾:

  1. Sean Ren – 我们Sahara AI的首席执行官兼联合创始人。他也是南加州大学计算机科学的副教授,领导智能与知识发现研究实验室。

  2. Rohan Taori – Anthropic的技术员工。如果你没有听说过Anthropic,他们是领先的AI安全和研究组织,创建了非常著名的Claude AI。他还拥有斯坦福AI实验室的博士学位。

欢迎,Sean和Rohan!

Sean Ren (05:10)
很高兴来到这里。

Rohan Taori (05:12)
是的,感谢你的邀请,Joules。很高兴在这里。

Joules Barragan (05:15)
感谢你们二位的参与!我们有一个令人兴奋的议程:我们将讨论今年的AI突破、什么是“伟大的AI”以及对未来的预测。在我们深入讨论之前,快速提醒:我们将赠送独家产品、邀请您参加我们的下一个活动(附带一位嘉宾),以及我们数据服务平台第一季的三个白名单名额。要赢得奖品,只需在聊天中提出深思熟虑的问题。我们将在最后挑选获胜者并在X(前身为Twitter)上公布。

让我们开始吧,为Sean和Rohan提一个快速问题: 今年有什么AI发展让你印象深刻?

Sean Ren (06:13)
我可以先来。我对一种名为GenIE的东西感到非常兴奋(它是生成交互环境的缩写),由Google DeepMind发布。历史上,AI代理的仿真环境都是手工制作的——有许多设定的规则和限制。但是通过生成交互环境,你可以进入无穷无尽的可能性。你可以想象不同类型的游戏或场景,AI代理可以探索这些场景,甚至超出现实世界中物理上可能发生的事情。这为训练和评估AI开辟了巨大的机会。我期望更多的公司进行类似的工作,这将推动AI测试和开发的前沿。你怎么看,Rohan?

Rohan Taori (07:49)
是的,这非常有趣,与我想提到的内容密切相关:向测试时计算强化学习 (RL)的转变。历史上,人们专注于扩大训练——在更多数据和更大模型上进行预训练。但是,扩展RL的测试时计算可以扩大解决方案空间。你可以拥有更细致的数据分布、更丰富的环境,以及多种调整模型以实现你想要的方式的方法。这种对测试时计算的新关注,结合你提到的交互环境,确实拓宽了AI的创造空间。我们将在2025年看到更多这样的场景。

Joules Barragan (09:11)
太好了!2024年是一个重大突破的一年。回顾过去,你们二位认为过去一年中最重要的AI进步是什么?

Sean Ren (09:32)
我同意Rohan对推理时间(或测试时间)可扩展性的强调。每个人都知道扩大预训练——为这些模型投入更多计算和数据——是成功的,但现在却显露出饱和的迹象。OpenAI和其他实验室的人们正在注意到这一点。在后期训练方面(如微调和RLHF)还有更多事情要做,但新的前沿是推动更多的智能和计算进入推理阶段

此外,我对新的、更高效的序列模型架构,如Mamba、状态空间模型等,给人留下深刻印象,这些模型减少了训练和推理的计算要求。这对AI的工程和基础设施方面至关重要。

Rohan Taori (11:07)
正是如此。除了更高效的架构外,我们还看到运行模型的巨大的降价——可能是推理令牌的10倍、100倍或更多。这意味着更多的人可以部署和实验这些模型。此外,类似于Llama 3.1的发布,越来越多的开源模型变得更为强大,这对开源社区、爱好者和修补者都是好事。

Sean Ren (12:51)
是的,我有时会忽略开源模型的进步。就在一两年前,开源模型的能力非常有限。但现在,Llama 3系列的模型在现成情况下相当有用。你可以进行个人信息检索、客户服务或在这些模型上进行增强的生成。你甚至可以通过技术如模型蒸馏在设备上提供较小的模型。这对于更广泛的部署来说非常重要。

Rohan Taori (13:35)
在2025年,看到设备上的部署如何演变将是很吸引人的。人们正在研究更好的量化方案和减少内存需求的方法。开源社区确实在推动这一界限。

Joules Barragan (13:50)
绝对如此。我们还没有讨论的是去中心化AI。去中心化的AI在2024年发挥了什么作用?

Rohan Taori (13:48)
这是一个有趣的问题。在2023年,我们看到对开源社区参与的强烈推动——例如,为Llama 1和2构建微调数据集。随着Llama 3.1及其强大的开箱即用的微调和RLHF,社区驱动的指令数据集的强调有所减少,因为官方版本已经相当优秀。但去中心化AI不仅仅是关于数据集创建。它还涉及我们如何共同构建和共享模型、数据以及RL的环境。在那里肯定仍然存在很大的机会,尤其是在测试时可扩展性方面,但这将需要更多的创新,也许还需要新的激励措施以激励社区。

Sean Ren (16:08)
是的,我完全同意。推理时间的可扩展性使去中心化AI更有吸引力。例如,你可以将Llama 3视为一个基础(如商品层),然后在其上构建一个私有专有的管道——例如,专门的系统提示、RAG数据库或带有特定归纳偏差的外部内存。这个管道就成为了可以盈利的组成部分。中小企业可以这样做;开发人员可以快速推出有趣的用例。然后,大问题是基础模型的创造者如何维持生计。但只要像Meta这样的公司继续更新Llama,这将有利于整个生态系统。

Joules Barragan (17:59)
很好的见解。Sean,你稍微提到了数据。Sahara AI最近推出了数据服务平台,在Sahara,我们常说:“好的AI需要好的数据。”我们为什么要从数据服务平台开始,这对AI意味着什么?

Sean Ren (18:17)
每个人都知道数据是AI的“新石油”,但必须是高质量的数据。你可以抓取互联网,但你会得到嘈杂的数据。如果你正在构建一个特定领域的AI应用程序,你需要精心制作、平衡的数据——没有重大偏见,没有无关的噪音。这就是为什么数据服务(收集、清理、标签)仍然是一个庞大的产业。

下一步是弄清楚如何激励人们分享有价值的数据,而不必担心他们会失去所有权或收入潜力。如果他们的数据被用于训练或优化一个最终获利的模型,你希望能够为数据提供者提供持续的收入分享。这就是数据来源变得至关重要的地方——追踪数据的来源和使用,这样如果数据贡献者的工作最终用于一个盈利的应用,他们能够分享收益。

我们从数据服务平台开始,因为这是所有这些的基础。我们希望创建一个独特数据集与模型开发者相遇的市场。之后,我们可以允许更复杂的互动,比如从结果模型或应用程序中进行收入分享。

Rohan Taori (21:20)
确切地说。展望2025,扩大测试时计算和强化学习将不仅需要文本数据,还需要交互环境。这是一种不同的“数据”,也是模型调优的新方面。想象一下众包环境或任务,让这些代理可以探索。同样的激励机制适用:我们如何奖励这些环境或专业数据集的贡献者?

Joules Barragan (23:49)
很好。Rohan,你提到我们已经从“AI助手”变成了“AI代理”。在2025年,你还看到哪些重要趋势出现在地平线上?

Rohan Taori (30:17)
我们已经谈到了很多:更具代理性的系统、更高的测试时计算和大规模成本降低。这些趋势的结合将使AI更便宜、更快、更智能和更灵活。我特别对多模态性感到兴奋。我们已经看到接受文本、图像、音频甚至视频流(如Google最近与Gemini的演示)的模型的早期迹象。在2025年,我们将看到多模态模型的大爆发——包括专有和开源模型——你可以使用任意模态与AI“对话”,并以多种形式获得响应。这将解锁巨大的新应用。同时这也将使数据挑战更大,因为现在我们处理的是文本、图像、音频、视频、3D数据等。

Sean Ren (32:05)
是的,我也对“上下文化”的模型充满期待,它们集成了文本之外的信号——语音、图像、环境数据等——以创建更自然的互动。例如,你可以录制一段快速视频,并要求AI观察或推理它所看到的内容。现实世界的使用案例变得更具吸引力和扎根。一项商业利益是,这些更丰富的模型提高了生产力(自动化重复任务、与企业系统整合)娱乐性(沉浸式、游戏化体验)。我好奇我们是否会看到从多模态AI中涌现出全新的“杀手级应用”。无论如何,这将无疑改善现有的东西。

Joules Barragan (35:16)
我们已经达到了AI似乎无处不在的地步。我的一代人是互联网原住民;下一代人可能会成为AI原住民。那还有多远?

Rohan Taori (35:43)
比我们想象的要快!即使现在,奇怪的是你的计算机在你不点击按钮或以特定方式输入命令时并不“理解”你。在几年内,孩子们会对我们在2023年或2024年使用计算机的方式感到困惑。他们会说:“你指的是什么,你必须按下这些图标去使用Photoshop?”他们会期望只需说:“嘿,计算机,做这个。”然后计算机会完成它。这一转变将和从纸质地图转向Google地图一样重大。

Sean Ren (36:59)
是的,这将重新定义“工程”或“生产力”。现在,你需要编程技能。但很快,一个代理可以从一个自然语言提示中编写整个代码库。我们还将需要对教育进行新的思考。我们还会教每个人Python吗,还是我们专注于培养人们指挥和监督AI系统的能力?伦理、哲学和治理仍将是关键,因为我们需要确保这些AI系统与人类的价值观保持一致。

Rohan Taori (39:17)
这是一个有趣的观点。编程会作为一项专业技能消失,还是会变得像学习英语那样普遍?我们可能会进入一个“每个人”都具备一定编程能力的世界,因为这成为监督AI的一种基本方式。或者我们可能会看到“元代理”的生态系统产生,这些代理仅需来自人类的高级指导即可构建、验证和维护软件。

Joules Barragan (41:22)
让我们留一些时间给观众提问。有个问题是:“对于能够创造其他AI的AI,我们应该设定什么伦理界限?”

Rohan Taori (45:20)
有趣的问题。这其中至少有两个方面:

  1. AI改善或创造新的AI:这可以意味着递归自我改进或模型蒸馏。我们需要确保新创建的AI保持对齐和安全。这需要在每次增量能力提升后进行强有力的保护措施和评估。AI实验室正在努力做到这一点,但这是一项巨大的挑战,尤其是在决定如何衡量风险或“越狱”潜力时。

  2. AI为任务生成更多计算能力:另一个问题是我们允许AI在一次使用多少计算能力,或者我们是否让它自主启动多个代理。这也需要仔细测试。一种迭代的部署方法——在新功能测试后,查看它们是否破坏对齐,然后再继续——将是关键。

Sean Ren (48:05)
是的。在短期内,我们今天使用的相同对齐方法论适用于AI创造AI场景——模型蒸馏、自我对抗或多代理精炼。这不是一个完全不同的问题,但它提高了赌注。我们只需要更加警惕。

Joules Barragan (49:05)
另一个问题是:“我们距离实现AGI还有多近,这对人类意味着什么?”

Rohan Taori (49:07)
很难说,因为AGI对不同的人有不同的定义。有些人通过经济影响来定义它,其他人则通过AI递归自我改进的能力来定义它。但总的来说,AI能力迅速发展,社会转型的速度将比以前的技术浪潮(如互联网)快。我不认为一切都将在2025年改变,但我们会看到重大飞跃,特别是在多模态性和扩展推理方面。

Sean Ren (50:23)
是的,这取决于定义。如果你认为一个高度能力的多模态模型是“AGI”,那可能一两年内就会实现。或者如果你指的是完全对齐和自我改进的东西,那可能需要更长时间。但关注实际对齐和安全的工作比单纯倒数“AGI”更具生产力。

Joules Barragan (51:23)
下一个问题:“我们如何鼓励开源社区更多地参与到模型微调过程的开发和改进中,特别是在去中心化AI中?”

Sean Ren (51:42)
微调大型模型是成本高昂的——计算和数据确实是障碍。一个方法是创造新的激励机制。例如,如果你为微调提供数据,如果一个微调的模型被商业化,你就应该分享收入。这意味着要建立能够追踪数据来源和使用情况的平台,这样贡献者就不会仅仅是无偿提供数据。此外,我们可能需要去中心化或社区驱动的集群,以减轻任何单一方的负担,以适应计算限制。

Rohan Taori (52:33)
是的。此外,我们应该超越仅仅基于文本的微调,向RL和基于环境的调优发展。这可能意味着让人们构建或贡献“迷你环境”,以帮助塑造代理行为。但最大的问题在于如何获取足够的计算支持——所以这又回到了有良好的平台和为开源提供资金模型的问题。

Joules Barragan (53:16)
最后一个观众问题:“AI完全与人类组件分开还要多长时间?”

Sean Ren (53:16)
老实说,我认为它不应该完全分开。那样会启发出像黑客帝国那样的情境,人类最终成为AI的能源来源。我更愿意看到人类和AI保持紧密集成,持续将AI与人类伦理、价值观和监督对齐。

Rohan Taori (54:03)
是的,100%同意。保持协同一致是至关重要的。

Joules Barragan (54:09)
我们今天的时间到此为止。谢谢大家的参与,也感谢Sean和Rohan分享你们的见解。我们将尽快挑选奖品的获胜者并在X上公布。

几点结束说明:

  • 别忘了在X(Twitter)上关注我们,并加入我们的Discord。

  • 注册我们的等待名单:我们数据服务平台的第二季即将推出!我们总是首先与等待名单分享重要信息。

  • 我们计划在大约两周内进行另一次Twitter Spaces AMA,所以请密切关注我们进入新年。

再次感谢大家的参与!