Type something to search...
为什么人工智能代理是好软件

为什么人工智能代理是好软件

为什么(设计良好的)自主系统能如此有效

大约一个月前,我写了以下关于自主 AI 如何能够促进 AI 系统更好软件设计原则的文章。 这篇文章将更深入地探讨和扩展我在那篇文章中讨论的想法。我想这将是结束我们关于代理的迷你系列的一个好方法,因为我们一直在绕着这个问题打转,调情,但从未直接回答过这个问题——为什么每个人都对代理如此关注?是什么让代理对所有试图在 LLMs 上构建的人如此有吸引力?为什么它们会如此受欢迎?

这篇文章将是我尝试回答这个问题的努力。为此,我们将首先讨论我认为与自主 AI 最契合的原则,然后介绍一些关于我们如何选择实施这些原则的案例研究。和往常一样,下面是自主系统及其影响的概述(较大屏幕 → 更好的阅读体验)-

执行摘要 (TL;DR)

什么使一个系统具有代理性?

你们中的许多人无疑已经厌倦了我回答这个问题,但请再耐心听我说一次。代理性人工智能系统将用户查询分解为一系列小步骤,由不同的组件处理。代理性系统不是依赖单一的 LLM(或其他人工智能)一次性回答复杂查询,而是将查询分解为更简单的子例程。这些子例程通过模块化、可审计和更易扩展的方式更好地解决问题。

例如,考虑一个与销售相关的问题。代理性人工智能可以:

  • 使用特定来源的 SQL 生成工具进行结构化查询。
  • 利用 LLM 进行自然语言处理任务。
  • 使用传统算法进行计算或使用预定义规则进行约束。

本文将讨论我们为什么可能需要它。但在开始之前,我认为讨论关于代理性人工智能及其成本的误解是重要的。人们常常低估构建代理系统的成本,尤其是当他们阅读关于这些系统效率的报告和评论时(包括我这样的人的评论)。

虽然代理系统在设置后更高效且具有更好的投资回报率,但它们的开发成本(研究、额外雇佣、维护等)要高得多,因此更适合拥有更多可支配现金和可用团队的团队。我注意到越来越多缺乏必要基础的团队试图过早进入代理领域。 并不是每个团队都应该留着像梅西这样的奢侈球员。有些团队可以购买成熟的明星。其他团队则应该专注于培养年轻人才,并说服托德·博利为他们支付 1 亿英镑(不过切尔西这个赛季看起来不错,直到他们又开始切尔西化)。

另一方面,由于代理的好处在于你能否构建得好,我们接下来的关于如何构建代理系统的指南可能对你有帮助。它半火了(感谢大家分享),并成为了我非常自豪制作的这个表情包的来源——

回到我们的主要话题。为什么每个人对人工智能代理如此热衷?这个问题有简短的回答和较长的回答。

为什么人们喜欢代理 - 简短回答

良好的代码首先是非常灵活的。任何人都能轻松更改的代码可以更快地进行改进。这是我在SVAM对我的AI研究团队所强调的唯一真正的指导原则 - 编写代码(+ 文档),使所有未来的更改尽可能简单。甚至微软对软件工程师的研究 - “伟大的软件工程师有什么区别?**” - **也得出了类似的结论,其中“调整行为以考虑未来的价值和成本”被评为第二重要特质(第一是更通用的“编写良好的代码”)。

代理之所以出色,是因为它们使基于LLM的系统更容易修改。传统的基于LLM的系统存在很多不稳定性和脆弱性,这些问题可能在意想不到的时刻被触发。代理架构为我们提供了更好的准确性、更少的不受控制的错误,以及附加更多功能的能力。

现在是更长的回答。

为什么人们热爱代理 - 长答案

Agentic Architectures 将用户的请求分解为更小的步骤,每个步骤由一个专门的代理处理。这些代理可以是多种多样的:

  • 特定任务的 LLMs:一个代理可能会总结文本,而另一个则翻译文本。通常,这比对一个 LLM 实例给出多个指令要好。
  • 传统算法:代理可以执行计算、访问数据库或与 API 交互。这在搜索、计算查询生成等方面非常推荐。
  • 基于规则的系统:代理可以根据预定义规则强制执行约束或处理特定场景。

系统控制这些代理,协调它们的行动并结合它们的输出以生成最终结果。这种方法与使用单一 LLM 处理所有任务的单块方法形成对比。

Agentic Architectures 与良好的软件设计原则具有天然的协同作用。通过代理化构建,我们可以改善 -

模块化:模块化是将系统划分为更小的、自包含的组件或模块的实践,这些组件可以独立运行。我们希望系统是模块化的,因为这减少了复杂性,并允许团队专注于单个组件而不受干扰。代理 AI 自然支持模块化,通过使用专门的代理来处理数据查询或响应生成等任务。这隔离了错误,并允许在项目之间轻松重用组件。

可扩展性:可扩展性是指系统在不牺牲性能的情况下处理不断增加的工作负载或更大数据量的能力。鉴于技术在利用规模经济时最具盈利性,这一点的重要性应该很明显。

代理在这里有两个优点。首先,代理使得开发和维护更复杂的系统成为可能,从而增加了可以做的事情的数量。其次,代理可以通过用更便宜的过程替代某些任务的更昂贵的 LLM 调用,从而降低每个任务的计算成本。

关注点分离:关注点分离涉及将软件系统组织成不同的部分,每个部分专注于特定的功能。这简化了开发,减少了复杂性,并在进行更改时最小化了意外副作用的风险。代理 AI(我有点厌倦打这个,所以就简称 AAI)体现了这一原则,通过为各个代理分配特定角色。

松耦合:松耦合是最小化系统中组件之间依赖关系的实践。这个原则确保系统中一个部分的更改或故障不会传播到其他部分,使得更新、维护或替换组件变得更容易。与上面类似,专门的代理允许我们构建和更改功能,而不会对更大的设置产生太大影响,这比传统的 LLM 更好。

鲁棒性:鲁棒性是指系统在面对错误、意外输入或部分故障时保持功能和性能的能力。这个原则在医疗或法律等关键领域尤其重要,因为 LLM 对输入的小变化的脆弱性可能非常成问题。AAI 通过两种方式增强了这一点 - 可扩展性增加了对技术中最大问题之一(过载导致的奇怪行为)的鲁棒性,而关注点分离和松耦合则非常有助于帮助我们隔离和追踪错误。

一致性:一致性确保系统在其操作中表现得可预测和统一,这是传统 LLM 系统目前所缺乏的。一致的系统减少了用户的困惑,并通过提供可靠的输出使调试和开发更加简单。一致性是代理系统可以为基于 LLM 的系统提供的最大改进之一,通过增加更确定/稳定组件的使用并减少 LLM 需要交互的不必要上下文(这是一个比你想象中更大问题)来实现。我不会过多阐述这个,因为尽管这是一个极其重要的好处 - 我对这个具体方面没有太多要说的。

本文的其余部分将逐一讨论每个原则并进行深入探讨。我们将讨论传统 LLM 系统的不足之处,以及 AAI 如何实现这些原则,并且我们会谈论一些案例研究。如果这听起来有趣,那我们就开始吧。

我在写这份通讯时投入了很多精力。为此,我依靠你的支持。如果有更多的人选择成为付费订阅者,巧克力牛奶教派就可以继续为任何需要的人提供高质量和可及的教育和机会。如果你认为这个使命值得贡献,请考虑订阅高级版本。你可以以低于 Netflix 订阅的价格做到这一点 (在这里支付你想要的金额)

我提供各种咨询和顾问服务。如果你想探索我们如何合作,请通过我的社交媒体联系我或回复此邮件。

如何通过代理架构提升模块化

模块化涉及将复杂系统分解为更小的独立模块。这对于管理复杂性、促进代码重用、简化开发和维护以及隔离错误至关重要。非模块化系统可能会有越来越复杂的连接,因为非专业化模块往往承担越来越大的责任,从而使代码库更难以迭代。

这对于大型语言模型(LLMs)尤其重要,因为它们往往受到“瑞士军刀问题”的困扰——它们似乎可以做任何事情,因此常常被用于多种任务(我想大多数AI团队还没有完全吸取我青少年时期艰难学到的教训——仅仅因为你可以做某事(比如在排灯节时向朋友扔拉克希米炸弹),并不意味着你应该这样做)。

让我们通过一个实际示例来看这个问题。想象一下构建一个客户支持聊天机器人,这是LLMs最常见的用例之一。大多数团队尝试通过混合以下内容来实现基于LLM的客户支持——

  1. 使用更长和更复杂的提示来列出具体的指令和工作流程,告诉AI查看特定区域等。正如一些人所称的,“提示工程”。
  2. 尝试寻找更强大的模型。
  3. 使用经过特定数据微调的专业模型(用于表格数据的LLMs等)。

然而,这种做法极其低效,会导致各种错误。与其让单个LLM尝试处理所有事情,不如使用专业代理:

  • 查询处理代理: 处理用户输入以提取意图和实体(例如,将“I want to track my order #”转换为像track order (order ID)这样的命令)。
  • 订单跟踪代理: 使用提取的订单ID查询数据库以获取订单状态。
  • 响应生成代理: 根据订单状态构建自然语言响应。
  • 升级代理: 如果订单状态有问题或用户表达不满,该代理将对话转交给人工操作员。

这使你能够真正最大化性能。例如,查询处理和升级代理更依赖于理解/翻译,而不是原始生成(这与标准的仅解码器自回归LLMs(如GPT、Claude、Gemini等)背后的设置相同)。而且并不是很多人知道(或者已经忘记),但其他类型的变换器更适合这些特定的设置。

一般而言,BERT或其他以编码器为主的模型在查询分类方面会对你有很大帮助。因为它们通常与自编码器堆叠,并且经常通过双向掩蔽进行训练(你掩蔽一个标记,查看掩蔽标记前后的上下文,然后尝试预测掩蔽的标记是什么),你往往会对语言有更强的理解——

这就是为什么基于BERT的语言模型在许多特定领域的信息检索和语言理解挑战中经常超过最先进的LLMs,即使它们的规模更小——

当考虑到标准的12层BERT时,我们的实验表明(Chat)GPT在检测长期变化方面的性能与BERT相当(尽管略低),但在识别短期变化方面表现明显较差。我们发现,BERT的上下文化嵌入在捕捉单词意义的短期和长期变化方面始终提供了更有效和稳健的解决方案。

-来源.

但这还不是全部。

由于每个代理专注于特定任务,我们的系统更易于理解、调试和扩展。处理/升级代理可以在不同的应用中重用,例如语音助手。如果订单跟踪代理失败,其他代理仍然可以正常工作,提供通用的道歉并建议替代联系方式。最重要的是,这在许多关键方面提高了系统的性能,例如——

  1. 像订单跟踪和大部分响应生成可以使用标准技术来完成,从而降低成本(无需调用昂贵的LLMs)。后者尤其值得强调——不要忘记模板字符串仍然存在,很多输出可以直接使用。
  2. 它还消除了LLMs引入的任何不可控错误。
  3. 它提高了系统的透明度,因为你依赖于更易于理解的设置。

比起LLMs处理所有事情,这要干净得多。

再举一个例子——我曾与某人合作,根据元数据(事件发生地点、参与人员等)对事件的重要性进行评分。工作流程相当简单——

  1. 获取事件。
  2. 根据规则对其各种元数据点进行评分(如果事件在纽约市举行,则其地点得分为10……为每个元数据提供单独的得分)。对于某些元数据类别,他们没有严格的规则,因此他们让LLM自行生成一个得分。
  3. 一旦获得元数据点,根据公式组合它们以获得事件重要性得分。
  4. 总结事件中10条最积极和最消极的评论(各10条),以了解用户反馈。事件的规模足够小,他们只是加载整个评论列表并让LLM找到这些评论。

他们最初通过要求LLM一次性完成所有这些(事件 + 元数据输入——> 输出得分)来遵循一个非常复杂的提示。他们联系我,因为这种规模化的成本巨大,他们想看看是否有更高效的方法。通过一些简单的调整,我们将成本降低了约93%,并将性能提高了37%——

  1. 为每个元数据类别创建字典(而不是告诉LLM将纽约市的地点得分设为10,我们创建了一个简单的字典,键“NYC”映射到10)。
  2. 对于没有具体规则的元数据(没有字典来创建映射)——我们让Claude在运行主评分函数之前先创建一个字典。我们编辑字典以根据他们的研究调整值。这样,他们只需运行一次LLM调用,而不是每次都调用LLM来评分不明确的元数据。
  3. 在函数中运行评分公式。
  4. 使用简单的情感分析器对正面和负面评论进行评分,然后选择前k=10条。
  5. 使用LLM(Claude,因为Gemini非常脆弱,而GPT更昂贵)进行总结和分析。

这大大降低了LLM的成本(提示更短),并提高了他们的性能,因为LLMs在数学方面表现不佳,而预定义的字典使得评分变得确定性。这些元数据评分字典(即原始代理)现在也在自己的函数中——使它们可以在其他地方重用/轻松扩展。

你们中的许多人非常先进,所以你可能会想,为什么我花了这么多时间来解释这样一个显而易见的解决方案。然而,值得注意的是,许多现代团队在尝试与AI合作时对AI没有技术理解(他们的AI工程师往往是全栈开发者,知道如何调用API),因此错过了与设计AI产品相关的各种最佳实践。

这也扩展到许多AI产品/服务提供商。称我为精英主义者或傲慢者,但这是一项简单的事实,许多生成AI团队真的很糟糕,他们没有被解雇或破产的唯一原因是雇用或资助他们的人没有技能甚至无法理解他们有多糟糕。这就像我在完全不理解那种艺术形式的情况下,很难判断和批判一场歌剧表演。

让我们结束这个话题,继续前进。

总而言之,模块化是很好的,因为它隔离了责任——促进了重用、提高了性能,并允许更大的专业化。这些都非常有帮助。代理AI是一种在LLMs内促进这一点的方法,因为LLMs需要明确划分不同的工具/代理——这本质上与将它们拆分为不同模块相同。

接下来,让我们谈谈下一个原则。

可扩展性与代理:构建与您共同成长的 AI 系统

在我看来,传统的 LLM 架构面临三大关键的扩展瓶颈:

  1. 成本扩展:每个请求,无论多么简单,都会调用完整模型。这导致了一个有趣的困境——您是选择一个更强大的模型以提高能力,但在大多数情况下却显得过于复杂?还是选择一个更简单的模型以降低成本?当我们必须在 LLM 中嵌入输入验证、预处理和错误处理时,这个问题尤其突出。
  2. 复杂性扩展:随着需求的增长,提示变得越来越复杂。最初的“回答客户关于订单的问题”演变为“检查订单状态并计算运费并验证库存并建议相关产品并……”每增加一个要求,系统就变得更加脆弱。
  3. 性能扩展:随着上下文长度的增加,LLM 的速度会减慢。一个可以正常处理 5 个产品描述的系统,在处理 50 个时可能会变得缓慢,而在处理 500 个时则可能完全崩溃。

在 2 和 3 相交的地方,有一种特殊的痛苦。LLM 在我称之为上下文污染的现象中挣扎——先前的上下文(即使与当前任务无关)也会扭曲输出(如果有官方名称,请告诉我。否则,我就声明这点)。

还有很多其他研究表明,LLM 如何受到看似无关因素的影响,如用词选择、选择顺序等。这是我认为人们显著高估“推理模型”对 AI 采用/能力影响的众多原因之一(在我看来,生成 AI 产品最大障碍并不是其基础知识,而是我们将在另一篇文章中讨论的内容)。

这也是我不太重视关于上下文长度讨论的最大原因之一。如果模型的纯上下文长度在输入的上下文信息中变得混乱,那么它就毫无意义。可用上下文长度的确定要困难得多。

大多数基于 LLM 的系统因过载 LLM 以无关信息而自我伤害(90% 的输入与查询无关)。这可以是主动进行(如前面讨论的更复杂的提示),也可以是潜意识中依赖于对齐或微调等技术将知识强制输入系统。

无论如何,您的系统规模在多个方面受到影响:

  1. 您的能力受到限制,因为您更多的计算成本按比例分配给遍历搜索空间,从而限制了更复杂的推理。
  2. 搜索空间中的信息可能会产生各种冲突,即使每个单独的数据点都是有效的。这也是为什么幻觉在通用 LLM 中是一个数学上无法解决的问题的原因之一(这也是为什么您应该在特定领域的情况下围绕它们构建)。
  3. 所有这些都是非常昂贵的。

代理通过其模块化和责任分离,以多种方式实现扩展。显然,它们增强了能力(我可以添加用于格式化、可视化等的代理)——我们稍后会讨论。然而,在这一部分,最好考虑这种方法所带来的水平扩展能力。将工作流程分解为子步骤,使我们能够更有效地分配资源。

考虑一个处理大量科学文献的系统。基于代理的方法可以采用:

  • 摄取代理:多个代理并行工作,从不同来源下载和预处理文章(我们的许多客户确实希望机器人从特定来源提取信息)。
  • 分析代理:执行不同分析的专业代理,如主题提取、情感分析或命名实体识别。
  • 检索:解析出版物,选择出 10 个最佳的。通常在检索中,您会结合一个轻量级过滤器来解析大多数来源,以及一个更重的模型用于后续阶段的过滤。
  • 排序:遍历检索到的出版物,为我们的信息排名,传递前 3 个。
  • 聚合代理:组合分析代理的结果。

这种分布式处理使系统能够有效地处理大规模数据集。假设文献的数量增加了 100 倍(我想象 AI 的增长远远超过这个)。我们可以通过以下方式来应对这一增长:

  1. 启动 100 倍的摄取和分析代理。这是简单化的(通常您会遵循某种反向扩展法则,但我在这里是为了强化论点,假设我们拉取所有内容)。
  2. 将检索的 top k 增加到 30。
  3. 将重新排序的 top k 增加到 5,而不是 3。

在这里,您总的投资增加少于 100 倍,因为其他组件不需要按相同的数量扩展。这将比传统的基于 LLM 的系统高效得多,因为扩展的唯一方法是花更多的钱在 LLM 本身上(如果您的数据量超过了模型的表示能力——您将不得不重建一个新模型)。

这一原则的一个很好的现实例子是 Uber 的 QueryGPT,它允许用户通过自然语言提示生成 SQL 查询(顺便说一句,这个用例是我在 2022 年第一次接触 LLM 的原因。但当时是与一家跨国供应链公司合作,而不是 Uber)。QGPT 将查询生成的速度提高了 3 倍(10 分钟 → 3 分钟)。其规模的关键之一在于它仅在最后阶段调用 GenAI 创建者,在此之前已对数据进行了过滤等。这意味着调用 LLM 的成本在与数据集大小增加相比时会以次线性增长。架构如下所示:

下一个原则是我个人非常喜欢的。

关注点分离、松耦合和AAI

我将把关注点分离和松耦合结合在一起,以避免过于重复。

传统的基于LLM的系统存在非常严重的耦合问题。让我们了解这些问题,以理解它们为何重要。

任务干扰

当一个模型同时处理多个责任时,对一个任务的更改往往会以意想不到的方式影响其他任务。对日期格式处理方式的简单更新,可能会突然影响模型生成SQL或撰写报告的方式。这是因为LLM并没有在不同类型的处理之间保持明确的边界。

这种干扰的有趣之处在于它的微妙性。即使是看似无关的更改也可能导致意想不到的行为。添加有关处理客户姓名的指令后,您的价格计算可能会突然以不同的方式包括税费。更改地址格式后,您的产品推荐也会发生变化。这就像系统中的蝴蝶效应,小的提示变化会不可预测地扩散。

这就是为什么微调常常会增加意外安全错误的原因之一——

“令人不安的是,我们的研究还表明,即使没有恶意意图,仅仅使用良性和常用数据集进行微调也可能无意中降低LLM的安全对齐,尽管程度较轻。这些发现表明,微调对齐的LLM引入了当前安全基础设施无法解决的新安全风险——即使模型的初始安全对齐是完美的。”

-”微调对齐的语言模型会危害安全,即使用户没有意图!

包括在基础模型中不存在的全新漏洞,如在从(生产)语言模型中可扩展地提取训练数据,中所示,DeepMind的研究人员能够以约两百美元提取ChatGPT的几兆字节训练数据。他们的攻击在对齐的ChatGPT上有效,但在基础模型上无效,表明对齐创造了一种之前不存在的新类型漏洞。

错误隔离当多任务LLM系统出现问题时,识别源头变成了一道复杂的难题。错误是来自数据提取逻辑?验证规则?任务之间的交互方式?没有明确的分离,调试变得更多是艺术而非科学。

随着系统的增长,这种情况会呈指数级恶化。每个新特性不仅增加了其潜在的故障点,还增加了特性之间交互和共同失败的新方式。您最终会得到一个系统,修复一个错误可能会因为无法隔离真正的问题而产生两个新的错误。

这可能导致模型根据不该建立的任意连接将多个概念混淆在一起。一个例子是,Gemini臭名昭著地拒绝帮助未满18岁的用户处理C++,因为这被认为不安全(在这里,未成年人安全的概念与编程安全发生了冲突,尽管它们在语义上非常不同)。

弄清楚错误为何出现以及其原因并不是一场有趣的游戏。

测试和验证

如何测试一个每个组件都相互交织的系统?您无法单独测试日期格式或验证SQL生成,而不触发整个管道(这同样是非常耗费成本的)。

传统的软件测试在很大程度上依赖于隔离——能够独立验证每个组件。但是,当一切都被塞入一个LLM时,您失去了这种能力。您的测试变得更像集成测试,您一次测试所有内容,并希望能够得到好的结果。

代理如何促进关注分离和松散耦合

良好构建的代理系统固有的分解特性使得

每个部分都有一个工作,并且做得很好。当某个部分出现故障时,您知道确切的查找位置。当您需要进行更改时,可以更新组件,而无需担心连锁反应。

这一直是我正在构建的法律人工智能初创公司 IQIDIS 的关键驱动因素之一。我们的用户常常对我们的法律响应的深度、引用的质量、更细致的推理以及我们以竞争对手(其中一些每月每用户收费数千美元)一小部分的成本(每月每用户200美元)处理任意上下文长度的能力感到印象深刻。我们成功的秘诀在于我们良好规划的工作流程和关注分离。例如:

  1. 我们的案例法中不同的司法管辖区存储在不同的环境中,以消除我们的案例法推荐平台向加州律师推荐德克萨斯州特定法律的可能性。这有一个问题,即它会削弱您进行跨领域分析的能力,而我们通过在不同孤岛中的不同组件之间进行知识图谱构建来解决这个问题。
  2. 我们的多模态、法律丰富的Markdown创建器有自己独立的空间,用于处理法律文件(这些文件通常混合了表格、扫描件、手写笔记、图像、图表等)。这用于文档处理,但由于我们不断增强它,给予它自己的空间使我们能够测试多种方法,以始终拥有最佳的Markdown表示。
  3. 像上面提到的那样用于嵌入(我们构建了一个自定义嵌入设置,以最大化检索性能)。这在法律领域尤其重要,因为标准嵌入无法捕捉法律细微差别,并且它们对时间维度的整合也不够好。
  4. 使用不同类型的知识图谱将实体彼此映射,从而实现更细致的文档/案件理解(传统的向量嵌入在两个点未直接连接时会遇到困难,这也是Meta的Coconut引起如此关注的原因)-

如果您认为这是一种虚张声势/夸大其词,请发送查询至 info@iqidis.ai。我们为每位用户提供一周的免费试用,没有锁定,因此您可以无风险地尝试,并在想要时离开。我们非常有信心您会喜欢我们现在所处的位置和我们正在进行的事情。

通过将IQIDIS的所有不同组件分开,我们可以测试每一个小细节——这在最大化我们开发效率方面非常有帮助。我们能够在质量上与融资数百万的初创公司竞争,同时由于设计允许我们隔离错误、分拆测试想法并对反馈进行极其有效的迭代,因此我们得以自给自足。

现在进入最后一部分。

AI代理如何帮助软件的鲁棒性:

我们已经讨论了所有相关的想法,所以让我们直接进入案例研究。

在自动驾驶车辆中,基于代理的系统可以增强安全性。不同的代理可以控制刹车、转向和避障。如果一个代理发生故障,其他代理可以接管或启动紧急程序。这种冗余对于确保乘客安全至关重要(还有一个更明显的想法是,在您的主要代理失败时拥有备份代理)。这也适用于其他情况。

这种冗余和错误处理确保系统即使在部分故障的情况下也能继续运行。

将任务分解为工作流还可以实现更高的透明度(特别是如果您有详细的日志记录),并将有助于增强安全特性(输入验证、后生成机制等)——这两者都将有助于您的系统鲁棒性。

回顾一下,我觉得我并没有说太多突破性的内容。老实说,我认为代理并不是一个革命性的想法。在我的观念中,代理是试图将一些使软件成为主导力量的想法——控制;效率;和规模——引入到非确定性和昂贵的LLM世界中。将执行者卡塞米罗与更具艺术感的莫德里奇和克罗斯进行平衡。那些永恒的老角色,从未真正失去其价值——就像您最喜欢的角色第一次超级赛亚人变身或甜豆令人叹为观止的防守。在一个似乎每个人都沉迷于新奇和不必要的“改变世界”进步的AI环境中,我认为欣赏这一点是很重要的。

这与我开始写时的内容差别很大,也与我通常写的内容相差甚远。让我知道您怎么看。

感谢您的阅读,祝您有美好的一天。

Dev ❤

我投入了很多精力来创作有信息量、有用且独立于不当影响的作品。如果您想支持我的写作,请考虑成为本新闻通讯的付费订阅者。这样做可以帮助我在写作/研究上投入更多精力,接触到更多人,并支持我对巧克力牛奶的沉迷。帮助我将AI研究和工程中最重要的思想传播给每周超过10万的读者。

帮助我购买巧克力牛奶

附言——我们遵循“您能支付多少就付多少”的模式,这允许您在自己的能力范围内支持我。查看此帖子以获取更多详细信息并找到适合您的计划

如果您喜欢这篇文章并希望分享,请参考以下指南。

这就是这篇文章的全部内容。感谢您的时间。和往常一样,如果您有兴趣与我合作或查看我的其他作品,我的链接将在这封邮件/帖子结束时提供。如果您觉得这篇文章有价值,我希望您能与更多人分享。正是像您这样的口碑推荐帮助我成长。 您可以在这里分享您的推荐

我定期在微型博客网站上分享我阅读的迷你更新,X(https://twitter.com/Machine01776819), Threads(https://www.threads.net/@iseethings404)和TikTok(https://www.tiktok.com/@devansh_ai_made_simple)——如果您有兴趣了解我的学习,请在那边关注我。

联系我

使用以下链接查看我的其他内容,了解更多关于辅导的信息,或就项目与我联系,或者只是打个招呼。

关于技术、人工智能和机器学习的小片段在这里

AI 时事通讯- https://artificialintelligencemadesimple.substack.com/

我奶奶最喜欢的技术时事通讯- https://codinginterviewsmadesimple.substack.com/

我(虚构的)妹妹最喜欢的 MLOps 播客- https://open.spotify.com/show/7wZygk3mUUqBaRbBGB1lgh?si=b93afa69de994c88&nd=1&dlsi=ac0f8d9ac35642d5

查看我在 Medium 上的其他文章。: https://rb.gy/zn1aiu

我的 YouTube: https://rb.gy/88iwdd

在 LinkedIn 上与我联系。让我们连接: https://rb.gy/m5ok2y

我的 Instagram: https://rb.gy/gmvuy9

我的 Twitter: https://twitter.com/Machine01776819

Related Posts

使用 ChatGPT 搜索网络功能的 10 种创意方法

使用 ChatGPT 搜索网络功能的 10 种创意方法

例如,提示和输出 你知道可以使用 ChatGPT 的“搜索网络”功能来完成许多任务,而不仅仅是基本的网络搜索吗? 对于那些不知道的人,ChatGPT 新的“搜索网络”功能提供实时信息。 截至撰写此帖时,该功能仅对使用 ChatGPT 4o 和 4o-mini 的付费会员开放。 ![](https://images.weserv.nl/?url=https://cdn-im

阅读更多
在人工智能和技术领域保持领先地位的 10 项必学技能 📚

在人工智能和技术领域保持领先地位的 10 项必学技能 📚

在人工智能和科技这样一个动态的行业中,保持领先意味着不断提升你的技能。无论你是希望深入了解人工智能模型性能、掌握数据分析,还是希望通过人工智能转变传统领域如法律,这些课程都是你成功的捷径。以下是一个精心策划的高价值课程列表,可以助力你的职业发展,并让你始终处于创新的前沿。 1. 生成性人工智能简介课程: [生成性人工智能简介](https://genai.works

阅读更多
10 个强大的 Perplexity AI 提示,让您的营销任务自动化

10 个强大的 Perplexity AI 提示,让您的营销任务自动化

在当今快速变化的数字世界中,营销人员总是在寻找更智能的方法来简化他们的工作。想象一下,有一个个人助理可以为您创建受众档案,建议营销策略,甚至为您撰写广告文案。这听起来像是一个梦想? 多亏了像 Perplexity 这样的 AI 工具,这个梦想现在成为现实。通过正确的提示,您可以将 AI 转变为您的 个人营销助理。在本文中,我将分享 10 个强大的提示,帮助您自动

阅读更多
10+ 面向 UI/UX 设计师的顶级 ChatGPT 提示

10+ 面向 UI/UX 设计师的顶级 ChatGPT 提示

人工智能技术,如机器学习、自然语言处理和数据分析,正在重新定义传统设计方法。从自动化重复任务到实现个性化用户体验,人工智能使设计师能够更加专注于战略思维和创造力。随着这一趋势的不断增长,UI/UX 设计师越来越多地采用 AI 驱动的工具来促进他们的工作。利用人工智能不仅能提供基于数据的洞察,还为满足多样化用户需求的创新设计解决方案开辟了机会。 1. 用户角色开发 目的

阅读更多
在几分钟内完成数月工作的 100 种人工智能工具

在几分钟内完成数月工作的 100 种人工智能工具

人工智能(AI)的快速发展改变了企业的运作方式,使人们能够在短短几分钟内完成曾经需要几周或几个月的任务。从内容创作到网站设计,AI工具帮助专业人士节省时间,提高生产力,专注于创造力。以下是按功能分类的100个AI工具的全面列表,以及它们在现实世界中的使用实例。 1. 研究工具 研究可能耗时,但人工智能工具使查找、分析和组织数据变得更加容易。**ChatGPT, Cop

阅读更多
你从未知道的 17 个令人惊叹的 GitHub 仓库

你从未知道的 17 个令人惊叹的 GitHub 仓库

Github 隐藏的宝石!! 立即收藏的代码库 学习编程相对简单,但掌握编写更好代码的艺术要困难得多。GitHub 是开发者的宝藏,那里“金子”是其他人分享的精心编写的代码。通过探索 GitHub,您可以发现如何编写更清晰的代码,理解高质量代码的样子,并学习成为更熟练开发者的基本步骤。 1. notwaldorf/emoji-translate *谁需

阅读更多