生成式AI的下一个十亿美元机会 - 企业市场的崛起

生成式AI在2023年以惊人的速度席卷了消费者市场,创下了超过十亿美元的消费支出记录。展望 2024 年,我们预计企业领域的收入潜力将会数倍增长。

去年,消费者们热衷于与AI情感陪伴机器人交流,或是利用diffusion模型来创作图像和视频,而企业对生成式AI的应用似乎还停留在一些显而易见的场景,以及推出一些简单的“GPT套壳”产品。一些悲观者质疑生成式 AI 是否真的能够在企业中大规模应用。我们是不是只能局限在那几个用例中?这些初创公司真的能盈利吗?这一切会不会只是炒作?

在过去几个月里,我们与众多财富500强和顶尖企业的领导者进行了对话,调查了70多家企业,以了解他们如何使用、采购和为生成式 AI 制定预算。我们惊讶地发现,在过去六个月里,这些领导者对生成式 AI 的资源投入和态度发生了巨大变化。尽管他们对部署生成式 AI 仍持谨慎态度,但他们的预算几乎翻了三倍,用例数量也在增加,更多的实验性工作负载开始转向生产环境

对于创业者来说,这是一个巨大的机遇。我们认为,那些能够围绕企业以 AI 为中心的战略需求进行构建,并预见到潜在挑战的 AI 初创公司,以及那些从侧重服务的模式转向开发可扩展产品的公司,将能够抓住这一波新的投资浪潮,占据显著的市场份额

正如往常一样,为企业打造和销售产品需要深刻理解客户的预算、顾虑和发展规划。为了帮助创业者洞察企业领导者如何决策部署生成式 AI,以及让 AI 领域的高管们了解同行是如何处理相同问题的,我们根据最近与这些领导者的交流,概述了关于资源配置、模型选择和用例应用的 16 个关键考虑点:

资源配置:预算激增,且将持续增长

1. 生成式 AI 的预算正在飞速上升

在 2023 年,我们调研的数十家公司在基础模型 API、自托管和模型微调上的平均每家支出为 700 万美元。而且,几乎每家我们交谈的企业都对生成式 AI 实验的初步成效感到满意,并计划在 2024 年将预算增加 2 至 5 倍,以便将更多工作负载推向生产环境。
average enterprise spend on llms

2. 领导者开始将 AI 投资转移到常规软件预算中。

去年,企业在生成式 AI 上的支出主要来自“创新”预算和其他一次性资金。然而到了 2024 年,许多领导者将这部分支出转移到了更持久的软件预算项目中;不到四分之一的受访者表示今年的生成式 AI 支出将来自创新预算。我们还开始看到一些领导者将生成式 AI 预算用于人员成本节约,尤其是在客户服务领域。我们认为,如果这一趋势持续下去,未来对生成式 AI 的支出将会大幅增加。有一家公司表示,他们的 LLM 驱动的客户服务每通电话可节省约 6 美元——总共节省约 90% 的成本——这是他们决定将生成式 AI 投资增加八倍的原因之一。

以下是企业如何分配他们的大语言模型预算的概览:
llm enterprise budget allocation

3. 衡量投资回报率(ROI)仍是一项挑战。

目前,企业领导者主要通过 AI 提升的生产力来衡量投资回报率。他们依赖 NPS 和客户满意度作为良好的代理指标,同时也在寻找更具体的衡量方法,如收入增长、节省成本、效率提升和准确性提高,具体取决于他们的用例。短期内,领导者们仍在推出这项技术并寻找最佳的衡量指标,但在未来 2 至 3 年内,ROI 将变得越来越重要。在领导者寻找答案的过程中,许多人选择相信员工的说法,即他们的时间利用更加高效了。
enterprises measuring ROI on spend

4. 部署和扩展生成式 AI 需要专业的技术人才,而许多企业内部并不具备这样的人才。

仅仅拥有模型提供商的 API 并不足以在大规模上构建和部署生成式 AI 解决方案。这需要高度专业化的人才来实施、维护和扩展所需的计算基础设施。在 2023 年,仅实施一项就占据了 AI 支出的最大比例之一,在某些情况下甚至是最大的。一位高管提到,”LLMs 的成本可能只占构建用例成本的四分之一”,而开发成本占据了预算的大部分。

为了帮助企业快速启动和运行他们的模型,基础模型提供商提供了专业服务,通常涉及定制模型开发。我们估计这在 2023 年为这些公司带来了相当大的收入,并且除了性能之外,也是企业选择某些模型提供商的关键原因之一。由于在企业中获得优秀的生成式 AI 人才非常困难,那些提供工具以简化将生成式 AI 开发引入内部的初创公司可能会更快地获得机会

模型:企业正朝着多模型、开源的方向发展

5. 未来的发展趋势是多模型。

就在 6 个月前,大多数企业还在尝试 1 个模型(通常是 OpenAI 的)或最多 2 个模型。然而,当我们今天与企业领导者交谈时,他们正在测试–甚至在某些情况下已经在生产环境中使用–多个模型。这样做使他们能够:
1. 根据性能、规模和成本为不同用例量身定制解决方案;
2. 避免被锁定在单一供应;
3. 快速利用快速发展领域的最新进展 - 第三点对领导者来说尤为重要,因为模型排行榜是动态变化的,公司们都渴望结合当前最先进的模型和开源模型,以获得最佳成果。
llm model providers pushed to use cases

我们可能会看到更多模型涌现。在下表中 (基于调查数据绘制),企业领导者报告了多个正在测试的模型,这预示着这些模型将被用于推动工作负载进入生产环境。对于生产应用场景中,OpenAI不出所料地仍然占据主导地位。
llm providers enterprise

6. 开源正在蓬勃发展。

这是过去 6 个月中最为惊喜的变化之一。我们估计 2023 年的市场份额中,闭源模型占了 80% 至 90%,其中大部分份额流向了 OpenAI。然而,46% 的调查受访者表示,他们更倾向于或强烈倾向于在 2024 年使用开源模型。在访谈中,近 60% 的 AI 领导者表示,他们有兴趣增加开源模型的使用或在经过微调的开源模型性能与闭源模型大致相当时进行切换。因此,从 2024 年开始,企业预计会显著转向开源,有些甚至明确表示目标是实现 50/50 的比例–相比 2023 年的 80% 闭源/20% 开源结构有了显著提升。
enterprise expectations for open source usage in 2024

7. 尽管成本是开源模型吸引力的一个因素,但它在控制和定制这两个关键选择标准中排名较低。

控制(专有数据的安全性和理解模型为何产生某些输出)和定制(针对特定用例进行有效微调的能力)远比成本更重要。我们对成本不是首要考虑因素感到惊讶,但这反映了领导者们目前的信念,即生成式 AI 创造的额外价值可能会远远超过其成本。正如一位高管所解释的:”获得准确答案的价值是无法估量的。”
why do enterprises care about open source

8. 对控制的需求源于敏感用例和企业数据安全问题。

出于监管或数据安全考虑,企业仍然不愿意与闭源模型提供商共享他们的专有数据–这一点对于那些以 IP 为核心的公司来说尤其明显。虽然一些领导者通过自己托管开源模型来解决这个问题,但其他人则表示,他们更倾向于选择具有虚拟私有云(VPC)集成的模型。

9. 领导者通常通过微调现有模型,而不是从头开始构建模型来满足特定需求。

在 2023 年,围绕构建定制模型(如 BloombergGPT)的讨论非常热烈。到了 2024 年,企业仍然对定制模型感兴趣,但随着高质量开源模型的出现,大多数人选择不再从头开始训练自己的大语言模型,而是采用检索增强生成(RAG)或针对特定需求微调开源模型。
how are enterprises customizing llms

10. 云服务提供商在模型采购决策中仍然具有重要影响。

在 2023 年,许多企业出于安全考虑,通过现有的云服务提供商(CSP)购买模型–领导者们更担心闭源模型处理他们的数据不当,而不是他们的 CSPs–并为了避免漫长的采购流程。到了 2024 年,这种情况仍然没有改变,这意味着 CSP 和首选模型之间的相关性仍然很高:Azure 用户普遍更倾向于 OpenAI,而 Amazon 用户则更倾向于 Anthropic 或 Cohere。正如我们在下面的图表中看到的,在使用 API 访问模型的 72% 的企业中,超过一半的企业使用了他们的 CSP 托管的模型。(需要注意的是,超过四分之一的受访者选择了自托管,可能是为了运行开源模型。)
where do enterprises access llms

11. 客户仍然关注早期市场的新功能。

尽管领导者们认为推理能力、可靠性和易于访问(例如,在他们的 CSP 上)是采用特定模型的主要原因,但他们也被具有其他独特功能的模型所吸引。例如,多位领导者提到之前的 200K 上下文窗口是他们选择 Anthropic 的关键原因,而其他人则因为 Cohere 提供的早期市场、易于使用的微调产品而选择了它。

12. 尽管如此,大多数企业认为模型性能正在趋同。

虽然技术界的大多数人专注于将模型性能与公共基准进行比较,但企业领导者更关注将经过微调的开源模型和闭源模型与他们自己的内部基准集进行比较。有趣的是,尽管闭源模型通常在外部基准测试中表现更好,但企业领导者仍然给予开源模型相对较高的 NPS(在某些情况下更高),因为它们更容易微调到特定用例。一家公司发现,”经过微调后,Mistral 和 Llama 的表现几乎与 OpenAI 一样好,但成本要低得多。”按照这些标准,模型性能的趋同速度甚至比我们预期的还要快,这给了领导者更广泛的非常有能力的选择范围。
how enterprise leaders evaluate model performance
average llm nps enterprise

13. 优化选择的灵活性。

大多数企业都在设计他们的应用程序,以便在模型之间切换只需要一个 API 变更。一些公司甚至预先测试了提示语,以便一键切换,而其他公司则构建了”模型花园”,让他们可以根据不同的需求部署模型到不同的应用程序。公司采取这种方法的部分原因是因为他们从云时代学到了关于减少对供应商依赖的艰难教训,部分原因是市场正在如此快速地发展,承诺单一供应商似乎是不明智的。

用例:更多迁移到生产环境

14. 企业正在构建,而不是购买应用程序。

企业压倒性地专注于内部开发应用,其中一个驱动因素是缺乏经过市场验证的、极具竞争力的企业AI应用。毕竟,市场还没有针对此类应用的成熟评估体系 (至少目前还没有)。同时,基础模型通过提供 API 使企业比以往任何时候都更容易构建自己的 AI 应用。企业目前不仅在开发熟悉的应用场景的定制版本,例如客户支持和内部聊天机器人,还在尝试更多新颖的应用,如生成消费品配方、缩小药物分子筛选范围以及提供销售建议等。关于那些”套壳GPT”初创公司,即为大语言模型输出的常见功能 (如文档摘要) 提供熟悉界面 (如聊天机器人) 的公司,已有大量文章讨论其差异化有限。我们认为这些公司将难以发展的一个原因是,AI 进一步降低了企业内部开发类似应用的门槛。

然而,当更多面向企业的 AI 应用程序进入市场时,这种状况是否会发生变化仍有待观察。虽然一位领导者指出,尽管他们在内部构建了许多用例,但他们乐观地认为”将会出现新工具”,并更愿意”使用最好的工具”。其他人认为生成式 AI 是一个日益增长的”战略工具”,允许公司将某些功能引入内部,而不是像传统上那样依赖外部供应商。鉴于这些,我们相信,超越”LLM + UI”并显著重新思考企业的基本工作流程或帮助企业更好地利用自己的专有数据的AI应用程序将在这一市场中表现出色。

15. 企业对内部用例感到兴奋,但对外部用例持谨慎态度。

这是因为企业对生成式 AI 仍有两大主要担忧:1) 潜在的幻觉和安全问题;2) 部署生成式 AI 时的公关问题,特别是在敏感的消费者领域(例如,医疗保健和金融服务);

过去一年最受欢迎的应用场景要么侧重于提高内部生产力,要么在呈现给客户之前由人工把关,例如编程助手、客户支持和营销。正如下图所示,在 2024 年,这些应用仍主导着企业的生成式 AI 部署。企业将文本摘要和知识管理 (如内部聊天机器人) 等纯内部应用推向生产环境的比率,远高于合同审查等需要人工参与的敏感应用,以及外部聊天机器人或推荐算法等面向客户的应用。企业非常希望避免生成式 AI 失误导致的负面影响,例如加拿大航空公司客服灾难事件。由于大多数企业仍然非常担心这些问题,那些为控制这些风险而开发工具的初创公司,可能会受到企业的广泛采用
how willing are enterprises to use llms for different use cases

总机会规模:巨大且快速增长

16. 我们预计,到 2024 年底,模型 API 和微调的总支出将超过 50 亿美元的年化运营规模,企业支出将占据这一机会的重要部分。

根据我们的估算,模型 API (包括微调) 市场在 2023 年底的年化运营收入约为 15-20 亿美元,包括通过 Azure 在 OpenAI 模型上的支出。考虑到整体市场的预期增长和企业的明确意向,仅这一领域的支出到年底就将增长到至少 50 亿美元的年化运营规模,并有显著的增长潜力。正如我们所讨论的,企业已经将生成式 AI 部署作为优先事项,增加预算并将其重新分配到标准软件产品线,在不同模型之间优化应用场景,并计划在 2024 年将更多工作负载推向生产环境,这意味着它们可能会推动这一增长的很大一部分。

在过去的 6 个月里,企业从高层发布了寻找和部署生成式 AI 解决方案的指令。过去需要一年多才能完成的交易,现在只需 2 到 3 个月就可以敲定,而且这些交易的规模比过去大得多。虽然这篇文章的重点是基础模型层,但我们相信企业的这一机会也延伸到技术栈的其他部分,从帮助微调的工具到模型服务,再到应用程序构建和专门构建的原生AI应用。我们正处于企业生成式 AI 发展的拐点,我们很高兴能与服务这个充满活力和不断增长的市场的新一代公司合作。

原文链接:https://a16z.com/generative-ai-enterprise-2024/