人们一直存在一个误解,认为使用生成式 AI 进行构建的成本很高。训练尖端基础模型的成本确实很高,许多公司已经花费了数十亿美元来做这件事(甚至发布了一些开放权重模型)。但结果是,现在构建各种 AI 应用程序的成本非常低。
AI 堆栈有几个层,如下图所示。以下是从下往上的较低层:
• 半导体。 Nvidia 一直是这个领域的巨大受益者。 AMD 的 MI300 和即将推出的 MI350 也是 Nvidia H100 和延迟的 Blackwell 芯片的强大替代品。
• 云。 AWS(披露:我是亚马逊董事会成员)、Google Cloud 和 Microsoft Azure 使开发人员可以轻松构建。
• 基础模型。这包括专有模型(例如 OpenAI 和 Anthropic 的模型)和开放权重模型(例如 Meta 的 Llama)。
基础模型层经常出现在头条新闻中,因为构建基础模型的成本太高。一些公司在训练这些模型方面投入了大量资金,其中一些公司还进一步炒作,指出按照缩放定律,为计算和数据支付大量费用将(可能)带来可预测的更好性能。
这一层目前竞争也异常激烈,应用程序开发人员从一个模型转移到另一个模型的成本相当低(例如,只需更改几行代码)。红杉资本关于“人工智能的 6000 亿美元问题”的深思熟虑的文章指出,为了证明对人工智能基础设施(特别是 GPU 购买和数据中心建设)的大规模资本投资是合理的,生成式人工智能需要获得约 6000 亿美元的收入。这使得在基础模型层进行投资变得具有挑战性。它成本高昂,而且这个行业仍然需要弄清楚如何实现回报。 (我谨慎乐观地认为它会成功!)
在此层之上是一个新兴的编排层,它提供的软件可帮助协调对 LLM 和其他 API 的多个调用。这一层正变得越来越具有代理性。例如,Langchain 已帮助许多开发人员构建 LLM 应用程序,并且它演变为用于构建代理的 LangGraph 是一项巨大的进步。其他平台,如 Autogen、MemGPT 和 CrewAI(披露:我个人投资了 CrewAI)也使构建代理工作流变得更加容易。这一层的切换成本比基础模型层高得多,因为如果您在其中一个框架上构建了代理,则切换到另一个框架需要做大量工作。尽管如此,编排层的竞争似乎很激烈,就像基础模型层一样。
最后,还有应用层。几乎按照定义,这一层在财务上必须比下面的所有层做得更好。事实上,为了使较低层的投资具有财务意义,应用程序最好能产生更多收入,这样应用程序供应商才有能力支付基础设施、云计算、基础模型和编排提供商的费用。(这就是我的团队 AI Fund 主要关注 AI 应用程序公司的原因,正如我在一次演讲中讨论的那样。)
幸运的是,由于对基础模型的大量投资,现在在应用程序层进行实验和构建原型的成本非常低!感恩节假期期间,我花了大约一天半的时间来为不同的生成式 AI 应用程序制作原型,我的 OpenAI API 调用费用约为 3 美元。在我用于原型设计和实验的个人 AWS 账户上,我最近的月度账单是 35.30 美元。我发现,只需花费少量的钱,在这些平台上就能获得如此多的乐趣,真是太神奇了!
通过构建广泛可用的 AI 工具,AI Fund 现在预算 55,000 美元来获得一个可运行的原型。虽然这是一大笔钱,但远低于公司为开发基础模型而筹集的数十亿美元。个人和企业可以以合理的成本试验和测试重要的想法。
吴恩达
2024年12月3日
吴恩达(1976-,英文名:Andrew Ng),华裔美国人,斯坦福大学计算机科学系和电子工程系副教授,人工智能实验室主任。吴恩达是人工智能和机器学习领域国际上最权威的学者之一。吴恩达也是在线教育平台Coursera的联合创始人(with Daphne Koller),DeepLearning.AI创始人。
2014年5月16日,吴恩达加入百度,担任百度公司首席科学家,负责百度研究院的领导工作,尤其是Baidu Brain计划。
2024年4月,亚马逊将吴恩达纳入其董事会。
(本文是翻译,文章内容不代表本号立场)
觉得文章不错,顺手点个“点赞”、“在看”或转发给朋友们吧。
相关阅读:
最新洞见:GenAI在企业应用中的既要又要
短短3个月,我们在GenAI上的进展
关于译者
关注公众号看其它原创作品
坚持提供对你有用的信息