|
ChatGPT 每天运行成本 70 万美元 微软自研 AI 芯片试图让它变得更便宜 |
来源:网站维护 |
作者:www.weihula.com |
人气: |
2023-4-21 |
|
|
|
|
|
|
|
|
内容提示:人工智能目前非常热门,每天有数百万用户使用 ChatGPT。由于需求如此之高,因此运营 ChatGPT 需要的费用也很高。研究公司 SemiAnalysis 的首席分析师 Dylan Patel 估计,ChatGPT 目前每天要耗费 OpenAI 公司 70 万美元,或每个问题回复耗费 36 美分。 |
|
|
|
|
|
|
|
|
|
人工智能目前非常热门,每天有数百万用户使用 ChatGPT。由于需求如此之高,因此运营 ChatGPT 需要的费用也很高。研究公司 SemiAnalysis 的首席分析师 Dylan Patel 估计,ChatGPT 目前每天要耗费 OpenAI 公司 70 万美元,或每个问题回复耗费 36 美分。
这是一笔不小的开支,而且 AI 公司,包括微软,需要从英伟达等公司大量购买 GPU 以帮助维护其 AI 服务,因为需求不断增加。行业分析师估计,OpenAI 可能需要在今年订购 3 万个额外的英伟达 GPU 来支持其商业努力。
构建自己的 AI 芯片可以帮助降低成本,这似乎正是微软正在做的事情。微软自己的 AI 芯片代号为「Athena 雅典娜」。据报道,它已经有了足够的优势,并已在微软内部的某些团队进行了测试。该公司计划在明年将其 AI 芯片分配给其 Azure AI 服务。
行业内部人士表示,他们不指望微软直接取代 英伟达,而是减少对其的依赖。由于 ChatGPT 运行在 Azure 服务上,降低成本将有助于 OpenAI 以更便宜的费用运行 ChatGPT,以及其他选择 Azure 作为主机的 AI 服务。
在谷歌推出名为 Bard 的 AI 产品之后,微软在过去几个月里一直在积极推动人工智能。最近的报道称,一些谷歌员工对 Bard 没有信心,觉得谷歌为了对抗微软的 Bing AI 而匆忙面向市场推出了该产品。
|
【声明】本文章系本站编辑转载,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容! |
|
|
|
|
|
|
|
|