微软内部遭遇AI硬件短缺 被迫实施配额制

 邮箱网  0条评论  1317次浏览  2023年03月16日 星期四 10:03

分享到: 更多


新浪科技讯 北京时间3月16日上午消息,据报道,知情人士透露,虽然微软即将宣布一整套使用GPT-4人工智能(AI)软件的Office 365工具,但该公司现在却面临内部AI服务器硬件短缺的窘境。

这迫使微软不得不对硬件资源采取配额供应的方式,限制其他内部AI工具开发团队的使用量,从而确保基于GPT-4的新版必应聊天机器人和即将发布的新款Office工具获得足够的资源。这种硬件短缺的现状还对微软的客户产生了影响:至少有一个客户表示,需要等待很长时间,才能使用已经通过微软Azure云服务提供的OpenAI软件。

微软表示正在加紧添置更多硬件,以便增加AI计算能力,但如果速度不够快,就有可能限制其Azure OpenAI服务对新客户的吸引力。这些客户会借助此项服务将AI功能添加到自己的应用中。微软原本在这种新的AI工具的商业化方面已经领先于谷歌(96.55, 2.30, 2.44%),但如果迟迟不能解决硬件短缺问题,这种优势也将难以发挥出来。

谷歌抢在微软之前于本周发布了自己的AI辅助写作工具,包括能够根据简短的提示,在谷歌Docs和Sheets中自动编写文本的软件。

服务器短缺正值OpenAI和微软试图快速扩大销售范围之际,客户可以使用自己的数据对这种AI软件进行微调,从而开发图片生成、文档总结、搜索引擎和聊天机器人等定制化AI工具。

微软已经向OpenAI投资了数十亿美元,有权通过Azure OpenAI服务向创业公司销售软件。OpenAI也将软件直接授权给客户使用——而作为与微软合作的一部分,所有OpenAI机器学习模型都必须运行在Azure服务器上。这两项服务的定价相同,每次请求收费都不到一美分。

这两家公司在过去3个月推出的服务吸引了企业用户的广泛兴趣,他们都希望将OpenAI的ChatGPT聊天机器人的底层技术整合到自家产品中。但是微软Azure OpenAI服务的新客户却要面临很长的等待时间。

硬件资源短缺的核心问题在于,GPT-4等新的AI大模型需要在GPU上运行,这种服务器芯片可以一次性处理大量数据。为了处理这个模型的庞大计算需求,微软已将数万个GPU整合成一个个群集,分散到各个数据中心里。

在明确用户需求量之前,微软目前不得不将现有的大量GPU资源预留给新的必应GPT-4聊天机器人和即将推出的GPT-4 Office工具。

知情人士表示,微软2月刚刚推出这项必应智能聊天功能,目前还在加紧测算平均每天有多少人愿意使用这项服务。知情人士表示,这就导致工程师很难预测该功能所需的计算资源。

而即将推出的Office GPT-4工具也可能导致微软客户对OpenAI聊天机器人技术的需求大幅激增。这些新功能包括AI文档总结、个性化写作建议以及编辑建议等。

其他从事AI开发的微软团队不得不让位于必应和Office,包括为各种机器学习模型的开发团队,其中就包括微软的图灵自然语言生成模型,它可以理解文本,之前曾为电子邮件和Office应用中的搜索工具提供底层技术。

知情人士表示,当这些团队想要使用GPU开发新的AI工具或测试现有AI软件时,必须向一位公司副总裁提交特别申请,获批后才能使用硬件。

知情人士称,有些申请需要等待几天甚至几周才能获批。自2022年末,微软就一直对内部的GPU资源实施配额供给,但1月以来的等待时间越来越长。

微软发言人在声明中补充道,该公司正在为Azure等服务增加更多AI资源,并且遵循“优先满足客户需求并根据需求进行调整的流程”。他们还补充道,微软并不担心AI资源。

至少有一个微软客户透露,他们也经历了延迟访问的问题。市场营销软件创业公司TouchCast创始人兼CEO Edo Segal说:“几乎不可能立刻使用程序”。Edo的公司正在为多家车企开发基于GPT的互动式用户手册,而这项技术正是通过微软Azure授权的。

现有的AzureAI客户几乎未受影响。无人驾驶汽车开发商Cruise和AI搜索创业公司Perplexity的发言人都表示,他们在使用Azure的GPU资源时并未遇到困难。

去年11月,微软和GPU生产商英伟达共同宣布,微软将新增数万个处理器来扩大AI处理能力,但目前还不清楚采购进度。

这两家公司还在周一共同宣布,Azure的客户很快就能抢先使用英伟达的新款H100 GPU——这款产品尚未广泛发布。而知情人士称,已经有少部分微软内部团队开始使用H100,但多数部门尚未获得这项权限。

标签:微软AI

我的评论:

请  后发表评论。