<返回更多

专访微软陶然:很多人认为有GPU就能做大模型,这是一个很大的误区丨科创100人

2023-08-10  新浪科技  
加入收藏

文 丨 新浪科技 周文猛

在今年由ChatGPT引爆的新一轮AI技术浪潮中,持有OpenAI 49%股权的微软公司,无疑成为最大的赢家。而在这背后,作为OpenAI商用化独家云服务提供商的微软Azure,同样也成了各界关注的焦点。

近日,微软大中华区Azure事业部总经理陶然在接受新浪科技《科创100人》采访时指出,AI时代,每个App和应用都应该被AI优化,因为构造APP的方式和APP本身的架构,正在被完全颠覆,“未来的APP应该叫AI原生”。据他介绍,基于这一判断,“过去半年间,微软基于AI重写了几乎所有内部产品”。

据新浪科技不完全统计,截至目前,国内已经出现超过100个大模型产品,其中,仅定位通用大模型和“通用+行业”的企业,便多达26家。然而,长远来看,这么多大模型产品中,最终能够留下的只能是少数。在对大模型算力、网络、数据调度等不同维度的成本进行分析后,陶然指出,“大模型意味着大成本,在一定程度上,大模型的价格永远是不可控的。”

每个APP都该被AI优化,过去半年微软革了自己的命

在这一轮由ChatGPT引爆的AI浪潮中,微软公司布局尤为迅速。

今年1月,微软Azure作为OpenAI独家云服务提供商,正式推出面向企业用户的Azure OpenAI国际版大模型服务。3月,当全球科技圈还在因为GPT3.5的出现而感到兴奋时,微软便宣布将基于新的GPT4推出Copilot人工智能服务,并将其嵌入word、PowerPoint、Exceloffice办公软件中。5月,微软宣布将在windows 11中加入Copilot AI助手,Windows也接入ChatGPT。

“过去几十年来,微软最有名的产品是Windows、Office和Azure。但你会发现,过去半年内,微软所有传统的软件产品也都全部实现了 AI的智能化和大模型的集成。”陶然表示。据他介绍,在过去半年间,微软几乎每周都有基于OpenAI或者基于AI的新产品或者新工具推出。

而微软之所以如此迅速地推进AI智能化以及大模型布局,背后有一个基本理念。那便是——微软认为,在AI时代,每个APP和应用都应该被AI优化,程序开发者将不再需要从头开始编写基本的业务逻辑,而是可以让每个应用直接嵌入到AI能力和大模型中,甚至于直接使用自然语言进行AI原生应用开发。

“过去10年,关注云计算行业的人都知道有一个词叫云原生,微软认为,未来的APP应该叫AI原生,因为构造APP的方式和APP本身的架构,都可以完全被颠覆。”陶然表示。他指出,云原生时代的APP形态,有着诸如容器、数据层、应用层的开发,但在AI时代,程序开

发的核心将变成“数据+模型”,通过feed learning或向量数据库的方式与模型进行交互,实现智能应用,并将其写入网站、H5或APP中。

陶然进一步介绍指出,“以前我们是将业务逻辑、商业逻辑和需求整合成为Hardcode(硬编码),但在未来智能应用中,我们需要更好地运用这些逻辑。”以RPA为例,以前我们写流程化产品时,每一个业务流程和环节都是固定的,但现在,当你提交完成后,AI会自动识别你当前任务的类型,自动帮你归类并找到相应的流程,并指导你执行。

“模型可以根据当时的上下文实时判断,这就是AI原生APP的一些特定理念。”陶然表示。据他介绍,事实上过去半年间,诸如数字原生、互联网电商、游戏娱乐等行业,已经成为GPT大模型落地最快的领域;此外,零售制造、汽车等传统行业也开始认真地去评估,甚至已经开始使用OpenAI大模型去升级传统企业业务。

“AI辅助工作越来越常见,人类与AI的协作将引领未来工作模式的变革。各行各业都可以使用自然语言与‘智能副驾’一起‘共事’,借助AI帮助自己和企业分析判断、解决复杂问题,提升组织的生产力。”陶然表示。

大模型≈大成本,比自研更重要的是变现

伴随着大模型研究讨论及落地讨论的不断深入,当前,大模型的成本问题,也成了各界关注的焦点。在与新浪科技沟通中,陶然指出,事实上,大模型的产生和落地,成本是非常多元的,包括硬件成本、算力成本、网络成本、算法成本、边际成本等。“在一定程度上,大模型意味着大成本,大模型的成本永远是不可控的”。

目前,业界普遍认为,算力成本是制约大模型发展的一大要素。但在陶然看来,算力是大模型发展中非常重要的一部分,是提升向量、矢量运算速度的关键,但大模型成本的节约一定不只是因为算力。他指出,目前国内认为只要有GPU便能够做大模型,但事实上这是一个很大的

误区。以不同GPU连接的带宽为例,目前很多厂商和个人没有能力去实现这种连接,但事实上,卡带宽的速度,直接决定了大模型训练所需花费的时间成本,同样的一套模型,如果训练一次需要花费一周成本为100万美元,但如果带宽太小最终耗时两周,那成本就将乘以2。

“到了这一环节,真正的壁垒便不再是GPU,而是变成了网络层。”而且,即便你解决了GPU带宽的问题,后续编写数据调度算法,运用开发等方面,依然需要耗费大量的成本。“因此,大模型的成本永远是不可控的,大模型意味着大数据量、大参数量、硬件投入、算力成本以及算法成熟度都非常重要,如果写得不好,可能需要比别人多训练几十次,每次都会面临很高的成本。”陶然表示。

在他看来,大模型又被称为大成本,这实际上是市场的共识,并非微软的态度。与此同时,由于具备ChatGPT研发的先发效应和大量微软内部落地运用变现能力,目前微软已经联合OpenAI推动了数次大模型成本下降,真正让AI模型使用平民化。

陶然介绍指出,微软和OpenAI的战略一直非常明确,一致认为大模型应该成为AI时代的基础架构。类似于百年前的水电煤和过去10年的云服务,基础架构的特点便是使用灵活且成本低,可以让每个企业和个人都使用。在这种情况下,国内外厂商需要考虑是否具备足够的模型能力,以及模型的定价能力,来与微软持平,“从经济学上来说,这可能是一个挑战,这也是一个需要考虑的问题”。

自1992年进入中国市场,31年间,微软已先后在国内建立了5座数据中心。2022年3月,微软上线了最新的中国北三区云数据中心,据介绍,该数据中心的容量,相当于微软此前4个数据中心容量总和的2倍。在陶然看来,对于云计算企业客户而言,“选择云服务不仅仅取决于云服务本身的能力和定位,还要关注客户的生态”

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>