通答AI 7月26日消息 今年以来,AI大模型成为科技公司竞争的焦点。许多国内外企业都投身于大模型的训练中。最近,Meta宣布开源了Llama2大语言模型,该模型拥有最高700亿参数,并且支持免费商业使用,引起了业界的关注。然而,要部署如此规模的大模型对开发者来说并不容易。幸运的是,阿里云率先支持Llama2全系列模型的训练和部署,为开发者提供了便利。
7月25日,阿里云宣布在国内率先推出了针对Llama2全系列版本的训练和部署方案。他们欢迎所有开发者来阿里云上构建属于自己的大模型。
Llama2大语言模型最近宣布开源,覆盖了70亿、130亿和700亿参数版本。Llama2可以免费用于研究场景和月活7亿用户以下的商业场景,为企业和开发者提供了新的大模型研究工具。
然而,对Llama2的再训练和部署仍然存在较高门槛,特别是对于效果更好的大尺寸版本来说。
为了方便开发者,阿里云机器学习平台PAI在国内率先对Llama2系列模型进行了深度适配,并推出了轻量级微调、全参数微调和推理服务等场景的最佳实践方案,帮助开发者快速基于Llama2进行再训练,构建自己的专属大模型。
阿里云还牵头发起了AI模型社区魔搭ModelScope,该社区第一时间上架了Llama2系列模型。开发者可以在魔搭社区的Llama2模型页面上点击"Notebook快速开发",一键启动阿里云机器学习平台PAI,对模型进行云上开发和部署。对于在其他平台下载的Llama2模型,开发者也可以使用阿里云PAI进行开发。
针对特殊场景的需求,开发者通常需要使用微调训练的方法对模型进行调整,以获得特定领域的专业能力和知识。
在这种情况下,PAI支持开发者在云上进行轻量级或更深度的全参数微调。完成模型微调后,开发者可以通过Web UI和API的方式部署Llama2,使模型可以通过网页或嵌入应用与用户进行交互。
与本地单机训练Llama2相比,在阿里云上可以更好地开发超大尺寸模型,并且预置环境无需运维,操作简单方便。此外,开发者还可以获得丰富的AI计算资源和极致的弹性。
本地单卡GPU只能完成Llama2 70亿参数版本的轻量级微调和推理,更大尺寸版本和更深度的训练则很难支持。
在阿里云上,通过PAI灵骏智算服务提供的分布式计算能力,可以对Llama2全尺寸版本进行轻量级和全参数微调,并进行高效的部署和推理。
作为全球前三、亚洲第一的云厂商,阿里云是中国AI浪潮的重要引领者和服务提供者。他们已经构建了完备的IaaS+PaaS+MaaS一体化AI服务。
在基础设施层面,阿里云拥有国内最强的智能算力储备。他们的灵骏智算集群具有最大十万卡GPU规模扩展性,可以承载多个万亿参数的大模型同时在线训练。
在AI平台层面,阿里云机器学习平台PAI提供了AI开发全流程的工程能力。PAI灵骏智算服务支持了通义千问等超大模型的训练和应用,可以将大模型的训练性能提高近10倍,推理效率提升37%。
在模型服务层面,阿里云建立了国内最活跃的AI模型社区魔搭,并支持企业基于通义千问或第三方大模型进行再训练。
今年7月初,阿里云宣布将促进中国大模型生态的繁荣作为首要目标。他们将向大模型创业公司提供全方位的服务,包括模型训练、推理、部署、精调、测评和产品化落地,并在资金和商业化探索方面提供充分的支持。