发布于: Feb 24, 2023

亚马逊云科技宣布与 Hugging Face 进一步合作,以加速对大语言模型和视觉模型的训练、精调和部署,促进生成式 AI 应用的创建。生成式 AI 应用可以执行各种任务,包括文本摘要、问题回答、代码生成、图像生成以及文本撰写等。

亚马逊云科技在生成式 AI 创新方面拥有深厚历史。例如,亚马逊使用 AI 技术为 Amazon Alexa 用户提供对话体验,每周用户互动次数达到数十亿次,同时也越来越多地使用生成式 AI 来支持新体验,如“Create with Alexa”功能。此外,作为亚马逊搜索(Amazon Search)的一个小组,M5 可以帮助亚马逊各地团队将大模型应用到他们的应用程序中,并训练大模型以提升 Amazon.com 网站的搜索结果。亚马逊云科技持续在机器学习(ML)的所有领域中创新,包括基础设施、Amazon SageMaker 相关工具和开箱即用的 AI 服务,比如 Amazon CodeWhisperer,它嵌入到程序员使用的 IDE 中,通过注释来生成建议代码,以提高开发人员的生产力。为加速机器视觉与大语言模型的训练和推理,亚马逊云科技还推出了自研训练芯片 Amazon Trainium 与推理芯片 Amazon Inferentia。

Hugging Face 之所以选择亚马逊云科技作为首选云供应商,是因为它提供了灵活、可选的全球领先性能工具,例如 Amazon SageMaker、Amazon Trainium 和 Amazon Inferentia,满足了 Hugging Face 模型训练、精调和部署需求。依赖于此,开发人员使用 Hugging Face 可以轻松优化性能并降低成本,从而更快地将生成式 AI 应用投入到生产环境。

“AI 的未来已经到来,但并非每个人都能平等享用 AI。”Hugging Face 首席执行官 Clement Delangue 表示,“可访问性和透明性是以明智和负责任的方式使用这些新功能,从而能够共享成果和创造新工具。Amazon SageMaker 和亚马逊云科技定制芯片会帮助我们的团队和更大的机器学习社区,将最新研究成果转化为人人都可构建的、公开的可复制模型。”

大语言模型和视觉模型的构建、训练和部署是一个昂贵且耗时的过程,需要深厚的机器学习专业知识的支持。这两类模型非常复杂,可能包含数千亿个参数,因此在很大程度上,许多开发人员无法使用生成式 AI。

为了弥补这一差距,Hugging Face 与亚马逊云科技建立合作,让开发人员更易通过访问亚马逊云科技的服务,来应用部署 Hugging Face 模型,尤其是那些生成式 AI 模型。这样做的好处是:可以更快地训练与扩展低延迟和高吞吐的推理任务。例如,由 Amazon Trainium 支持的 Amazon Elastic Compute Cloud (Amazon EC2) Trn1 实例提供了更快的训练时间,与基于 GPU 的实例相比,可节省高达50%的训练成本。而由最新一代 Amazon Inferentia 芯片支持的 Amazon EC2 Inf2 实例,旨在部署最新一代大语言模型和视觉模型。相比 Inf1 实例,Inf2 实例吞吐量提升了4倍,延迟降低了10倍。Amazon SageMaker 为 ML 提供工具和工作流,开发人员可以通过 Amazon SageMaker 等托管服务使用 Amazon Trainium 和 Amazon Inferentia,亦或在 Amazon EC2 上自行管理。

“生成式 AI 蕴藏着改变整个行业的巨大潜力,但其成本和所需的专业知识使该技术无法为除少数公司之外的所有公司所用。”亚马逊云科技首席执行官 Adam Selipsky 表示,“Hugging Face 和亚马逊云科技让用户更易访问流行的机器学习模型,以最高的性能和最低的成本创建自己的生成式 AI 应用。此次合作充分说明,生成式 AI 公司和亚马逊云科技的合作可以让更多客户对创新技术触手可及。”

客户可以通过三种方式在亚马逊云科技平台上调用 Hugging Face 模型,如使用 SageMaker JumpStart、Hugging Face 亚马逊云科技深度学习容器(DLC),或者根据教程将已有模型部署到 Amazon Trainium 或 Amazon Inferentia。Hugging Face DLC 包含了优化的 transformer、数据集和标记器库,使用户将大规模地精调和部署生成式 AI 应用程序的时间从几周缩短到几小时,并且只需极少的代码更改。SageMaker JumpStart 和 Hugging Face DLC 在提供 Amazon SageMaker 服务的所有区域上均可使用,无需额外费用。