发布于: Jul 29, 2022

机器学习服务并行的是开发者学习框架层。这一层侧重于向用户传授 ML 技术和技巧,因此不适用于大规模生产。

Amazon Web Services DeepRacer

Amazon Web Services DeepRacer 是一个 1/18 比例的赛车,它提供了一种使用强化学习 (RL) 的入门方法。Amazon Web Services DeepRacer 通过在 Amazon SageMaker 中生成模型,在模拟器中进行测试并将 RL 模型部署到汽车中,提供了一种进行 RL 实验和了解 RL 的方法。

ML 平台层下面是 ML 引擎和框架层。这一层提供对最热门的机器学习工具的直接并可实际动手操作的访问。这一层包含 Amazon Web Services 深度学习 AMI,可为您提供基础设施和工具来加速云中的深度学习。AMI 将几个重要的工具和框架打包在一起,并预装了 Apache MXNet、TensorFlow、PyTorch、Microsoft Cognitive Toolkit (CNTK)、Caffe、Caffe2、Theano、Torch、Gluon、Chainer 和 Keras,用于训练复杂的自定义 AI 模型。使用深度学习 AMI,您可以创建托管的并自动扩缩的 GPU 集群以进行大规模训练,或者通过计算优化型或通用型 CPU 实例在已训练好的模型上运行推理。

ML 模型训练和部署支持

基础设施和无服务器环境层提供了支持训练和部署机器学习模型的工具。机器学习需要各种功能强大的计算选项,从用于计算密集型深度学习的 GPU 到用于专用硬件加速的 FPGA,再到用于运行推理的内存增强型实例,应有尽有。

Amazon Elastic Compute Cloud (Amazon EC2)

Amazon EC2 提供了经过优化的广泛实例类型,以适应机器学习不同使用场景的需求。实例类型包括 CPU、内存、存储和网络容量的各种组合,无论您是训练模型还是在已训练好的模型上运行推理,都可以灵活选择合适的资源组合。

Amazon Elastic Inference

借助 Amazon Elastic Inference,可以将低成本 GPU 驱动的加速附加到 Amazon EC2 和 Amazon SageMaker 实例,以使用模型进行预测。Elastic Inference 不需要附加完整的 GPU(大多数模型都不需要),而是可以通过为特定模型单独配置合适的加速量来节省多达 75% 的费用。

Amazon Elastic Container Service (Amazon ECS)

Amazon ECS 支持运行和扩展容器化的应用程序,包括来自于 Amazon SageMaker 和容器化的 Spark ML 的训练好的机器学习模型。

无服务器选项

有了无服务器选项后,就不必再管理特定基础设施,使客户能够专注于部署 ML 模型和运行其系统所必需的其他逻辑。Amazon Web Services 提供的一些无服务器 ML 部署选项包括 Amazon SageMaker 模型部署、用于容器的 Amazon Web Services Fargate 和用于无服务器代码部署的 Amazon Web Services  Lambda。

边缘 ML

Amazon Web Services 还提供了一个选项,可使用 Amazon SageMaker Neo 和 Amazon Web Services IoT Greengrass ML Inference 将 ML 模型推送到边缘侧,从而使得模型在互联设备的本地运行。这样,客户就可以使用在云中生成和训练的 ML 模型,并在互联的设备上本地部署和运行 ML 推理。

 

许多人都互换使用术语 AI 和 ML。从表面上看,这似乎是不正确的,因为过去机器学习只是 AI 内部的一个领域,而 AI 涵盖了更广泛的系统集合。

如今,机器学习的算法和模型取代了传统的符号推理、知识表示和语言。对大型数据集的训练已取代了手动编码的算法和启发式方法。借助上述方法,可以对使用符号 AI 方法似乎难以解决的问题进行一致建模,其效果显著。实际上,机器学习已成为大多数现代 AI 系统的基础。因此,如今将术语 AI 和 ML 互换使用实际上比以往任何时候都更有意义。

Amazon Web Services 提供了多种机器学习产品,从预先训练的即用型服务到用于创建自定义 ML 模型的最受欢迎的工具和框架,应有尽有。不同行业、不同经验水平的客户都可以添加 ML 功能来改善其现有系统,并在以前未曾涉足的领域中创建领先的应用程序。

 

相关文章