用于快速构建深度学习应用程序的预配置环境

AWS Deep Learning AMI 为机器学习从业者和研究人员提供基础设施和各种工具,促进云中任何规模的深度学习。您可以快速启动预安装了 Apache MXNet 和 Gluon、TensorFlow、Microsoft Cognitive Toolkit、Caffe、Caffe2、Theano、Torch、Pytorch 和 Keras 等常见深度学习框架的 Amazon EC2 实例,来训练复杂的自定义 AI 模型、试验新算法或学习新技能和技术。

无论您需要 Amazon EC2 GPU 实例还是 CPU 实例,都无需为 Deep Learning AMI 支付额外费用 – 您只需为存储和运行应用程序所需的 AWS 资源付费。

即使对于经验丰富的机器学习从业者而言,开始深度学习工作也可能会非常耗时耗力。我们提供三种类型的 AMI,可以支持开发人员的各种需求。为了获得入门流程指南,您还可以访问 AMI 选择指南和更多深度学习资源。

Conda AMI

对于希望在单独的虚拟环境中预安装深度学习框架的 pip 软件包的开发人员,基于 Deep Learning Conda 的 AMI 提供 Ubuntu 和 Amazon Linux 版本。

Base AMI

对于希望从零开始构建私有深度学习引擎存储库或定制自己的深度学习引擎的开发人员,Deep Learning Base AMI 提供 Ubuntu 和 Amazon Linux 版本。

随附源代码的 AMI

对于希望在共享 Python 环境中预安装深度学习框架及其源代码的开发人员,此 Deep Learning AMI 提供 CUDA 9 Ubuntu 和 Amazon Linux 版本的 P3 实例以及 CUDA 8 Ubuntu 和 Amazon Linux 版本的 P2 实例。

AWS Deep Learning AMI 支持所有常见的深度学习框架,使您能够定义模型并大规模训练这些模型。AMI 为 Amazon Linux 和 Ubuntu 专门构建,预配置了 Apache MXNet 和 Gluon、TensorFlow、Microsoft Cognitive Toolkit、Caffe、Caffe2、Theano、Torch、PyTorch 及 Keras,使您能够快速、大规模地部署和运行任意这些框架。

为了加快您的开发和模型训练,AWS Deep Learning AMI 除了安装常见的 Python 软件包和 Anaconda 平台,还通过预配置 CUDA 和 cuDNN 驱动程序以及 Intel Math Kernel Library (MKL) 提供最新的 NVIDIA GPU 加速功能。

  • AWS Deep Learning AMI 在 Amazon EC2 P2 实例以及采用 NVIDIA Volta 架构的 P3 实例上运行。AMI 预安装了 NVIDIA CUDA 和 cuDNN 驱动程序,大大缩短了完成计算的时间。
  • AWS Deep Learning AMI 在基于 Intel 的 Amazon EC2 C5 实例上运行,该实例专为推理而设计。
  • AMI 预装有配置 Python 2.7 和 Python 3.5 内核以及常见的 Python 软件包 (其中包含适用于 Python 的 AWS SDK) 的 Jupyter 笔记本电脑。
  • 为了简化软件包管理和部署,AWS Deep Learning AMI 安装了 Anaconda2 和 Anaconda3 Data Science Platform,用于大规模数据处理、预测分析和科学计算。

我们提供三种类型的 AWS Deep Learning AMI,可满足机器学习从业者的各种需求。请访问我们的 AMI 选择指南、简单教程和更多深度学习资源,立即开始使用。