提问者:小点点

运行自定义Docker容器与GPU使用顶点AI管道-如何安装NVIDIA驱动程序?


我需要使用顶点AI管道运行一个具有GPU支持的自定义Docker容器,我没有看到一个明确的方法来做到这一点。这需要几个组件:

  1. 应用程序(在我的例子中是pytorch)
  2. CUDA工具包
  3. CUDA司机
  4. NVIDIAGPU

我可以为#1和#2使用NVIDIADocker基础映像,为#4使用GCP加速器,但是如何在顶点AI管道中安装CUDA驱动程序?有关于如何在GCE实例和GKE节点上安装NVIDIA驱动程序的留档,但顶点AI没有。

一种选择是基于GCP深度学习容器创建衍生容器,但是我必须使用GCP容器,并且对环境没有太多的控制权。


共1个答案

匿名用户

在我看来,您可以使用预构建的GPU docker容器之一:

https://cloud.google.com/vertex-ai/docs/predictions/pre-built-containers

相关问题