我需要使用顶点AI管道运行一个具有GPU支持的自定义Docker容器,我没有看到一个明确的方法来做到这一点。这需要几个组件:
我可以为#1和#2使用NVIDIADocker基础映像,为#4使用GCP加速器,但是如何在顶点AI管道中安装CUDA驱动程序?有关于如何在GCE实例和GKE节点上安装NVIDIA驱动程序的留档,但顶点AI没有。
一种选择是基于GCP深度学习容器创建衍生容器,但是我必须使用GCP容器,并且对环境没有太多的控制权。
在我看来,您可以使用预构建的GPU docker容器之一:
https://cloud.google.com/vertex-ai/docs/predictions/pre-built-containers