启用GPU的Docker容器中运行AI模型应如何实施
1、 GPU节点安装好NVIDIA驱动和 nvidia-docker套件。 docker daemon运行时配置启动 nvidia runtime运行时。2、Kubernetes开启vGPU支持, 将新增K8S 资源类型 nvidia.com/gpu 被容器请求: 3、配置好AI模型相关的TensorFlow , torch, mxnet 、mindspore 、xgboost 、 nccl 框架4、执行 AI模型的训练 任务或推理应用
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2024talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30