这是一个 NVIDIA Triton Inference Server 的 Docker 镜像。Triton Inference Server 是一个高性能的推理服务器,用于部署各种深度学习模型,支持多种框架(例如 TensorFlow, PyTorch, TensorRT 等),并提供模型版本管理、模型部署、以及高效的推理服务。
docker.io/nvcr.io/nvidia/tritonserver:24.11-trtllm-python-py3