docker.io/vllm/vllm-omni是vllm项目提供的全功能镜像,包含vllm核心组件及相关依赖,支持多种硬件后端与大语言模型推理部署,可用于高效构建和运行大语言模型服务。
docker.io/vllm/vllm-omni:v0.14.0rc1
docker.io/vllm/vllm-omni:v0.14.0
docker.io/vllm/vllm-omni:v0.11.0rc1