docker.io/kserve/kserve-controller

该镜像 docker.io/kserve/kserve-controller 包含 KServe 的控制器组件。KServe 是一个用于 Kubernetes 的模型服务框架,它简化了在 Kubernetes 集群上部署和管理机器学习模型的过程。kserve-controller 组件是 KServe 的核心部分,负责管理模型部署、流量路由、以及模型生命周期的其他方面。

下载:136 版本:5

docker.io/kserve/models-web-app

kserve/models-web-app 镜像是一个用于部署和服务机器学习模型的 Web 应用程序。它提供了一个易于使用的界面,允许用户通过 Web 请求来访问和使用部署在 KServe 上的模型。

下载:115 版本:1

docker.io/kserve/huggingfaceserver

这是一个用于部署Hugging Face模型的KServe服务器镜像。它允许您轻松地将Hugging Face的预训练模型部署到Kubernetes集群中,并通过REST API进行服务。

下载:29 版本:2

docker.io/kserve/kserve-localmodel-controller

这是一个KServe的本地模型控制器镜像。KServe是一个用于Kubernetes的模型部署和服务框架,而kserve-localmodel-controller是其中的一个组件,负责管理和协调在本地运行的机器学习模型。这意味着这个镜像包含了运行本地模型所需的所有依赖项和工具,例如模型加载器、预测器以及与Kubernetes集群的交互组件。

下载:27 版本:2

docker.io/kserve/sklearnserver

docker.io/kserve/sklearnserver是KServe项目提供的Scikit-learn模型服务容器,用于在云原生环境中部署和服务Scikit-learn训练得到的模型,支持通过标准化接口接收推理请求并返回预测结果,助力开发者快速将Scikit-learn模型转化为可对外提供服务的应用。

下载:21 版本:2

docker.io/kserve/lgbserver

这是一个用于部署LightGBM模型的KServe服务器镜像。KServe是一个用于部署、管理和扩展机器学习模型的平台,而LightGBM则是一个快速、分布式、高效率的梯度提升机器学习框架。这个镜像将LightGBM模型封装在一个容器中,方便在Kubernetes等容器编排系统上部署和运行LightGBM模型进行预测。

下载:16 版本:1

docker.io/kserve/xgbserver

docker.io/kserve/xgbserver镜像是KServe项目提供的用于部署和服务XGBoost模型的服务器组件,支持通过标准接口(如HTTP/REST、gRPC)处理预测请求,帮助用户快速将训练好的XGBoost模型部署为可访问的在线服务。

下载:12 版本:1

docker.io/kserve/storage-initializer

kserve/storage-initializer是KServe模型服务平台的组件镜像,用于在模型服务容器启动阶段,从S3、GCS、Azure Blob Storage等指定存储源下载模型文件到本地存储,为后续模型服务组件加载模型并提供推理服务做初始化准备。

下载:6 版本:2

docker.io/kserve/kserve-localmodelnode-agent

该镜像 docker.io/kserve/kserve-localmodelnode-agent 是 KServe 的一部分,用于本地模型节点代理。它负责管理和服务部署在本地机器上的机器学习模型,作为 KServe 模型部署系统的一部分。 具体来说,它接收来自 KServe 模型服务的请求,并将这些请求转发给本地运行的模型,然后将模型的预测结果返回给 KServe。

下载:5 版本:1

docker.io/kserve/agent

docker.io/kserve/agent 是 KServe 的代理镜像。KServe 是一个用于在 Kubernetes 上运行机器学习模型的平台,而代理组件是 KServe 的关键部分,负责接收模型预测请求并将其路由到合适的模型实例。

下载:2 版本:1

docker.io/kserve/llmisvc-controller

该镜像是KServe项目中的LLM服务控制器组件,用于管理LLM(大语言模型)推理服务的部署、扩展、生命周期等相关控制逻辑,是KServe支持大语言模型服务的重要组成部分。

下载:2 版本:1

docker.io/kserve/art-explainer

kserve/art-explainer 镜像是一个用于解释机器学习模型预测结果的 Docker 镜像。它提供了可解释性 AI (XAI) 的工具,帮助用户理解模型是如何得出特定预测的,从而提高模型的可信度和透明度。

下载:1 版本:1

docker.io/kserve/pmmlserver

这是一个用于服务PMML(预测模型标记语言)模型的KServe服务器镜像。它允许您将已训练好的机器学习模型(以PMML格式保存)部署为RESTful服务,方便其他应用程序或系统进行预测。

下载:1 版本:1

docker.io/kserve/qpext

kserve/qpext镜像描述 这是一个用于KServe的推理服务镜像,包含了QP-Ext模型的部署和服务所需的一切。QP-Ext是一个高效的模型推理框架,能够优化模型的性能和资源利用率。该镜像简化了在KServe上部署和运行QP-Ext模型的过程。

下载:1 版本:1

docker.io/kserve/paddleserver

这是一个 KServe 的 PaddlePaddle 模型服务镜像。它允许您轻松地将 PaddlePaddle 训练的模型部署到 Kubernetes 集群中,并通过 REST API 进行预测服务。

下载:0 版本:1

docker.io/kserve/router

kserve/router镜像描述 这是一个KServe路由器镜像,用于在KServe模型服务系统中进行模型请求的路由和分发。它充当模型服务的入口点,根据请求的特征(例如,输入数据类型、模型版本等)将请求转发到合适的模型服务实例。 该镜像包含了必要的路由组件和配置,能够高效地处理并发请求,并提供诸如流量控制、健康检查等功能,以确保模型服务的稳定性和可靠性。

下载:0 版本:1