<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
    <channel>
        <title>Nvidia - 标签 - 容器 | AI | 大数据</title>
        <link>https://www.runzhliu.cn/tags/nvidia/</link>
        <description>Nvidia - 标签 - 容器 | AI | 大数据</description>
        <generator>Hugo -- gohugo.io</generator><language>zh-CN</language><managingEditor>runzhliu@163.com (runzhliu)</managingEditor>
            <webMaster>runzhliu@163.com (runzhliu)</webMaster><lastBuildDate>Wed, 01 Feb 2017 00:00:00 &#43;0000</lastBuildDate><atom:link href="https://www.runzhliu.cn/tags/nvidia/" rel="self" type="application/rss+xml" /><item>
    <title>NVIDIA-TensorRT-Inference-Server-on-Kubernetes</title>
    <link>https://www.runzhliu.cn/nvidia-tensorrt-inference-server-on-kubernetes/</link>
    <pubDate>Wed, 01 Feb 2017 00:00:00 &#43;0000</pubDate>
    <author>runzhliu</author>
    <guid>https://www.runzhliu.cn/nvidia-tensorrt-inference-server-on-kubernetes/</guid>
    <description><![CDATA[概述 NVIDIA TensorRT Inference Server 是 NVIDIA 推出的，经过优化的，可以在 NVIDIA GPUs 使用的推理引擎，TensorRT 有下面几个特点。 支持多种框架模型，包括TensorFlow GraphDef, TensorFlow]]></description>
</item>
</channel>
</rss>
