TIS教程03-导出

男娘i 2022-09-07 15:53 130阅读 0赞

发表评论

表情:
评论列表 (有 0 条评论,130人围观)

还没有评论,来说两句吧...

相关阅读

    相关 TIS教程04-客户端

    简介 在[之前的文章][Link 1]中,我们主要关注服务端的配置和部署,这无可厚非,因为Triton Inference Server本就是服务端框架。但是,作为一个完

    相关 TIS教程03-导出

    简介 众所周知,模型部署框架部署的是深度学习模型,因此我们希望TIS只对模型的推理进行处理,故而需要提供给它合适的模型。而对于PyTorch的模型而言,有着主要的两种部署

    相关 TIS教程02-模型

    简介 在[本系列][Link 1]的上一篇文章中,介绍了TIS(triton inference server)的安装和运行,但是深度学习模型的服务器部署的核心依然是模型