『paddle』paddleseg 学习笔记:模型部署
模型部署1. 说明2. 前置准备3. 预测1. 说明本方案旨在提供一个 PaddlePaddle 跨平台图像分割模型的 Python 预测部署方案作为参考,用户通过一定的配置,加上少量的代码,即可把模型集成到自己的服务中,完成图像分割的任务。2. 前置准备请使用 模型导出 您的模型, 或点击下载官方网站的 样例模型 用于测试。接着准备一张测试图片用于试验效果,我们提供了 cityscapes 验证
·
1. 说明
本方案旨在提供一个 PaddlePaddle 跨平台图像分割模型的 Python 预测部署方案作为参考,用户通过一定的配置,加上少量的代码,即可把模型集成到自己的服务中,完成图像分割的任务。
2. 前置准备
请使用 模型导出 您的模型, 或点击下载官方网站的 样例模型 用于测试。
接着准备一张测试图片用于试验效果,我们提供了 cityscapes 验证集中的一张 图片 用于演示效果,如果您的模型是使用其他数据集训练的,请自行准备测试图片。
3. 预测
在终端输入以下命令进行预测:
python deploy/python/infer.py --config /path/to/deploy.yaml --image_path
参数说明如下:
| 参数名 | 用途 | 是否必选项 | 默认值 |
|---|---|---|---|
| config | 导出模型时生成的配置文件, 而非 configs 目录下的配置文件 | 是 | - |
| image_path | 预测图片的路径或者目录 | 是 | - |
| use_trt | 是否开启 TensorRT 来加速预测 | 否 | 否 |
| use_int8 | 启动 TensorRT 预测时,是否以int8模式运行 | 否 | 否 |
| batch_size | 单卡 batch size | 否 | 配置文件中指定值 |
| save_dir | 保存预测结果的目录 | 否 | output |
| with_argmax | 对预测结果进行 argmax 操作 | 否 | 否 |
测试样例和预测结果如下
注意:
1. 当使用量化模型预测时,需要同时开启 TensorRT 预测和 int8 预测才会有加速效果
2. 使用 TensorRT 需要使用支持 TRT 功能的 Paddle 库,请参考 附录 下载对应的PaddlePaddle安装包,或者参考 源码编译 自行编译
魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐

所有评论(0)