代码拉取完成,页面将自动刷新
mode
参数时,默认使用 float 浮点数计算推理模式。ENABLE_DYNAMIC_BATCH
开关。当 TensorRT version < 7.1.xx.xx and ENABLE_DYNAMIC_BATCH=ON
时,INT8 推理模式的引擎无法构建。int8_calib
模式预先构建 FLOAT 推理模式的引擎和 Calibration cache 文件。之后基于该 calibration cache 文件,构建 int8
推理模式的引擎。注意: 自定义插件层级的实现需要针对 int8_calib
模式将输入输出数据类型设置为 Float。(可参考 BERT 插件的实现)[TRT] engine.cpp (902) - Cuda Error in executeInternal: 77 (an illegal memory access was encountered)
[TRT] engine.cpp (902) - Cuda Error in executeInternal: 74 (misaligned address)
[TRT] Assertion failed: cublasStatus == CUBLAS_STATUS_SUCCESS \source\rtSafe\cublas\cublasLtWrapper.cpp:279
这类错误信息,一般与一个已知的 CUDA 10.2 中的 cubBLAS LT bug 有关。它可以通过升级 CUDA 10.2 的补丁包或者用 TensorRT 的 API config->setTacticSources()
来禁用 cuBLAS Lt。(参考 TensorRT Issue 1151)NvOnnxParser.h
中提供的 nvonnxparser::createParser
接口。模型是否能成功转换为 TRT 引擎取决于对应的 TensorRt 版本能否提供相应的 op 支持。(参考 ONNX-TensorRT Issue 401)
[TRT] ModelImporter.cpp:135: No importer registered for op: NonZero. Attempting to import as plugin.
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。