Skip to content

Mask2Former 模型使用非训练数据转换后分割性能显著低于使用训练数据转换 #2890

New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Open
SparKgod1 opened this issue Apr 16, 2025 · 0 comments

Comments

@SparKgod1
Copy link

SparKgod1 commented Apr 16, 2025

我在使用 MMDeploy 将 Mask2Former 模型转换为 TensorRT格式时,发现使用非训练数据(如随机图片或测试集图片)进行转换的模型,其分割性能显著低于使用训练数据进行转换的模型。具体表现为:

  1. 使用非训练数据转换的模型在测试集上的 mIoU下降明显。
  2. 分割结果在某些类别或复杂场景下出现较多误分割,并且丢失大部分目标

我想了解为什么使用不同图片进行模型转换会导致如此大的性能差异,以及如何优化转换流程以提高非训练数据转换模型的性能。
我使用的配置是configs/mmdet/panoptic-seg/panoptic-seg_maskformer_tensorrt_static-800x1344.py,这个配置会对模型自动做量化吗,为什么转换过程中的测试图片会对性能影响那么大,希望能得到一点思路,感谢

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

1 participant