在使用YOLOV8训练目标检测神经网络模型之后,通过ST官方的 ST Edge AI Developer Cloud 平台上面进行量化优化模型,优化前模型的尺寸是12MB,优化后模型尺寸变成3MB左右,然后我使用平台上面的Benchmark 在STM32N6DK开发板上面运行测试,平台返回的Measured inference time
达到了200多毫秒,但是经过询问AI助手,一般的YOLOV8模型在STM32N6上面运行时间可以达到几十毫秒就可以推断出来,我的模型是5个类别的目标检测模型,模型的大小也不大,请问为什么会出现这种情况?感谢各位大佬解答