Possiamo facilmente addestrare sul nostro dataset personalizzato e poi esportare un modello ottimizzato in Onnx, TensorRT (engine) e Int8. Questo rende il deployment sui nostri dispositivi edge come il Jetson ORIN incredibilmente efficiente. Recensione raccolta e ospitata su G2.com.
Sebbene generalmente buona, la documentazione per scenari di distribuzione molto specifici e avanzati può essere carente. Ho avuto problemi con la pipeline RTSP con supporto per i codec h264/265. Recensione raccolta e ospitata su G2.com.



