YOLO-NAS es el pináculo de los modelos de detección de objetos en la serie YOLO. Pero, ¿por qué se considera el mejor?

Después de YOLOv8, todavía hay un nuevo y mejor modelo de detección de objetos de última generación, YOLO-NAS. Es un algoritmo de detección de objetos desarrollado por Deci AI para abordar las limitaciones de los modelos anteriores de YOLO (You Only Look Once).

El modelo se construye a partir de AutoNAC, un motor de búsqueda de arquitectura neuronal. Supera la velocidad y el rendimiento de los modelos SOTA, lo que representa un gran salto en la detección de objetos al mejorar las ventajas y desventajas de precisión-latencia y soporte de cuantificación.

Este artículo discutirá las fortalezas y características de YOLO-NAS, explorando por qué es el mejor modelo de detección de objetos en la serie YOLO.

Comprender cómo funciona YOLO-NAS

AutoNAC (construcción de arquitectura neuronal automatizada) de Deci genera la arquitectura de YOLO-NAS. AutoNAC es un proceso continuo que proporciona un impulso de rendimiento a las redes neuronales profundas existentes.

La canalización de AutoNAC toma una red neuronal profunda entrenada por el usuario como entrada, conjunto de datos y acceso a un sistema de inferencia. La red neuronal profunda entrenada por el usuario luego se rediseña utilizando la canalización. Entonces se logra una arquitectura optimizada con menor latencia sin comprometer la precisión.

YOLO-NAS utiliza RepVGG. RepVGG lo pone a disposición para la optimización posterior al entrenamiento mediante reparametrización o cuantificación posterior al entrenamiento. Es un tipo de arquitectura de red neuronal basada en VGG. Utiliza técnicas de regularización diseñadas para mejorar la capacidad de generalización de los modelos de aprendizaje profundo.

El diseño de la arquitectura es más eficiente en velocidad y memoria. RepVGG se entrena utilizando una arquitectura de múltiples ramas para lograr una inferencia más rápida. Luego se convierte en una sola rama usando reparametrización.

Esta característica hace que YOLO-NAS sea muy útil para la implementación de producción. Esto se debe a que es posible entrenar y optimizar el modelo con total precisión para la velocidad de inferencia y el uso de la memoria.

Características clave de YOLO-NAS

Las características clave de YOLO-NAS incluyen lo siguiente:

  • Entrenamiento consciente de la cuantización: el modelo utiliza QSP y QCI (módulos de cuantificación) para reducir la pérdida de precisión durante la cuantificación posterior al entrenamiento al combinar la reparametrización de la cuantificación de 8 bits.
  • Diseño de arquitectura automática: AutoNAC, la tecnología NAS patentada de Deci busca una arquitectura de modelo óptima que integre las arquitecturas de modelos fundamentales de YOLO para generar un modelo optimizado.
  • Técnica de cuantificación híbrida: El método de cuantificación estándar afecta a todo el modelo. Por el contrario, la técnica de cuantificación híbrida cuantifica una sección de un modelo para equilibrar la latencia y la precisión del modelo.
  • Use enfoques únicos para preparar el modelo para el entrenamiento mediante el uso de datos etiquetados automáticamente. Luego, el modelo aprende de sus predicciones y accede a grandes cantidades de datos.

Análisis Comparativo: YOLO-NAS vs Otros Modelos de YOLO

A continuación se muestra una comparación entre varios modelos de la serie YOLO.

YOLO-NAS es mejor que los modelos de detección de objetos preexistentes, pero tiene sus inconvenientes. Aquí hay una lista de los beneficios y desventajas de YOLO-NAS:

ventajas

  • Es de código abierto.
  • Es un 10-20 % más rápido que los modelos YOLO preexistentes.
  • Es más preciso en comparación con los modelos YOLO preexistentes.
  • Utiliza una mejor arquitectura, AutoNAC. Esto establece un nuevo récord en la detección de objetos, proporcionando la mejor precisión y rendimiento de equilibrio de latencia.
  • Soporte perfecto para motores de inferencia como NVIDIA. Esta característica lo convierte en un modelo listo para la producción.
  • Tiene una mejor eficiencia de memoria y mayores velocidades de inferencia.

Contras

  • Todavía no es estable ya que la tecnología aún es nueva y no se ha utilizado mucho en la producción.

Implementación de YOLO-NAS

Usarás Colaboración de Google para escribir y ejecutar los códigos en esta implementación. Una alternativa para Google Colab sería crear un entorno virtual y use un IDE en su máquina local.

El modelo es muy intensivo en recursos. Asegúrese de tener al menos 8 GB de RAM antes de ejecutarlo en su máquina. Cuanto mayor sea el tamaño del video, más memoria utilizará.

Instalación de dependencias

Instale la dependencia de YOLO-NAS, supergradientes usando el siguiente comando:

pip install supergradientes ==3.1.2

Después de una instalación exitosa, ahora podrá entrenar el modelo YOLO-NAS.

Entrenamiento modelo

Para entrenar el modelo, ejecute el siguiente bloque de código:

de super_gradients.entrenamiento importar modelos
yolo_nas_l = modelos.get("yolo_nas_l", pesos_preentrenados="Coco")

Estás importando el modelo de entrenamiento de la biblioteca SuperGradients instalada en este código. A continuación, está utilizando los pesos de modelo preentrenados del conjunto de datos de COCO.

Inferencia del modelo

La inferencia del modelo tiene aplicaciones potenciales para tareas de detección, clasificación y segmentación de imágenes.

En este caso, se centrará en el tarea de detección de objetos para videos e imágenes. Para detectar un objeto en una imagen, ejecute el siguiente bloque de código:

dirección URL = "img_ruta"
yolo_nas_l.predict (url, conf=0.25).espectáculo()

Asegúrese de utilizar la ruta precisa a su imagen. En este caso, cargue la imagen en el entorno de Google Colab y luego copie la ruta de la imagen.

Rendimiento esperado:

Para detectar objetos en un video, ejecute el siguiente bloque de código:

importar antorcha

entrada_video_ruta = "ruta_al_video"
salida_video_ruta = "detectado.mp4"
dispositivo = 'cuda'si antorcha.cuda.is_disponible() demás"UPC"
yolo_nas_l.to (dispositivo).predecir (ruta_de_video_de_entrada).guardar (ruta_de_video_de_salida)

Al igual que los datos de la imagen, cargue el video que desea que se detecten sus objetos en el entorno de Google Colab y copie la ruta a la variable de video. Se podrá acceder al video predicho desde el entorno de Google Colab usando el nombre detectado.mp4. Descargue el video a su máquina local antes de finalizar su sesión.

Rendimiento esperado:

YOLO-NAS también admite el ajuste fino del modelo y la capacitación en datos personalizados. La documentación está disponible en deci portátil de inicio de ajuste fino.

Aplicaciones del mundo real de YOLO-NAS

Se puede acceder al código fuente de YOLO-NAS bajo la Licencia Apache 2.0, que es accesible para uso no comercial. Para uso comercial, el modelo debe someterse a un nuevo entrenamiento desde cero para obtener pesos personalizados.

Es un modelo versátil cuya aplicación es posible en varios campos, tales como:

Vehículos Autónomos y Robótica

YOLO-NAS puede mejorar las capacidades de percepción de los vehículos autónomos, permitiéndoles detectar y rastrear objetos de manera más rápida y precisa en tiempo real. Esta capacidad ayuda a garantizar la seguridad vial y una experiencia de conducción fluida.

Sistemas de Vigilancia y Seguridad

El modelo puede proporcionar una detección de objetos rápida, precisa y en tiempo real para vigilancia y seguridad. sistemas, lo que ayuda a identificar amenazas potenciales o actividades sospechosas, lo que resulta en una mejor seguridad sistemas

Venta al por menor y gestión de inventario

El modelo puede proporcionar capacidades de detección de objetos rápidas y precisas que permiten una gestión de inventario automatizada eficiente y en tiempo real, seguimiento de existencias y optimización de estantes. Este modelo ayuda a reducir los costos operativos y aumentar las ganancias.

Atención médica e imágenes médicas

En el cuidado de la salud, YOLO-NAS es capaz de ayudar en la detección y el análisis eficientes de anomalías de enfermedades o áreas específicas de interés. El modelo puede ayudar a los médicos a diagnosticar con precisión enfermedades y monitorear a los pacientes, mejorando así el sector de la salud.

Comida para llevar YOLO-NAS

YOLO-NAS es un nuevo modelo de detección de objetos que es pionero en una nueva forma de realizar la detección de objetos. Es mejor que los modelos SOTA. Su rendimiento en la detección de objetos es un gran salto para los proyectos de visión artificial.