OpenVINO, el kit de herramientas de Intel para implementar IA en el edge

Una canalización típica de un proyecto de machine learning consta de distintas fases: importación, compilación, capacitación e implementación.

  • Importar: en esta parte se suelen adquirir los datos de diferentes fuentes y sensores. A menudo, los datos no están en el formato que se puede usar directamente para crear un modelo, sino que se necesitan convertir a un formato utilizable para crear un conjunto de datos.
  • Construir: en este paso, generalmente, comenzamos a crear modelos basados ??en los conjuntos de datos que hemos desarrollado en el paso anterior.
  • Entrenar: los pasos para construir y entrenar, normalmente, van de la mano. En este punto se optimiza el modelo para lograr los resultados requeridos con una eficiencia aceptable.
  • Desplegar: aquí se implementa el modelo en un dispositivo de edge determinado. Dependiendo de la arquitectura del dispositivo de edge, se requiere cierto nivel de optimizaciones. Por lo tanto, es de vital importancia seleccionar el marco o las bibliotecas correctas para garantizar que el modelo esté optimizado para ese hardware en particular y pueda extraer y usar la potencia computacional disponible de la manera más eficiente.

OpenVINO de Intel

En un caso típico de inteligencia artificial implementado en el edge, los tres parámetros más comunes son la potencia computacional, el coste y el rendimiento. Según los requisitos de la aplicación, es primordial identificar claramente la potencia computacional requerida del dispositivo de edge. Dado que la potencia de cálculo se relaciona directamente con el coste y el rendimiento, siempre existe un equilibrio. El truco consiste en encontrar una solución óptima que sea rentable pero que proporcione el rendimiento que se requiere para la aplicación en cuestión.

Diferentes proveedores de hardware han introducido herramientas para que el desarrollador logre la solución óptima al implementar inteligencia artificial en su hardware. Intel ha introducido un kit de herramientas OpenVINO (optimización de red neuronal de inferencia visual abierta) que optimiza el modelo de varios marcos como TensorFlow, Caffe, etc. para el hardware de Intel. Su capacidad heterogénea permite extraer la potencia computacional disponible de una manera muy eficiente.

El kit de herramientas OpenVINO constituye un completo conjunto de soluciones para desarrollar rápidamente aplicaciones que resuelven una gran variedad de tareas, incluida la emulación de la visión humana, el reconocimiento automático de voz, el procesamiento del lenguaje natural y los sistemas de recomendación, entre muchos otros.

Basado en las últimas generaciones de redes neuronales artificiales, incluidas las redes neuronales convolucionales (CNN), -que son aquellas redes recurrentes y basadas en la atención-, este kit de herramientas amplía las cargas de trabajo de visión artificial y no visual en todo el hardware Intel, maximizando el rendimiento, y acelera las aplicaciones de inferencia de deep learning implementadas desde el edge hasta la nube.

OpenVINO consta, principalmente, de dos partes:

  • Model Optimizer: optimiza su modelo de TensorFlow, Caffe, etc. para el hardware de Intel
  • Motor de inferencia: proporciona complementos adecuados para hardware Intel, como CPU, GPU, VPU y FPGA. Además, también permite dividir la carga de trabajo entre varios hardware, lo que se denomina heterogeneidad.

¿Necesitas un experto en Data & IoT?