V&V para IA - Entendiendo y verificando tus modelos de IA
Visión general
En este webinario, exploraremos cómo verificar y validar modelos de IA como consecuencia de la alta demanda de uso en sectores críticos como aeroespacial, automoción y médico. Discutiremos métodos de explicabilidad para entender redes neuronales profundas, usando clasificación de imágenes como ejemplo. Presentaremos cómo la Biblioteca de Verificación de Deep Learning Toolbox™ ayuda a verificar la robustez de las redes y la adecuación de los datos en tiempo de inferencia. Este evento es esencial para quienes implementan IA en entornos donde la fiabilidad es crucial. Aprende a asegurar que tus modelos de IA cumplan con los más altos estándares de seguridad y precisión.
Aspectos destacados
- Verificación de modelos de IA – un proceso de desarrollo para la IA embarcable
- Enfoque en la fiabilidad de las redes neuronales – asegurando la correcta predicción del modelo
- Métodos de explicabilidad para comprender IA – entiende lo que sucede dentro del modelo
- Asegurar la precisión y seguridad de los modelos de IA – el primer paso para la certificación
Acerca del presentador o presentadores
José Barriga es un ingeniero de aplicaciones especializado en ofrecer soporte a usuarios de MATLAB, enfocándose en procesamiento de datos e Inteligencia Artificial. Antes de unirse a MathWorks, trabajó en la creación de sistemas de control, desarrollo de sensores y equipos de visión artificial en varios sectores. Se graduó en ingeniería de telecomunicaciones por la Universidad de Alcalá de Henares, donde investigó sobre detección y seguimiento de objetos en videos. Su experiencia abarca tanto el ámbito profesional como el académico, contribuyendo al desarrollo y soporte de aplicaciones tecnológicas avanzadas.
Productos destacados
Este evento forma parte de una serie de temas relacionados. Consulte la lista completa de eventos.