Cómo hacer que la IA sea digna de confianza

Uno de los mayores impedimentos para la adopción de nuevas tecnologías es la confianza en la IA.

Ahora, una nueva herramienta desarrollada por los investigadores de la USC Viterbi Engineering genera indicadores automáticos si los datos y predicciones generados por los algoritmos de la IA son confiables. Su trabajo de investigación, “Hay esperanza después de todo: Cuantificando la opinión y la confiabilidad en las redes neuronales” por Mingxi Cheng, Shahin Nazarian y Paul Bogdan del Grupo de Sistemas Físicos Cibernéticos de la USC, fue presentado en Fronteras de la Inteligencia Artificial.

Las redes neuronales son un tipo de inteligencia artificial que se modelan a partir del cerebro y generan predicciones. ¿Pero se puede confiar en las predicciones que generan estas redes neuronales? Una de las barreras clave para la adopción de coches auto-conductores es que los vehículos necesitan actuar como tomadores de decisiones independientes en piloto automático y descifrar y reconocer rápidamente los objetos en la carretera – si un objeto es un badén, un objeto inanimado, una mascota o un niño – y tomar decisiones sobre cómo actuar si otro vehículo se está desviando hacia él. ¿Debería el coche golpear al vehículo que viene en dirección contraria o desviarse y golpear lo que el vehículo percibe como un objeto inanimado o un niño? ¿Podemos confiar en el software de los vehículos para tomar decisiones acertadas en fracciones de segundo, especialmente cuando la información conflictiva proviene de diferentes modalidades de percepción como la visión por ordenador de las cámaras o los datos del LIDAR? Saber en qué sistemas confiar y en qué sistema de detección es más preciso sería útil para determinar qué decisiones debería tomar el piloto automático.

El autor principal Mingxi Cheng fue impulsado a trabajar en este proyecto por este pensamiento: “Incluso los humanos pueden ser indecisos en ciertos escenarios de toma de decisiones. En los casos en que la información es conflictiva, ¿por qué las máquinas no pueden decirnos cuando no lo saben?”

Una herramienta creada por los autores llamada DeepTrust puede cuantificar la cantidad de incertidumbre”, dice Paul Bogdan, profesor asociado del Departamento de Ingeniería Eléctrica e Informática de Ming Hsieh y autor correspondiente, y por lo tanto, si es necesaria la intervención humana.

El desarrollo de esta herramienta le tomó al equipo de investigación de la USC casi dos años empleando lo que se conoce como lógica subjetiva para evaluar la arquitectura de las redes neuronales. En uno de sus casos de prueba, las encuestas de la elección presidencial de 2016, DeepTrust encontró que la predicción que apuntaba a la victoria de Clinton tenía un mayor margen de error.

La otra importancia de este estudio es que proporciona ideas sobre cómo probar la fiabilidad de los algoritmos de IA que normalmente se entrenan en miles o millones de puntos de datos. Sería increíblemente largo comprobar si cada uno de estos puntos de datos que informan las predicciones de la IA fueron etiquetados con precisión. Más bien, lo más crítico, dicen los investigadores, es que la arquitectura de estos sistemas de redes neuronales tiene mayor precisión. Bogdan señala que si los científicos de la computación quieren maximizar la precisión y la confianza de manera simultánea, este trabajo también podría servir de guía para saber cuánto “ruido” puede haber en las muestras de prueba.

Los investigadores creen que este modelo es el primero de su clase. Dice Bogdan, “Hasta donde sabemos, no hay un modelo de cuantificación de confianza o una herramienta para el aprendizaje profundo, la inteligencia artificial y el aprendizaje automático. Este es el primer enfoque y abre nuevas direcciones de investigación”. Añade que esta herramienta tiene el potencial de hacer que “la inteligencia artificial sea consciente y adaptable”.