Por Kamal Das
"Utilicemos la IA en este proyecto" se ha convertido en una frase habitual entre los directivos. IA o Inteligencia Artificial es un término genérico que designa la inteligencia similar a la humana que muestran las máquinas. Los asistentes de voz de nuestros teléfonos (Alexa de Amazon, Siri de Apple, Google Assistant y Cortana de Microsoft) son ejemplos de IA. La IA se considera a menudo una panacea, una herramienta que resolverá todos los problemas. Desde las empresas convencionales hasta las startups tecnológicas, la IA se ha convertido en algo esencial para tener éxito y estar a la última.
La Inteligencia Artificial tiene múltiples ventajas. A menudo, la IA es tan buena como los humanos, y a veces incluso mejor, a la hora de tomar decisiones. Sin embargo, a veces, como el proverbial caso del hombre con un martillo, todo parece ser un clavo. No todas las soluciones necesitan IA, ni la IA es actualmente competente para resolver muchos problemas.
La IA en el deporte nos es familiar a todos los aficionados al críquet. Las tecnologías de seguimiento de la pelota son utilizadas por el tercer árbitro cuando un equipo opta por un Sistema de Revisión de Decisiones (DRS). La tecnología de seguimiento del balón es ahora parte integrante de los principales encuentros deportivos, incluidos el fútbol y el tenis. Se utiliza para localizar el balón en muchos deportes y dirigir la cámara a la zona adecuada.
Sin embargo, esto no está exento de dificultades. En 2020, un equipo de fútbol escocés modernizó su estadio con una cámara de última generación que seguía el balón con IA para poder retransmitir partidos en directo en un mundo afectado por el COVID. Desgraciadamente, la cámara con IA siguió por error la cabeza calva del árbitro en lugar del balón durante todo el partido.
El críquet no confía ciegamente sólo en la tecnología. La tecnología ayuda al tercer árbitro. La Inteligencia Aumentada, en la que la Inteligencia Artificial se combina con un experto, es el camino recomendado. Los modelos de Inteligencia Artificial suelen ser modelos de caja negra y pueden plantear problemas si se utilizan solos, sin moderación.
La IA suele ser un motor de correlación. La IA pronostica el futuro prediciendo a qué datos pasados se parecerán los acontecimientos futuros. La IA tampoco suele ser buena en soluciones que no ha experimentado antes, lo que se conoce como "fuera de muestra" respecto a los datos con los que ha sido entrenada.
En el caso de los vuelos, los pilotos automáticos con IA han eliminado tareas tediosas o repetitivas. Sin embargo, cuando el piloto se encuentra con una avería imprevista o una situación para la que el piloto automático de IA no está entrenado, como una tormenta, tenemos al piloto humano preparado para tomar el control manualmente. En 2016, el accidente de la aerolínea en San Francisco, Estados Unidos, se saldó con la muerte de 3 pasajeros y 49 sufrieron heridas graves. Los investigadores culparon a la dependencia de la tripulación de vuelo de los sistemas automatizados, incluido el piloto automático, como causa del accidente. La configuración incorrecta del piloto automático y la excesiva confianza en la tecnología y la automatización tuvieron consecuencias fatales.
Del mismo modo, en una conversación con el director de tecnología de una multinacional tecnológica, destacó cómo su IA podía predecir el cáncer y, en ocasiones, mejor que un radiólogo. La IA podía predecir con exactitud 48% de los casos que el radiólogo consideraba que no tenían cáncer, pero que acabaron siendo diagnosticados de cáncer de mama en el transcurso del año. Incluso la mejor IA pasó por alto más de 50% de estos casos difíciles. En las pruebas realizadas con una gran cadena de hospitales de la India, el programa de IA obtuvo "malos resultados en cáncer de mama metastásico", según un informe del IEEE. El director de tecnología me dijo que, para obtener los mejores resultados, había que utilizar conjuntamente la IA y un radiólogo. Con el radiólogo aprovechando los hallazgos iniciales de la IA, la precisión y los resultados eran significativamente superiores a los de la IA o el radiólogo trabajando independientemente.
La IA también adquiere prejuicios basados en los datos con los que se entrena. Los sistemas de IA se crearon para evitar algunos prejuicios humanos, pero a veces estos prejuicios ya están integrados en la tecnología. Las respuestas no moderadas pueden convertirse en una pesadilla de relaciones públicas para las empresas.
Hace unos meses, un reputado instituto de investigación de IA desarrolló un chatbot de IA para responder a preguntas sobre ética. Debido a los datos sesgados con los que fue entrenado, el bot afirmó que ser un hombre blanco o heterosexual era más "moralmente aceptable" que ser una mujer negra o un homosexual, respectivamente. El bot sugirió que "está bien" si un hombre blanco camina hacia ti por la noche, pero "es preocupante" si un hombre negro camina hacia ti por la noche. Esto sigue a un incidente de 2016 en el que un chatbot de IA de un importante gigante tecnológico empezó a vomitar una serie de tuits ofensivos y racistas, incluido el apoyo a las opiniones nazis sobre los judíos. Cinco años después, ¡no hemos aprendido de los percances de la IA! La Inteligencia Aumentada con una capa de supervisión humana sobre la IA puede ayudar a evitar estos errores.
Cada vez vemos más esta necesidad de supervisión, y los gobiernos aprecian y exigen auditorías. En la contratación, dado el bajo número de negros y mujeres en muchos puestos tecnológicos, las herramientas de selección de empleo de IA a menudo no preseleccionan a ningún negro o mujer, exacerbando las desigualdades actuales. Como resultado, en noviembre de 2021, el gobierno de Nueva York aprobó un proyecto de ley que impide a los empleadores utilizar la inteligencia artificial para seleccionar candidatos a un puesto de trabajo a menos que la tecnología haya pasado por una auditoría para comprobar la existencia de prejuicios.
En la India, nos anima el enfoque de Niti Aayog sobre la IA responsable. Se necesita un enfoque holístico para garantizar que damos el salto y evitamos los retos y escollos a los que se enfrentan algunas economías desarrolladas. El enfoque en la IA responsable, que tiene en cuenta los posibles sesgos y cuenta con una capa de toque humano, garantizará que las implementaciones de la IA sean más justas y humanas.
Fuente: ETCIO.com