Los avances en la IA deben son herramientas que pueden complementar y mejorar las capacidades humanas, no sustituirlas por completo.

A la IA, como a la olla de la sopa, más vale echarle siempre un ojito

En seguimiento a mis posts anteriores, sigo retomando el tema de la Inteligencia Artificial (IA) no tanto para hablar de novedades, sino para hablar de los mitos alrededor del algorítmicamente creciente interés en ella

Es cierto que desde hace ya algunos años (al menos para quienes nos dedicamos a las Tecnologías de la Información (TI), la IA ha avanzado a pasos agigantados, conquistando diversos campos y generando grandes expectativas sobre su capacidad para realizar tareas de manera autónoma. Sin embargo, a pesar de los avances tecnológicos y la promesa de automatización completa, el hecho es que la IA aún requiere la intervención humana para numerosos casos, por lo que la idea de que la IA puede funcionar sin supervisión humana es tan solo un mito.

La IA es capaz de procesar grandes cantidades de datos y realizar tareas específicas de manera rápida y eficiente, pero sigue dependiendo de las decisiones estratégicas y creativas tomadas por las personas. Y creo que así seguirá siendo. La IA no puede reemplazar completamente la inteligencia humana y la toma de decisiones basada en la experiencia, el juicio y los valores. Al menos, no deberíamos permitir que esto deje de suceder.

Una IA no tan justa


Existen situaciones en las que la IA podría perder el control o no ser acertada debido a diversos factores. Uno de ellos es el sesgo en los datos de entrenamiento. Si los conjuntos de datos utilizados para entrenar un sistema de IA contienen juicios inherentes, la IA puede perpetuar esos criterios en sus decisiones y acciones. 

Por ejemplo, si un sistema de IA es entrenado utilizando datos históricos que reflejan desigualdades de género o raza, es probable que el sistema reproduzca y amplifique esas desigualdades en sus resultados. Imaginen el tamaño del problema que eso causaría con el álgido y delicado tema de inclusión que vivimos en nuestros días.

Algo que también tendríamos que considerar es que la IA puede encontrarse con situaciones inusuales o imprevistas en las que su programación no le permite tomar decisiones adecuadas. La IA se basa en patrones y correlaciones en los datos, pero puede fallar cuando se enfrenta a escenarios nuevos o cambiantes. 

El mejor ejemplo que por ahora se me viene a la mente es la programación de IA incorporada en los controles de un vehículo autónomo, que podría tener serias dificultades para tomar decisiones seguras en situaciones de emergencia o eventos impredecibles en la carretera. De hecho, estos dilemas éticos tienen muy ocupados a los desarrolladores de estas plataformas.

Un caso para recordar es de 2018 (y ni siquiera entra en el terreno de la ética sino en el del funcionamiento del sistema), cuando un Uber en modo de conducción autónoma atropelló a una mujer de 49 años, debido a que el sistema de IA no había reconocido correctamente a la peatona como una persona y no tomó, por lo tanto, las medidas evasivas adecuadas. Resulta casi obvio decir que el chofer iba demasiado confiado en que la IA hiciera su trabajo. 

Mi experiencia en sistemas de información no puede eludir la idea de que la IA requerirá supervisión y mantenimiento constante por parte de profesionales humanos para garantizar su funcionamiento y eficacia conforme al objetivo inicial de diseño.

Echarle un ojito


Los sistemas de IA necesitan ser monitoreados y actualizados regularmente para adaptarse a nuevos desafíos y entornos. Esto incluye que los profesionales humanos desempeñan un papel crucial en la identificación y corrección de posibles sesgos detectados en los algoritmos de IA con el objetivo de evitar que la IA pueda perpetuar prejuicios y discriminación, como lo mencioné ya anteriormente.

Recuerdo haber leído un artículo de RTVE en el que se afirmaba que la IA no puede necesariamente eludir juicios de raza o género desde el área de recursos humanos para impulsar la diversidad. El artículo hacía referencia a un estudio de la Universidad de Cambridge que exponía que la IA puede reducir la importancia de estos datos y que puede basar sus análisis de personalidad catalogadas como “pseudociencias automatizadas”. Sin embargo y pese a lo anterior, el artículo también advierte que la tendencia al alza de herramientas de inteligencia artificial sigue creciendo… lo cual, por lo visto, no es necesariamente bueno del todo.

En definitiva, los avances en la IA deben ser vistos como herramientas que pueden complementar y mejorar las capacidades humanas, en lugar de sustituirlas por completo. Como se suele decir, «no hay decisiones automatizadas». Detrás de cada algoritmo siempre hay una persona o institución que debe asumir la responsabilidad y tomar decisiones informadas.

Los comentarios están cerrados.