Mitos de la IA

Inteligencia Artificial: ¿A prueba de fallas?

Son varios los blogs en los que he comentado sobre los mitos que rodean a la Inteligencia Artificial (IA) a partir de que ha experimentado un crecimiento exponencial y se ha convertido en una parte integral de nuestras vidas. 

Y aunque esta es la última vez que quisiera hablar al respecto, al menos por ahora, no significa que no haya más mitos sobre los cuales hablar o que no puedan surgir otros aún no considerados. 

Lo cierto es que la IA nos rodea con círculos cada vez más estrechos. Desde asistentes virtuales hasta vehículos autónomos y sistemas de recomendación, esta tecnología ha demostrado un gran potencial para mejorar diversas de nuestras actividades cotidianas. 

Casi en consecuencia, junto con su creciente popularidad, también han surgido expectativas exageradas en torno a la infalibilidad de la IA, la cual se ha propagado de manera errónea. 

Por ello, es vital reforzar la idea de que se trata de sistemas perfectibles y en desarrollo que, definitivamente, pueden presentar errores, algunos de los cuales podrían ser graves y hasta peligrosos para las personas, tanto en el ámbito laboral como en la vida diaria.

Infalibilidad de la IA 


El mito de que la Inteligencia Artificial es infalible se ha alimentado a través de diversas fuentes, como los medios de comunicación, la falta de conocimiento técnico y la simplificación de conceptos complejos. 

Películas y series de ciencia ficción muestran a la IA como entidades perfectas y omnipotentes, capaces de resolver cualquier problema con precisión y sin errores. Estas representaciones exageradas han generado expectativas poco realistas en la mente de las personas.

Lo que hemos presenciado en los últimos años y se ha reforzado luego de la llegada a la vida pública de Chat GPT, es un intenso bombardeo de titulares sensacionalistas y publicidad excesiva que han construido una imagen de una tecnología mágica que puede resolver todos nuestros problemas. 

La falta de conocimiento técnico del común de las personas ha provocado que este mito se arraigue, sin reparar en la complejidad detrás del funcionamiento de la Inteligencia Artificial y, por lo tanto, sin visualizar sus limitaciones.

¿Dónde falla?


Son diversas las aplicaciones donde suelen presentarse sesgos y errores, como en el caso de las tecnologías de reconocimiento facial, donde algunos sistemas han mostrado sesgos raciales y de género. Esto se debe a que los datos de entrenamiento utilizados para desarrollar estos sistemas pueden estar determinados por el origen étnico, cultural o social de sus programadores, lo que lleva a identificaciones incorrectas o, incluso, discriminación hacia ciertos grupos; dilema ético que hoy en día está en permanente discusión.

También es posible ver errores en soluciones de chatbots. Estas cada vez más populares de asistencia en sitios web y aplicaciones, pueden proporcionar respuestas inadecuadas o incluso ofensivas cuando los sistemas no han sido entrenados con un lenguaje respetuoso y ético, considerando situaciones que para algunos grupos culturales podrían resultar ofensivos. Esto resulta en interacciones frustrantes o poco satisfactorias para los usuarios.

Y qué decir de los vehículos autónomos, que si bien han mostrado avances prometedores, todavía enfrentan desafíos significativos. Han ocurrido accidentes provocados por que los sistemas de IA no detectaron de manera correcta objetos o situaciones en la carretera, causando atropellamientos o colisiones con otros vehículos.

Otra de las áreas, donde de hecho, causa algo de temor, es en la medicina. La Inteligencia Artificial está siendo empleada para asistir en el diagnóstico médico y, aunque puede ser muy útil para la detección de patrones y la medicina preventiva, también es propensa a cometer errores, especialmente cuando se enfrenta a enfermedades poco comunes o funciona con datos de entrenamiento insuficientes. 

Datos de la Secretaría de Salud indican que en 2022, se presentaron 1,170 quejas por negligencia relacionadas con el diagnóstico y 1,042 como consecuencia de malos tratamientos; campos donde la IA podría ser muy oportuna, siempre y cuando el sistema esté bien alimentado. 

Claro que en estos casos, el médico igualmente sería demandado a pesar de ser la herramienta la que haya causado el error.

Otro campo es la traducción. Existe mucho debate en los trabajos de traducción realizados con Inteligencia Artificial, pues aunque existen herramientas cada vez más precisas, la falta de coloquialismos o tecnicismos aún no se puede resolver.

Más aún, estos sistemas aún generan traducciones incorrectas o confusas, especialmente en idiomas con estructuras gramaticales muy diferentes.

Conocer sus límites


Todo lo anterior explica por qué es tan importante entender que IA no es infalible, pues de esta manera los usuarios de estas herramientas lograrán mejores resultados al usarlas de apoyo y no depender ciegamente de los resultados arrojados. Acudir a otras fuentes es siempre fundamental y enriquecedor y permite tomar mejores decisiones.

En escenarios sociales, tales como la atención médica, la impartición de justicia y hasta la seguridad, la ética y la responsabilidad en torno a las decisiones tomadas, adquieren un valor alto. La supervisión humana siempre abonará a garantizar la transparencia en el desarrollo y la aplicación de los sistemas de IA.

Con ello, podemos eliminar riesgos potenciales, como juicios legales injustos, accidentes automovilísticos, diagnósticos médicos incorrectos y hasta decisiones financieras que lleven a la quiebra un negocio.

No hay duda de que la infalibilidad de la Inteligencia Artificial es un mito social que ha sido fomentado con expectativas poco realistas. Pero es determinante considerar que es una herramienta cada vez más obligada y útil en un mayor número de actividades.

Si entendemos su nivel de confiabilidad, sacaremos el máximo jugo a la IA, y nos permitirá simplificar tareas que nos harán más productivos y con los beneficios económicos y sociales que tanto esperamos de ella.

Los comentarios están cerrados.