Collage realizado a partir de una imagen generada automáticamente por el software de inteligencia artificial DALL-E.

Inteligencia Artificial: lo mejor y lo peor que nos ha pasado

La irrupción meteórica del generador de textos ChatGPT pone de presente que la Inteligencia Artificial puede llegar muy lejos y transformar la sociedad. ¿Qué hacer para aprovechar sus bondades y evitar sus peligros?

Por Cristian Ascencio, miembro de #CONNECTASHub

Un juez utiliza un chat de Inteligencia Artificial (IA) para fundamentar una sentencia sobre acceso a derechos de salud. Un estudiante le pide a ese mismo chat que le escriba un ensayo para su clase de filosofía y saca la mejor nota del curso. Una computadora gana un concurso de arte con una obra de su creación. El uso de plataformas de Inteligencia Artificial se ha masificado casi de un momento a otro y aún no sabemos bien hasta donde correr los límites. 

El mundo académico es uno de los más impactados. Algunos colegios públicos de Nueva York prohibieron el uso de ChatGPT, el generador de textos. Pero ¿es prohibir realmente una solución? Para los expertos, por ahí no va el camino. En la Universidad del Rosario, de Bogotá, el abogado Juan David Gutiérrez viene analizando desde hace ya un tiempo el impacto de las IA y cómo debemos lidiar con ellas tanto en el mundo académico como en el resto de la sociedad. 

De hecho, Gutiérrez desarrolló un protocolo de uso de IA en el aula enfocado en promover la responsabilidad. Consiste principalmente en que cuando el alumno use herramientas de “alto riesgo”, como las llama Gutiérrez, como por ejemplo generadores automáticos de texto y de imagen como ChatGPT y DALL-E, debe especificar qué usó y cómo lo hizo, y que en el texto sea distinguible la parte producida por la IA. Las herramientas de bajo riesgo son los correctores de texto, los traductores y los buscadores, por ejemplo.

En todo caso Gutiérrez recalca que las herramientas de IA no son confiables y pueden incluir información falsa o fantasiosa. En un hilo de Twitter dedicado a la sentencia realizada mediante ChatGPT por un juez laboral de Cartagena (Colombia), Gutiérrez explica que la plataforma “tiende a arrojar resultados incorrectos, imprecisos y falsos. No distingue realidad de ficción. De hecho la herramienta así lo advierte cada vez que uno ingresa para hacer consultas”.

Gutiérrez añade que ChatGPT forma parte de una familia de modelos de lenguaje a gran escala. “Eso quiere decir que son sistemas entrenados con trillones de datos literalmente raspados de internet y ese cuerpo de datos le permite al sistema predecir la probabilidad de que una palabra o un hilo de palabras aparezca dado su contexto previo”, cuenta. Gutiérrez sostiene que no es muy diferente lo que pasa cuando el WhatsApp sugiere cómo terminar la frase, “pero obviamente a una escala mucho mayor”.

El académico hizo una serie de pruebas en las que ChatGPT dio como ciertas algunas noticias falsas, como que el presidente de Colombia, Gustavo Petro, había sido detenido por saqueos en el año 2000. Y al preguntarle por una masacre histórica en Colombia (la de las bananeras en 1928), ChatGPT inventó fuentes. 

Para el académico y experto en Gobernanza de IA, es positivo que los Estados incorporen la IA en sus procesos, pero deben hacerlo con plena conciencia de sus limitaciones. “El mismo CEO de ChatGPT dijo en diciembre que es un error confiar en ella para algo importante en este momento (…) queda mucho trabajo por hacer en cuanto a solidez y veracidad”.

El protocolo de uso de IA de la Universidad del Rosario advierte que, entre otros problemas, “algunas herramientas tienden a reproducir o amplificar estereotipos derogatorios y discriminatorios asociados al género, raza, etnia o discapacidad; las tecnologías podrían haber sido desarrolladas a partir de la violación masiva de derechos de autor; algunas herramientas habrían sido desarrolladas en contextos de explotación laboral; el desarrollo y operación de dichos sistemas genera una huella de carbono considerable; y, la potencial violación a los derechos de privacidad y de protección de datos personales de quienes las usan”.

Si bien, como dice el profesor Gutiérrez, ChatGPT no es una fuente confiable, al hacer el ejercicio de preguntarle respecto a los riesgos y desafíos en el uso de Inteligencia Artificial, el chat automatizado respondió:

1. Desempleo: La automatización y el uso de la IA pueden reemplazar a los trabajadores humanos en ciertos trabajos.

2. Discriminación: La IA puede perpetuar y amplificar la discriminación al replicar sesgos presentes en los datos de entrenamiento.

3. Privacidad: La recopilación y el uso de datos personales por parte de la IA pueden representar una amenaza para la privacidad individual.

4. Seguridad: La IA puede ser utilizada para fines malintencionados, como el espionaje y la ciberseguridad.

5. Responsabilidad: Es difícil determinar quién es responsable en caso de errores o daños causados por sistemas de IA autónomos.

6. Ética: El desarrollo y uso de la IA plantea cuestiones éticas importantes, como la privacidad, la discriminación y la responsabilidad.

Es importante abordar estos desafíos y riesgos a medida que la IA continúa evolucionando y ganando importancia en nuestra sociedad.

En cualquier caso, no hay dudas de que la Inteligencia Artificial terminará por incorporarse para mejorar los procesos en diversas áreas como ingeniería, planificación social o en la salud. Pamela Guevara, académica de la Universidad de Concepción e investigadora de los centros basales AC3E y CENIA, explica que “actualmente se utilizan herramientas IA para diagnósticos de retinopatía diabética en imágenes de fondo de ojo, se ha avanzado más en esta área porque es un examen bastante común y con costos bajos”.

Para Guevara, la IA será muy importante como herramienta de apoyo al diagnóstico y al seguimiento del tratamiento. “No se piensa que reemplazará a los médicos, porque la información que maneja el médico es mucho más completa e integral. Pero sí puedo apoyar muchísimo en la revisión de los exámenes clínicos y de imágenes, por ejemplo”.
Guevara recalca que “a medida que vayan en aumento las bases de datos, con representación de todos los casos y condiciones, los algoritmos serán más robustos y con menos sesgos”.

Mientras tanto, cada semana hay nuevas noticias sobre avances o lanzamientos. El 7 de febrero, por ejemplo, Google anunció Bard, un chat similar a ChatGPT (de Microsoft). En un primer momento solo estará disponible para un grupo de probadores de confianza.
El profesor Gutiérrez recalca que ante el trepidante avance de esta tecnología hay que informarse para conocerla y entenderla. “Tal como ocurrió con los buscadores como Google en su momento, debemos saber sus limitaciones y que la información debe ser corroborada. No es llegar, copiar y pegar”.

Autor

Miembro de la Mesa Editorial de CONNECTAS y del #CONNECTASHub. Fue editor en el periódico El Mercurio de Antofagasta. Integró la primera promoción del Programa de Formación Intensiva de Editores organizado por CONNECTAS. Participó en reportajes colaborativos transnacionales reconocidos, como "Las mujeres carne de cañón del Narcotráfico", "El nuevo éxodo latino" y "Las últimas prisioneras de los nazis en América Latina".

Autor

Miembro de la Mesa Editorial de CONNECTAS y del #CONNECTASHub. Fue editor en el periódico El Mercurio de Antofagasta. Integró la primera promoción del Programa de Formación Intensiva de Editores organizado por CONNECTAS. Participó en reportajes colaborativos transnacionales reconocidos, como "Las mujeres carne de cañón del Narcotráfico", "El nuevo éxodo latino" y "Las últimas prisioneras de los nazis en América Latina".