Por estos días que tanto se habla de inteligencia artificial, vale la pena recordar conversaciones pendientes sobre violencia, discriminación y sesgos algorítmicos.
Si usted no ha usado todavía Chat GPT, antes de leer esta columna, por favor abra su navegador y pruébelo. También puede descargarlo. Pregúntele cosas absurdas, pídale que escriba por ustedes y que le haga la tarea. Se sorprenderá, estoy segura. Pero, si tiene usted un poquito de criterio, cosa que espero, comprenderá que, si bien Chat GPT hace cosas mejor que algunos humanos, tampoco es la gran sensación.
Desde noviembre de 2022, cuando todo el mundo comenzó a hablar de esta herramienta de inteligencia artificial, una buena parte de la humanidad no ha parado de debatir alrededor de un tema que, por demás, es una conversación vieja: la relación hombre – máquina y el momento exacto en el que las segundas llegarán a reemplazarnos.
Lea: Chat GPT y Blockchain: ¿cómo proteger los datos personales con estas tecnologías?
El 22 de marzo de este año, un grupo de 1.125 científicos, académicos, expertos y ejecutivos, enviaron una carta abierta que alerta sobre los riesgos de la inteligencia artificial (IA) para la humanidad. Entre ellos estuvieron Elon Musk, CEO de SpaceX, Tesla y Twitter; Steve Wozniak, cofundador de Apple, y el famoso historiador Yuval Harari. Cerca de 28 mil personas más han firmado.
En la carta, que pide que se suspenda “de inmediato” el entrenamiento de las IA por seis meses, pueden leerse muchas emociones. Algunas son filosóficas, otras de orden ético, están las temerosas (siempre tenemos miedo ante lo nuevo) y, claramente, las comerciales, las de competencia: ¿quién llegará a ser la primera emulación de Dios y creará la vida artificial?
Sin embargo, pocos se ocupan de explorar alrededor de una conversación que tampoco es nueva: los sesgos discriminatorios y violentos que tienen estas tecnologías. Hoy muchas IA ayudan a combatir el acoso y el matoneo; pero, no siempre fue así. Durante años, movimientos feministas denunciaron que algunas IA estaban preparadas para el acoso. Lo mismo ha ocurrido con comunidades negras que han puesto sobre la mesa la discusión de los sesgos raciales en los algoritmos y sus consecuencias. Joy Boulamwini, del MIT Media Lab, dejó algunas de ellas consignadas en el documental Prejuicio cifrado, que está en Netflix. Y, aunque pocos lo comenten, es absolutamente normalizado que las inteligencias artificiales desconozcan información relacionada con países como el nuestro, Colombia, y otros a los que nos ponen en esa terrible bolsa del subdesarrollo. ¿Sabían ustedes, por ejemplo, que los software de música no identifican la marimba?
Llevo más de dos meses preguntándole diario cosas a Chat GPT y aunque, a su favor, diré que es políticamente correcto (demasiado para mi gusto), también puedo asegurar que tiene prejuicios, sesgos y que no está tan entrenado para responder a preguntas alrededor de ese enfoque que en información hemos llamado hiperlocalidad. Decir que no sabe que es nea, es apenas el comienzo de una provocación para hacernos, desde nuestro origen y amparados en la consciencia del país que somos, preguntas urgentes alrededor del desarrollo de la inteligencia artificial y de nuestros territorios, esa parte del mundo que no es ni Europa ni los Estados Unidos.