Durante el Festival de Ciencia Puerto de Ideas Antofagasta 2025, el destacado investigador Ricardo Baeza Yates ofreció una charla cautivadora titulada "Imitadores artificiales, desafíos humanos", donde abordó el impacto, las fallas y los peligros de la inteligencia artificial (IA) en nuestras sociedades.
LEE TAMBIÉN EN CONCIENCIA 24.7:
- Estudiante universitaria expone en el Vaticano sobre derechos digitales
- Sonda Lucy capta imágenes del asteroide Donaldjohanson formado hace 150 millones de años
- Brasil se une a Latam GPT: impulso latinoamericano a la IA desde Chile
En su exposición, recordó cómo en 1984 —el año del lanzamiento del primer Macintosh y el estreno de la película Terminator—, la obra literaria de George Orwell imaginaba un futuro distópico aterrador que, frente a desafíos globales actuales como el crecimiento incontrolable de las tecnologías, parece hoy más cercano que nunca. Sin embargo, Baeza Yates fue enfático en su mensaje: "Podemos construir un futuro mejor".
¿Qué es realmente la inteligencia artificial?
Para comenzar, explicó que gran parte de la IA actual se basa en aprendizaje automático supervisado, utilizando ejemplos para entrenar algoritmos. De ahí se desprenden dos ramas esenciales:
- IA predictiva: anticipa resultados.
- IA generativa: crea contenido nuevo.
No obstante, Baeza Yates advirtió que los datos de entrenamiento no reflejan toda la realidad, lo que abre espacios a errores y sesgos preocupantes. Explicó que es imposible recopilar todos los datos existentes para entrenar una IA y que, además, el entrenamiento se realiza con conjuntos de datos aún más pequeños, generando sesgos o censuras inevitables.
Casos donde la IA falló
El investigador presentó ejemplos concretos que evidencian los riesgos del mal uso de esta tecnología:
- Reconocimiento facial para predecir crímenes, con reminiscencias de la frenología de Cesare Lombroso.
- Autopilotos de Tesla y Uber involucrados en accidentes fatales.
- Errores judiciales, como el escándalo del Servicio Postal Británico, que afectó a más de 900 personas.
- Discriminación algorítmica en la entrega de subsidios infantiles en Países Bajos, que provocó la caída de un gobierno.
Estos casos, señaló Baeza Yates, muestran que la irresponsabilidad en el uso de la IA puede tener efectos devastadores. En este contexto, advirtió sobre los principales riesgos:
"Yo creo que uno es la desinformación, que se use para fines políticos, como manipular elecciones o inventar información falsa. Y el otro es el impacto en la salud mental, cuando las personas creen que estos sistemas son como humanos y los convierten en psicólogos digitales o amigos, impidiendo el contacto humano, que es lo más importante para nosotros", señaló.
¿Quién debe ser responsable?
Consultado sobre la responsabilidad frente a errores o daños que cause la IA, Baeza Yates fue claro:
"Si ChatGPT discrimina, hay que hablar con OpenAI. Si Gemini discrimina, hay que hablar con Google. O sea, la empresa que pone esa herramienta a disposición del público es la que tiene que ser responsable", subrayó.
¿Se puede desarrollar una IA ética?
Aunque existe esperanza, el experto advirtió sobre los intereses comerciales que hoy dominan el panorama tecnológico:
"Sí se puede, pero no veo que se esté haciendo hoy en día porque los intereses comerciales son más importantes que los intereses sociales", sostuvo Baeza Yates.
El desafío: fortalecer la inteligencia humana
Más allá de las fallas, el investigador hizo un llamado a no humanizar a la IA ni delegar nuestra capacidad de pensar en las máquinas: "Estamos construyendo una nueva Torre de Babel, no de idiomas, sino de conocimientos fragmentados", advirtió.
Con ejemplos como los deepfakes, los "deadbots" que recrean conversaciones con personas fallecidas, o los errores judiciales provocados por algoritmos, Baeza Yates enfatizó la importancia de potenciar la inteligencia natural, el pensamiento crítico y la reflexión ética en un mundo donde la IA avanza cada vez más rápido.
¿Pueden los humanos pensar?, concluyó.