27/04/2026
Timnit Gebru nació en Etiopía a comienzos de los años ochenta. Su padre, un ingeniero eléctrico con doctorado, murió cuando ella tenía cinco años. Su madre la crió en Addis Abeba. La vida estaba marcada por los libros y por la idea de que la educación podía sacar a una niña de casi cualquier lugar difícil.
Luego llegó la guerra.
Cuando Gebru era adolescente, estalló la guerra entre Eritrea y Etiopía. Su familia tenía raíces eritreas, y ella tuvo que huir del único país que había conocido. Al principio le negaron la visa para Estados Unidos, vivió brevemente en Irlanda y finalmente obtuvo asilo político en América. Más tarde describiría toda aquella experiencia como miserable.
Se instaló en Massachusetts y empezó la escuela secundaria como refugiada. Todavía no dominaba bien el inglés. Aun así, algunos administradores intentaron mantenerla fuera de clases avanzadas, pese a que era una de las mejores estudiantes. Ella peleó por entrar de todos modos. Esa negativa silenciosa a aceptar una versión más pequeña de su futuro marcaría todo lo que vino después.
Años más tarde, obtuvo su doctorado en la Universidad de Stanford, una de las instituciones más respetadas del mundo en investigación tecnológica.
Después hizo algo que cambió todo su campo.
En 2018, junto con la investigadora Joy Buolamwini, publicó un estudio llamado Gender Shades. Analizaron sistemas comerciales de reconocimiento facial de grandes empresas tecnológicas y encontraron algo alarmante. Para hombres de piel clara, los sistemas podían equivocarse menos del uno por ciento. Para mujeres de piel oscura, los errores llegaban hasta el 34,7 por ciento. La tecnología que se estaba vendiendo y usando en distintos lugares del mundo fallaba de manera desproporcionada con las personas que más podían sufrir las consecuencias de una identificación incorrecta.
El estudio se convirtió en un hito. Cambió la forma en que la industria tecnológica hablaba del sesgo.
Ese mismo año, Google la contrató como codirectora técnica de su equipo de inteligencia artificial ética, junto con la investigadora Margaret Mitchell. La empresa la presentó públicamente como una señal de que se tomaba en serio la responsabilidad tecnológica. Bajo su liderazgo, el equipo llegó a ser uno de los grupos de investigación en ética de la inteligencia artificial más respetados y diversos dentro de una gran empresa tecnológica.
Luego llegó el artículo que lo cambió todo.
En 2020, Gebru y varias coautoras escribieron un estudio titulado Sobre los peligros de los loros estocásticos: ¿pueden ser demasiado grandes los modelos de lenguaje? El texto planteaba advertencias serias sobre los grandes modelos de lenguaje que empezaban a volverse centrales para las grandes empresas tecnológicas.
Primero, el sesgo. Estos modelos aprenden de enormes cantidades de texto de internet, que contienen racismo, sexismo, odio y desigualdades acumuladas durante siglos. Los sistemas pueden absorber esos patrones y devolverlos al mundo a gran escala.
Segundo, el costo ambiental. El entrenamiento de modelos enormes puede requerir grandes cantidades de energía, y los sistemas seguían creciendo.
Tercero, la falta de responsabilidad. Los conjuntos de datos son tan inmensos que ningún equipo puede auditarlos por completo. Nadie puede garantizar con total certeza qué reproducen, a quién excluyen o a quién pueden dañar.
El artículo pedía a la industria que se detuviera a pensar.
Google no quería detenerse.
Poco antes de su salida, Gebru había recibido evaluaciones positivas. Pero después de presentar el artículo, directivos de Google le pidieron retirarlo o quitar los nombres de quienes trabajaban en la empresa. Ella preguntó quién lo había revisado. Pidió comentarios concretos. Pidió transparencia. También envió un correo interno expresando su frustración por la forma en que la compañía trataba la diversidad y el sesgo.
El 2 de diciembre de 2020, Google puso fin a su empleo. La empresa lo presentó como una renuncia. Ella dijo claramente que había sido despedida.
La respuesta fue inmediata y enorme.
Miles de empleados de Google firmaron una carta de protesta en su apoyo. Miles de académicos e investigadores se sumaron. Miembros del Congreso de Estados Unidos pidieron explicaciones directamente al director ejecutivo de Google, Sundar Pichai.
Pero Gebru hizo algo todavía más notable que protestar.
Construyó.
Exactamente un año después, el 2 de diciembre de 2021, lanzó DAIR, el Instituto de Investigación Distribuida de Inteligencia Artificial. Nació con 3,7 millones de dólares en financiación de fundaciones como Ford, MacArthur, Open Society, Rockefeller y Kapor Center. Independiente. Sin accionistas. Sin ejecutivos decidiendo qué hallazgos se publican y cuáles se entierran. Investigadores de distintas partes del mundo trabajan allí para documentar cómo la inteligencia artificial puede dañar a las personas más vulnerables.
El reconocimiento llegó pronto.
En 2021, Fortune la nombró una de las 50 grandes líderes del mundo. Ese mismo año, Nature la incluyó entre las diez personas que ayudaron a dar forma a la ciencia. En 2022, Time la nombró una de las 100 personas más influyentes del mundo. En 2023, la BBC la incluyó entre sus 100 mujeres más inspiradoras e influyentes.
Piensa por un momento en el arco de su vida.
Huyó de una guerra. Le negaron visas. Reconstruyó todo desde cero. Obtuvo un doctorado en Stanford. Expuso discriminación en tecnologías usadas en todo el mundo. Entró en Google para ayudar a corregir la inteligencia artificial desde dentro. Fue reconocida. Dijo la verdad sobre una tecnología peligrosa. Perdió su empleo por hacerlo. Y después construyó su propia institución, libre de las empresas que habían intentado silenciarla.
Google la contrató para encontrar problemas.
Ella los encontró.
Google la apartó.
Los problemas siguen ahí.
Los modelos siguen creciendo. Los sesgos siguen apareciendo. Las empresas siguen ganando poder.
Y Timnit Gebru sigue diciendo la verdad.
Aunque el mundo todavía no esté listo para escucharla.
Fuente: Nature ("Timnit Gebru: A year of fighting for ethical AI", 15 de diciembre de 2021)