Durante años, los seres humanos hemos hecho maratones de Netflix, doomscrolleado en Instagram y subido videos de gatos sin pensar demasiado en dónde vive realmente Internet. En el sur de Arizona, esa infraestructura invisible de pronto se ha vuelto muy real, en forma de enormes centros de datos propuestos y las controversias que han provocado.
Solo recientemente los centros de datos de hiperescala, y los desarrolladores que los construyen, han comenzado a presentar propuestas de varios millones de dólares ante las comunidades locales, argumentando la necesidad urgente de más “compute”, como llaman los expertos a la potencia computacional que proviene de las filas de servidores que llenan los centros de datos. ¿Por qué este aumento repentino?
¿Acaso Internet no funcionaba ya, hace apenas un par de años, a su manera rápida y extraña, sin toda esa capacidad adicional?
Una gran parte de la razón por la que se necesita tanta energía extra es la inteligencia artificial: la tecnología algorítmica adaptable que ofrece ayuda con la tarea, traducciones rápidas, consejos terapéuticos de dudosa ética y que incluso podría amenazar la existencia de la humanidad.
Pero, ¿qué es exactamente la IA? ¿Por qué está infiltrándose cada vez más en tantas de nuestras actividades en Internet? En el sur de Arizona, esa pregunta se ha vuelto urgente. Proyectos propuestos como Proyecto Blue o el desarrollo a gran escala en Marana han obligado a residentes y autoridades a confrontar lo que Internet realmente exige en términos de tierra, electricidad y agua.
Para entender qué es la IA y qué potenciales y amenazas puede traer consigo, aquí hay tres libros que pueden ayudar a desmitificar el futuro de Internet.
- “The Empire of AI” (2025), de Karen Hao, es un relato periodístico sobre OpenAI, los “trabajadores de datos” en Kenia, activistas por el agua en Chile y muchos otros actores, tanto internos como críticos de la industria.
Periodista de investigación, Hao ha cubierto la IA, y en particular a OpenAI, desde 2019. Mientras Sam Altman, director ejecutivo de OpenAI, presentaba a la empresa como un contrapeso al poder y la avaricia de otros actores del sector, Hao comenzó a darse cuenta de que esa esperanza optimista era en gran medida una ilusión, y que la industria en auge no solo amenazaba con ser disruptiva para la cultura tecnológica y los mercados, sino también para nuestro clima.
Las enormes cantidades de agua y energía necesarias para los centros de datos que impulsan la inteligencia artificial podrían ser superiores a lo que nuestras redes eléctricas y nuestros acuíferos pueden soportar.
- El siguiente libro es “AI Snake Oil” (2024), de Arvind Narayanan y Sayash Kapoor.
Los autores, un científico en computación de Princeton y un estudiante de doctorado de Princeton (además de ex ingeniero de Facebook), respectivamente, también escriben un boletín informativo popular sobre este tema.
Una distinción clave que Narayanan y Kapoor hacen en el libro es entre la IA generativa y la IA predictiva. La primera es la que produce texto mediante chatbots como ChatGPT, o imágenes a través de DALL·E. Ambas formas de IA conlleva costos sociales y riesgos a corto plazo, pero Narayanan y Kapoor se muestran “cautelosamente optimistas respecto al potencial de la IA generativa para mejorar la vida de las personas a largo plazo”.
La IA predictiva, en cambio, se basa en el análisis estadístico para identificar tendencias y patrones con el fin de hacer predicciones o anticipar el futuro. A esto es a lo que los autores se refieren como “aceite de serpiente”. Los problemas surgen cuando responsables de políticas públicas o fuerzas del orden utilizan la IA para predecir el comportamiento humano y, en ocasiones, toman decisiones que cambian la vida de las personas basándose en esas predicciones que, según sostienen los autores, a menudo son falsas.
- El último libro adopta un enfoque más filosófico sobre la IA. “The Alignment Problem” (2021), de Brian Christian, puede parecer algo antiguo, dado que se publicó hace cinco años y el ritmo de innovación desde entonces ha sido vertiginoso, pero uno de los puntos centrales de Christian es que necesitamos, si no desacelerar, al menos avanzar con más cautela.
El “problema” titular que identifica Christian es un posible desalineamiento entre los valores humanos y los principios de la IA. Más específicamente, el problema de la alineación se remonta a la década de 1960, cuando el pionero de la IA Norbert Wiener señaló la brecha potencial entre el “propósito puesto en la máquina” y el “propósito que realmente deseamos”.
Christian y otros teóricos y practicantes de la IA reconocen que existe un cierto problema de “caja negra” con la IA: la brecha entre las entradas y las salidas (o lo que la IA realmente hace) es incomprensible para la mayoría de nosotros. Esa compleja opacidad es potencialmente un peligro.
Nadie sabe cómo será la IA en uno, cinco, diez años o más. Ya sea que nuestro futuro infectado por la IA sea utópico o carente de humanos o en algún punto intermedio, comprender las tendencias recientes y los peligros actuales de la IA ahora puede, al menos, ayudarnos a tomar decisiones responsables y alinearlas con nuestros valores humanos.
Traducción: Beatriz Limón


