

La conversación sobre la “Internet muerta” ha dejado de ser un asunto de nicho para convertirse en tema central del debate tecnológico. El detonante ha sido un comentario reciente de Sam Altman, director ejecutivo de OpenAI, que ha puesto en cuestión cuánta actividad en la red sigue siendo realmente humana.
Altman deslizó en X que nunca prestó demasiada atención a esta idea, pero que hoy detecta muchas cuentas manejadas por modelos lingüísticos. Que lo diga el responsable de una de las compañías que más han popularizado la IA generativa ha encendido todas las alarmas, y de paso ha vuelto a colocar bajo el foco una hipótesis tan incómoda como difícil de demostrar con precisión.
Qué plantea la teoría y de dónde viene
La llamada teoría de la “Internet muerta” sostiene que una porción muy significativa de lo que vemos —publicaciones, comentarios, reseñas o incluso “personas”— no estaría producida por usuarios reales, sino por bots y algoritmos. En esta visión, la web sería un escenario donde unos pocos humanos conviven con un enjambre de simulaciones.
Su origen se sitúa entre mediados de la década de 2010 y 2017, cuando en foros y comunidades se empezó a notar un cambio: menos espontaneidad y más contenido repetitivo, homogéneo y optimizado para atraer clics. El salto de la IA generativa en los últimos años ha dotado a esa sospecha de un barniz de verosimilitud que antes no tenía.
Lo que dijo Sam Altman y por qué importa
En su mensaje, Altman vino a reconocer que cada vez percibe más perfiles en X gestionados por LLM. Estos grandes modelos de lenguaje son la base de ChatGPT y también de herramientas similares como Claude, capaces de redactar textos convincentes en segundos y de sostener conversaciones que parecen humanas.
La apreciación no llega en el vacío: el lanzamiento de ChatGPT a finales de 2022 aceleró la llegada de sistemas afines y puso al alcance de cualquiera la generación masiva de publicaciones, respuestas y piezas de contenido. Eso ha facilitado tanto usos legítimos como prácticas abusivas, desde la automatización comercial hasta el spam y la desinformación.
Que el CEO de OpenAI verbalice esta preocupación amplifica el debate porque su empresa ha sido palanca clave del fenómeno. El mensaje, además, encaja con los crecientes problemas de plataformas como X para contener bots y granjas de cuentas, un reto que se ha demostrado más resistente de lo esperado.
Reacciones cruzadas y la acusación de paradoja
Las respuestas no tardaron: muchos usuarios le recordaron a Altman que la expansión de la IA generativa ha multiplicado el volumen de contenido sintético en redes, blogs y medios. Para sus críticos, advertir ahora del problema equivale a señalar el humo tras haber avivado el fuego.
Otros interpretaron su comentario como parte de una estrategia más amplia: si se asume que Internet está saturada de automatización, cobraría sentido impulsar sistemas que distingan a humanos de bots. Esa lectura conecta directamente con otra de las iniciativas que lidera Altman.
¿Está la red “muerta” o solo saturada? Datos y matices
Consultoras de ciberseguridad llevan tiempo alertando de que una fracción muy elevada del tráfico global procede de automatismos. No todo ese caudal es malicioso: también hay rastreadores para buscadores o herramientas de monitorización. Aun así, la línea que separa lo auténtico de lo sintético se ha vuelto más borrosa.
El efecto visible es una web donde proliferan reseñas fabricadas, comentarios genéricos y publicaciones clonadas, mientras plataformas de gran alcance se llenan de vídeos, imágenes y textos producidos por IA. Casos como canales de YouTube con historias inventadas, imágenes extrañas en redes o polémicas por el uso de modelos virtuales en publicidad alimentan esa sensación.
Conviene no caer en el tremendismo: Internet sigue albergando comunidades vivas, la creatividad online y conversación de millones de personas. La metáfora no sería la de un cementerio, sino la de un paisaje donde lo humano y lo automatizado compiten por la atención, a menudo con ventaja para lo segundo.
Identidad digital y la apuesta de World Network (antes Worldcoin)
En paralelo, Altman impulsa World Network (antes Worldcoin), un proyecto que pretende ofrecer una “prueba de humanidad” mediante el escaneo del iris. La promesa: que cualquier usuario pueda demostrar que es una persona real en entornos online cada vez más poblados por sistemas automáticos.
La idea ha generado una fuerte controversia, sobre todo en Europa, por el tratamiento de datos biométricos. Autoridades y expertos han pedido cautela, subrayando riesgos de seguridad, gobernanza y acceso a información extremadamente sensible.
La propia directora de la AEPD, Mar España, llegó a advertir de las implicaciones de ceder datos tan delicados a cambio de incentivos económicos, insistiendo en que se trata de información que podría tener consecuencias a corto y largo plazo. Tras esa presión, el proyecto ha puesto el foco en reforzar privacidad y transparencia, según afirman sus responsables.
Sus defensores sostienen que, si la automatización sigue avanzando, una verificación robusta de la condición humana será imprescindible; sus detractores ven en ello una solución desproporcionada que abre puertas a nuevos abusos. El debate, de momento, sigue abierto.
Con todo este contexto, la intervención de Altman ha funcionado como un catalizador: ha unido en una misma conversación el auge de los LLM, la dificultad para atajar bots en plataformas masivas, la fragilidad de la confianza digital y la búsqueda de métodos —polémicos o no— para probar quién es quién en la red. La “Internet muerta” quizá no sea un diagnóstico literal, pero sí un aviso sobre una realidad: el equilibrio entre autenticidad y automatización se ha desplazado, y decidir cómo queremos que sea la web en los próximos años ya no admite demoras.
Postposmo
Fuente de esta noticia: https://www.postposmo.com/sam-altman-reabre-el-debate-sobre-la-teoria-de-la-internet-muerta/
También estamos en Telegram como @prensamercosur, únete aquí: https://t.me/prensamercosur Mercosur
