
Demis Hassabis sitúa la IA general a 5-8 años y propone el Test de Einstein: cortar datos en 1911 y ver si reinventa la relatividad en Delhi.
La inteligencia artificial general, esa idea de una IA capaz de razonar con versatilidad humana, ya no se está discutiendo solo como una meta lejana o un eslogan de laboratorio: Demis Hassabis, consejero delegado de Google DeepMind, puso un horizonte concreto este miércoles en Nueva Delhi y lo acotó sin rodeos a entre cinco y ocho años. En su intervención en la Cumbre de Impacto de IA 2026 celebrada en India, Hassabis describió el momento en el que un sistema podría pensar —en el sentido fuerte del verbo— de manera parecida a como lo hace una persona cuando tiene que entender, planificar y resolver problemas que no vienen con soluciones pegadas a la caja.
La frase fue directa, pero lo que realmente encendió el debate fue el “cómo lo sabemos”. Hassabis propuso un criterio nuevo de evaluación, al que llamó “Test de Einstein”, con una idea tan simple como incómoda: entrenar una IA con todo el conocimiento humano disponible, sí, pero cortando los datos en 1911, como si se bajara la persiana de la historia. A partir de ahí, observar si la máquina es capaz de llegar por sí misma a un descubrimiento del calibre de la Relatividad General, que Albert Einstein formuló en 1915. No se trata de que recite fórmulas; se trata de que invente ciencia, que haga lo que hoy —según el propio Hassabis— los modelos actuales todavía no hacen de verdad: producir hipótesis nuevas y sostenerlas con pensamiento propio.
La escena de Nueva Delhi: una predicción con fecha y con presión
Hassabis lanzó su pronóstico en un entorno donde cada palabra pesa más que en una entrevista distendida. La Cumbre de Impacto de IA 2026 en India reunió a centenares de líderes tecnológicos y a una delegación política de alto nivel, con más de 20 jefes de Estado presentes y un público construido para una cosa: discutir el futuro inmediato de la economía digital, la inversión y la regulación. En esa sala, decir “cinco a ocho años” no es solo una predicción técnica; es una señal para gobiernos, competidores, universidades, inversores… y para los propios equipos que trabajan dentro del ecosistema de Google.
En su intervención, Hassabis dibujó el contraste que ya se comenta en pasillos y despachos: las herramientas actuales son, en muchos casos, expertos enciclopédicos que contestan rápido y con soltura, pero todavía les falta una dimensión creativa real comparable a la humana. La imagen es clara si se mira sin romanticismo: hoy tenemos sistemas que parecen saberlo todo, pero que en la práctica suelen moverse dentro del perímetro de lo ya escrito, lo ya dicho, lo ya acumulado. Pueden hilar, combinar, resumir, traducir, programar, sugerir… y aun así, cuando se les exige algo tipo “inventa una teoría que cambie el mundo”, se quedan en terreno resbaladizo. Mucho lenguaje, poca ciencia original, venía a decir.
La clave, según Hassabis, está en una transición: dejar de entender la IA como un “manual de instrucciones infinito” y empezar a verla como un motor de descubrimiento. Una máquina que no solo responde, sino que propone; que no solo completa, sino que explora; que no solo acierta por estadística, sino que razona con objetivos, con dirección, con paciencia. Y ahí aparece el plazo de cinco a ocho años como una promesa de ingeniería: no “un día llegará”, sino “lo estamos construyendo y el calendario se estrecha”.
Qué significa realmente “capacidad humana” en el vocabulario de DeepMind
El debate se atasca siempre en lo mismo: el término. “Capacidad humana” suena a algo absoluto, casi místico, como si hubiera una frontera con una línea roja. Pero en el lenguaje que usa un laboratorio como DeepMind, la idea suele ir por otro sitio: generalidad y transferencia. Es decir, un sistema que no sea brillante solo en un juego o en una tarea, sino que pueda saltar de un problema a otro manteniendo el tipo, aprendiendo, corrigiéndose, y haciendo algo muy humano: manejar lo inesperado.
Un ejemplo concreto ayuda a no perderse. En un tablero cerrado —como el go— hay reglas fijas, objetivos claros, un universo completo y perfectamente definido. En el mundo real, las reglas están incompletas, los objetivos cambian, la información llega tarde o mal, y lo que ayer funcionó hoy puede fallar por un detalle mínimo. La “capacidad humana”, en ese sentido, no es solo acertar. Es planificar a largo plazo, priorizar, renunciar, improvisar, detectar trampas, reconocer errores sin venirse abajo, y sostener un proyecto mental durante semanas o meses. Es también algo poco glamuroso: consistencia. No ser un genio en una frase y un desastre en la siguiente porque cambió una palabra.
Hassabis subrayó precisamente ese punto al hablar de las limitaciones de los sistemas actuales: resuelven lo que ya existe, pero les cuesta crear lo que no existe. Y cuando se habla de ciencia —ciencia dura, ciencia que rompe el molde— no basta con ser un “súper buscador”. Hace falta formular preguntas nuevas, diseñar pruebas, identificar contradicciones y, sobre todo, convivir con la incertidumbre. Eso no se aprende copiando respuestas; se aprende pensando con fricción.
El pronóstico de cinco a ocho años, por tanto, no se debe leer como “una IA será una persona”. Se debe leer como “una IA podría alcanzar un nivel de razonamiento general comparable en ciertas dimensiones clave”, con capacidades que hoy se reparten entre distintas herramientas pero todavía no se integran bien. El salto, en lenguaje llano, sería pasar de una IA que “hace cosas” a una IA que entiende lo que hace, o al menos se comporta como si lo entendiera de manera robusta.
El matiz incómodo: inteligencia no es conversación bonita
Hay un espejismo que ya es casi cultural. Se confunde inteligencia con hablar bien. Los modelos actuales dominan el tono, el ritmo, la frase. Pueden sonar brillantes incluso cuando no lo son. El “Test de Einstein” va justo en dirección contraria: no busca que la máquina redacte una explicación elegante sobre relatividad; busca que la máquina llegue a relatividad sin que se la hayan dado mascada.
En ese sentido, la prueba propuesta por Hassabis sería una bofetada al glamour del chat. Si una IA fuese capaz de reinventar la Relatividad General con datos cortados en 1911, podría hacerlo sin necesidad de sonar ingeniosa. Podría ser torpe escribiendo y aun así producir un avance científico profundo. La inteligencia, en ciencia, no siempre es carisma. A veces es obstinación, método, intuición matemática, y un olfato raro para detectar que hay una pieza escondida bajo la alfombra.
El “Test de Einstein”: por qué 1911 y por qué la Relatividad General
El planteamiento de Hassabis tiene un punto teatral, sí, pero también un propósito claro: diseñar un experimento que distinga entre imitación sofisticada y innovación autónoma. Si a una IA se le alimenta con todo internet hasta 2026, es difícil separar lo que “descubre” de lo que “recuerda” indirectamente. En cambio, si se corta la información en 1911, la máquina no puede apoyarse en el resultado final. Tiene que reconstruir el camino o inventarse uno propio.
La elección de 1911 no es decorativa. Deja a la IA con una física poderosa pero incompleta, con debates abiertos, con herramientas matemáticas presentes pero aún no articuladas en la forma en que acabarían articulándose. Es como darle a alguien todos los ingredientes de una cocina y quitarle el libro donde está el plato estrella. Puede que el cocinero invente algo. Puede que no. Pero si lo inventa, el mérito es difícil de negar.
Y luego está la elección del objetivo: la Relatividad General, formulada por Einstein en 1915, es una de las cumbres de la ciencia moderna. No por su fama, sino por su naturaleza: reinterpreta la gravedad no como una fuerza al estilo clásico, sino como la curvatura del espacio-tiempo producida por la masa y la energía. Es una teoría que exige un cambio mental profundo, no solo una ecuación nueva. Es, de alguna manera, un salto de perspectiva: mirar el mundo con otros ojos… y que el mundo encaje mejor.
El test, por tanto, no se limita a preguntar “¿puede la IA resolver ecuaciones?”. Pregunta algo más parecido a “¿puede la IA cambiar el marco del problema?”. Y esa es la frontera que hoy, según Hassabis, todavía separa a los sistemas actuales del nivel humano que él anticipa.
La dificultad real: inventar también implica equivocarse
Hay otra parte del debate que suele quedar fuera del titular. Inventar una teoría como la Relatividad General no fue una línea recta. Hubo años de intentos, callejones, ajustes, dudas, derivaciones fallidas, reformulaciones. Una IA que aspire a ese tipo de creatividad científica tendría que ser capaz de fallar de manera productiva, no como un error tonto, sino como un error que enseña, que reorienta, que deja un rastro.
Eso es complicado por dos razones. La primera: los sistemas actuales suelen optimizarse para “acertar” en pruebas, no para explorar errores que podrían ser valiosos. La segunda: para que un error sea productivo, hace falta memoria, evaluación, criterio interno, algo parecido a un “me di cuenta de que esto no puede ser porque contradice esto otro”. Esa clase de autocrítica, en términos de ingeniería, exige arquitectura y entrenamiento específicos. No es solo subir potencia.
La hoja de ruta que dejó entrever: planificación tipo AlphaGo y modelos fundacionales
Hassabis habló de un enfoque combinado: por un lado, la capacidad de planificación que se hizo famosa con sistemas como AlphaGo; por otro, la escala de los modelos fundacionales modernos, esos grandes modelos capaces de capturar patrones del lenguaje, del código, de imágenes y, cada vez más, de datos científicos. En el ecosistema de Google, el nombre que flota como pieza central es Gemini, presentado como parte crítica de esa evolución.
Aquí conviene poner el concepto en lenguaje de taller. Un modelo fundacional grande puede servir como un “mapa aproximado del mundo”: no es el mundo, pero contiene regularidades, relaciones, estructuras. Si encima de ese mapa se construye un sistema que planifica acciones, que simula escenarios, que decide qué información falta y cómo obtenerla, entonces la IA deja de ser solo una máquina de respuestas y pasa a parecerse más a un laboratorio automático. La diferencia, otra vez, no es estética. Es funcional.
AlphaGo funcionó en un entorno cerrado. La ciencia es un entorno abierto. La planificación en ciencia implica elegir qué hipótesis explorar, qué experimento diseñar, qué variable controlar, qué modelo desechar. Implica también priorizar, porque el tiempo y los recursos son finitos. Si Hassabis ve posible la AGI en cinco a ocho años, es porque cree que esa combinación —escala + planificación— puede aproximar algo que hoy no tenemos: un sistema capaz de sostener un razonamiento complejo durante mucho tiempo sin perder coherencia.
En términos prácticos, esto encaja con el objetivo que DeepMind viene persiguiendo desde hace años: usar IA para acelerar descubrimientos en campos como biología, química, física de materiales y medicina. La promesa es que una máquina con buena capacidad de “mundo” y buena capacidad de “plan” puede proponer soluciones que a una mente humana le llevarían muchísimo tiempo, o que directamente se quedarían fuera del radar por falta de herramientas.
Por qué el salto no es solo “más datos” ni “más chips”
El sector ha vivido una etapa donde la receta parecía fácil de resumir: más datos, más computación, más parámetros. Eso llevó a avances espectaculares. Pero el propio debate que abre Hassabis sugiere que la siguiente fase necesita algo más cualitativo: estructuras para razonar, mecanismos para integrar memoria y aprendizaje continuo, y métodos para evaluar creatividad sin caer en el “me lo inventé porque sí”.
Una IA que supere el “Test de Einstein” no puede depender de haber visto miles de artículos explicando relatividad. Necesita entender los problemas de la física pre-1911, detectar anomalías, construir un marco matemático, y luego comprobar que ese marco predice mejor la realidad. Ese proceso se parece mucho menos a un “predictor de texto” y mucho más a un sistema que hace ciencia, con disciplina, con paciencia, con una especie de curiosidad dirigida.
Y esto último —curiosidad dirigida— suena poético, pero en un laboratorio se traduce en algo muy concreto: decidir dónde gastar recursos de cómputo y dónde no. La ciencia, incluso para una IA, es un juego de presupuestos.
El debate de la seguridad: el poder de descubrir y el poder de dañar
Hassabis no planteó su horizonte de cinco a ocho años como una carrera alegre sin frenos. Advirtió de manera explícita que hay riesgos ligados a la evolución de estas capacidades, especialmente relacionados con bioseguridad y ciberseguridad. Cuando una IA se vuelve más competente, también se vuelve más útil para quien quiera usarla mal. Y lo inquietante es que el umbral de “útil para hacer daño” puede llegar antes que el umbral de “útil para hacer el bien de forma controlada”.
En bioseguridad, el riesgo no se cuenta con metáforas. Un sistema capaz de ayudar a diseñar fármacos, optimizar proteínas o explorar combinaciones químicas también puede ayudar a explorar rutas peligrosas si alguien lo orienta hacia eso. En ciberseguridad pasa algo parecido: una IA capaz de analizar sistemas complejos, encontrar fallos, sugerir mejoras y automatizar pruebas también puede acelerar ataques si se pone del lado equivocado.
En un encuentro con presencia política tan alta como el de Nueva Delhi, estas advertencias no son un apunte moral, son un mensaje institucional: si de verdad se cree que la AGI está cerca, entonces el debate de regulación, auditoría y contención deja de ser un tema “para más adelante”. No porque haya que frenar la innovación por principio, sino porque a mayor potencia, mayor necesidad de control técnico y de gobernanza. La palabra suena fría, pero significa algo simple: quién decide, con qué límites, con qué supervisión y con qué responsabilidad.
También hay un punto menos visible pero clave: la seguridad no es solo evitar usos maliciosos. Es evitar que un sistema avanzado se comporte de forma impredecible por fallos internos, por objetivos mal definidos o por conflictos entre instrucciones. Una IA que planifica y actúa necesita especificaciones cuidadosas. En el mundo real, un mal objetivo no es una nota mala; puede ser un problema serio.
La cumbre como tablero: reglas globales y economía digital
La presencia de más de 20 jefes de Estado y una masa de líderes tecnológicos convierte el evento en algo más que una conferencia. Se parece más a un mercado donde se negocia el marco de la próxima década digital: inversiones, estándares, y también quién marca el ritmo. India, por escala y por ambición, quiere estar en ese centro. Y las grandes tecnológicas, por lógica empresarial, no quieren quedarse fuera.
En ese contexto, el mensaje de Hassabis funciona en varias capas: anuncia una expectativa de avance, propone una métrica de evaluación (el “Test de Einstein”) y, al mismo tiempo, sugiere que el mundo tendrá que acordar una forma de convivir con sistemas que ya no son solo asistentes, sino potenciales agentes capaces de planificar acciones complejas. El debate público suele ir más lento que la tecnología, y ahí está el choque.
Qué cambiaría si DeepMind acierta: ciencia acelerada, empresas reconfiguradas, trabajo en revisión
Si una IA alcanzara una capacidad de razonamiento general comparable a la humana en el plazo que menciona Hassabis, el impacto no se limitaría a que los chats sean más listos. Cambiaría el modo en que se hace investigación, se desarrollan productos, se detectan errores, se optimizan procesos industriales y se toman decisiones en organizaciones grandes. La expresión “motor de descubrimiento” no es decorativa: implica que la IA no solo participa, sino que empuja.
En ciencia, el cambio más relevante sería la velocidad a la que se generan hipótesis y se exploran espacios de posibilidades. Hoy, muchos campos avanzan despacio no por falta de ideas, sino por falta de tiempo y recursos para probarlas. Una IA que planifique experimentos, que sugiera variables, que diseñe simulaciones y que aprenda de resultados podría reducir drásticamente ciclos de investigación. Eso suena bien… y también introduce un dilema: cómo validar, cómo auditar, cómo evitar que la velocidad convierta la ciencia en una carrera sin controles suficientes.
En empresa, el efecto se vería en tareas de alta cualificación donde el valor está en combinar información dispersa y tomar decisiones razonadas: estrategia, finanzas, logística, diseño, ingeniería, derecho corporativo. No porque una IA “reemplace” de forma automática, sino porque cambia el reparto del trabajo: lo que antes requería equipos grandes durante semanas podría resolverse con menos gente y más supervisión sobre la máquina. En sectores donde el margen de error es pequeño, esa supervisión será un campo de batalla: quién firma, quién responde, quién asume riesgos.
En el trabajo cotidiano, lo más probable es un escenario mixto: IA haciendo una parte sustancial del análisis y humanos tomando decisiones con criterios que no son solo técnicos: valores, contexto, prioridades. Pero esa convivencia no es trivial. Si la IA propone y el humano valida, ¿qué pasa cuando el humano no entiende del todo la propuesta? Es un problema de transparencia y de responsabilidad que se vuelve más serio cuanto más avanzada es la capacidad del sistema.
La trampa del calendario: 2031-2034 suena cerca porque lo es
El horizonte de cinco a ocho años sitúa la discusión en términos casi inmediatos: 2031 a 2034. En tecnología, eso es mañana con un calendario puesto. Y por eso la propuesta del “Test de Einstein” tiene también una función comunicativa: aterriza la discusión en una prueba concreta, un resultado reconocible. Es más fácil debatir sobre si una IA puede reconstruir la Relatividad General sin haber visto los datos posteriores a 1911 que debatir sobre una palabra difusa como “AGI”.
Pero incluso con un test concreto, queda la discusión sobre qué cuenta como éxito. ¿Bastaría con llegar a una teoría equivalente, aunque no sea idéntica en su formulación? ¿Habría que exigir predicciones comprobables? ¿Se permitiría que la IA use herramientas matemáticas disponibles antes de 1911 pero poco explotadas entonces? Estos matices no son retórica, son el corazón de la evaluación.
Y aun así, el gesto de Hassabis apunta a algo claro: la industria está cansada de métricas que se quedan pequeñas o que se pueden “optimizar” sin que eso signifique inteligencia real. Un test que obliga a descubrir, no solo a repetir, es un intento de escapar de esa trampa.
El reloj de la AGI ya está en marcha
El anuncio de Hassabis en Nueva Delhi no es una profecía lanzada al aire; es una declaración con implicaciones prácticas y políticas: DeepMind cree que la inteligencia artificial general está lo bastante cerca como para hablar en años, no en décadas, y propone un estándar para separar el brillo superficial de la innovación científica autónoma. El “Test de Einstein”, con su corte de datos en 1911 y su desafío de llegar a 1915 sin trampas, se convierte en una forma de preguntar algo que el sector lleva evitando con rodeos: si la IA puede ser creadora de conocimiento nuevo, no solo usuaria avanzada del conocimiento viejo.
En lo inmediato, la noticia deja tres certezas operativas, aunque se digan sin solemnidad: la carrera por la generalidad se acelera, la conversación sobre seguridad se vuelve inseparable del avance, y la presión por definir reglas globales crece porque la tecnología no espera a que se escriban consensos. Que la fecha final se cumpla o se retrase es una incógnita; que el debate ya ha cambiado de tono, no. Y el detalle más revelador quizá sea este: cuando un líder de la IA propone como examen reinventar la Relatividad, está diciendo que el listón ya no es “hablar bien” ni “contestar rápido”. El listón es descubrir, sostener una idea dura, y demostrar que no era solo ruido con confianza.
🔎 Contenido Verificado ✔️
Este artículo ha sido redactado basándose en información procedente de fuentes oficiales y confiables, garantizando su precisión y actualidad. Fuentes consultadas: EFE, Business Insider, The Economic Times, IndiaAI, Africanews, ET AI.
Alessandro Elia
Fuente de esta noticia: https://donporque.com/ia-al-nivel-humano-en-8-anos/
También estamos en Telegram como @prensamercosur, únete aquí: Telegram Prensa Mercosur
Recibe información al instante en tu celular. Únete al Canal del Diario Prensa Mercosur en WhatsApp a través del siguiente link: https://whatsapp.com/channel/0029VaNRx00ATRSnVrqEHu1
También estamos en Telegram como @prensamercosur, únete aquí: https://t.me/prensamercosur
Recibe información al instante en tu celular. Únete al Canal del Diario Prensa Mercosur en WhatsApp a través del siguiente link: https://www.whatsapp.com/channel/0029VaNRx00ATRSnVrqEHu1W
