El debate sobre si se puede frenar el avance de la Inteligencia Artificial ha cobrado una relevancia creciente en los últimos tiempos. Figuras clave de la industria tecnológica, expertos en ética y políticos, se han manifestado sobre los riesgos y beneficios de esta tecnología revolucionaria.
Uno de los puntos de mayor controversia es si resulta posible frenar o limitar su desarrollo sin ponerle un límite, al mismo tiempo, a la innovación y al progreso global.
Inteligencia Artificial: la palabra de Eric Schmidt, exCEO de Google
En este sentido, Eric Schmidt, una voz influyente en el mundo de la tecnología, ha dejado clara su postura: frenar el desarrollo de la IA no es factible ni práctico. En varias entrevistas y foros, Schmidt expresó que es un avance inevitable y crucial para el futuro de la humanidad, y que detener su progreso sería como intentar frenar la revolución industrial o la adopción de la electricidad.
Sin embargo, en una reciente entrevista con ABC declaró que sería “ideal” tener a una persona “cerca del enchufe”. Es decir, Schmidt indicó que no sería inteligente dejar que este tipo de tecnología crezca a tal punto que empiece a tomar decisiones por sí misma, sin ningún tipo de control humano. Además, también advirtió en 2023 que la gran mayoría de las empresas tecnológicas no están preparadas para evitar este tipo de riesgos.
Por otro lado, mientras las democracias occidentales limitan el desarrollo de la IA, otros países menos regulados, como China o Rusia, podrían aprovechar esta tecnología para adquirir una ventaja estratégica global.
Los argumentos en contra de la Inteligencia Artificial
La comunidad científica y tecnológica está dividida en cuanto a si es posible, o incluso deseable, frenar la inteligencia artificial. Algunos expertos, como Elon Musk (CEO de Tesla y SpaceX) y el fallecido Stephen Hawking, han advertido repetidamente sobre los riesgos de una IA avanzada sin regulación.
Musk ha llegado a decir que la IA representa “el mayor riesgo existencial para la humanidad”, y ha instado a los gobiernos a establecer marcos regulatorios antes de que sea demasiado tarde. De hecho, en 2023, más de 1000 expertos y figuras destacadas, incluyendo a Musk y Steve Wozniak (cofundador de Apple), firmaron una carta abierta pidiendo una pausa en el desarrollo de sistemas de IA más potentes que GPT-4, al menos durante seis meses, para evaluar sus riesgos.
Estos expertos argumentan que el crecimiento descontrolado de la IA podría llevar a consecuencias impredecibles: desde la automatización masiva de empleos hasta sistemas que escapan al control humano. También advierten sobre el uso indebido de la IA en la manipulación de información, armas autónomas y vigilancia masiva.
Sin embargo, la mayoría de los empresarios e investigadores que firmaron esa carta, hoy están trabajando activamente con la inteligencia artificial, particularmente Elon Musk con Grok, donde se encuentra en “la búsqueda de la verdad de la humanidad” y que sea una tecnología transparente.
Por su lado, el CEO de OpenAI, Sam Altman, tiene su propio punto de vista. Si bien montó su imperio en el modelo generativo de IA con ChatGPT, también declaró que puede apagar la inteligencia artificial con su mochila que lleva a todos lados. En 2023, explicó que dentro tiene una computadora que tiene la capacidad de “apagar la IA”.
Por qué no se puede frenar el avance de la IA, según expertos
Por otro lado, una gran parte de los especialistas sostiene que frenar la IA es imposible debido a la naturaleza global y descentralizada de la investigación y el desarrollo tecnológico. Según esta postura, el conocimiento no puede desinventarse y los avances en IA continúan ocurriendo en todo el mundo, tanto en el ámbito público como en el privado.
Al respecto, Geoffrey Hinton, considerado uno de los padres de la IA moderna, ha expresado preocupación por los riesgos que plantea esta tecnología. Sin embargo, también ha reconocido que no hay una forma viable de detener su avance sin que esto implique renunciar a importantes beneficios. La IA ya está transformando áreas como la medicina, la educación y la investigación científica, lo cual podría salvar millones de vidas y mejorar significativamente la calidad de vida.
Una tercera postura, que parece estar ganando terreno, aboga por regular la IA en lugar de frenarla. Organizaciones como la Unión Europea han dado un paso al frente con propuestas como la AI Act, una legislación que busca regular el desarrollo y uso de la inteligencia artificial en función de los riesgos que representa. La idea es garantizar que los sistemas de IA sean transparentes, auditables y responsables ante la sociedad.
En este contexto, Brad Smith, presidente de Microsoft, ha subrayado que se necesita un “manual de uso” para la IA, con normas claras que prevengan abusos y garanticen su desarrollo responsable. En efecto, la mayoría coincide en que la colaboración entre gobiernos, industria y academia es clave para evitar escenarios distópicos.
Dolores Barón
Fuente de esta noticia: https://defonline.com.ar/ciencia-tecnologia/esta-la-humanidad-a-tiempo-de-frenar-a-la-inteligencia-artificial/
************************************************************************************************************
También estamos en Telegram como @prensamercosur, únete aquí: Telegram Prensa Mercosur
Recibe información al instante en tu celular. Únete al Canal del Diario Prensa Mercosur en WhatsApp a través del siguiente link: https://whatsapp.com/channel/0029VaNRx00ATRSnVrqEHu1También estamos en Telegram como @prensamercosur, únete aquí: https://t.me/prensamercosur Mercosur
Recibe información al instante en tu celular. Únete al Canal del Diario Prensa Mercosur en WhatsApp a través del siguiente link: https://www.whatsapp.com/channel/0029VaNRx00ATRSnVrqEHu1W
- Llamado al curso de verano: «Mi primera licencia» - 3 de enero de 2025
- Mueren dos personas tras estrellarse un avión en California - 3 de enero de 2025
- El desconocido ‘toque’ chino del primer ferrocarril transcontinental de Estados Unidos - 3 de enero de 2025