Durante meses, Mark Zuckerberg, CEO de Meta, presumió de un plan para extender la inteligencia artificial a todos sus servicios, permitiendo que miles de millones de personas utilicen chatbots en todo, desde Facebook hasta sus gafas de realidad virtual.
Esa visión se está haciendo realidad. Zuckerberg anunció el jueves que la empresa integrará la última versión de su chatbot conversacional, Meta AI, en todas sus aplicaciones de redes sociales, lo que permitirá a la herramienta generar imágenes y responder a las preguntas de sus usuarios.
La empresa también presentó la última iteración de su gran modelo lingüístico, Llama 3, una medida que sitúa a las herramientas de IA de Meta en plena competencia con los principales chatbots, como ChatGPT de OpenAI, Gemini de Google, Copilot de Microsoft y Claude de Anthropic. El magnate tecnológico promocionó el renovado producto Meta AI como “el asistente de IA más inteligente” de uso gratuito.
Pero los expertos advierten de que el amplio uso del chatbot de IA puede amplificar los problemas que desde hace tiempo afectan a las redes sociales de Meta, como la desinformación perjudicial, la incitación al odio y el contenido extremista. También es probable que el generador de imágenes de la empresa provoque debates sobre cómo elige representar la raza y el género cuando crea escenarios imaginarios.
“Existía un temor generalizado sobre cómo los LLM interactuarían con las redes sociales y exacerbarían la desinformación, la incitación al odio, etc.”, afirmó Anika Collier Navaroli, investigadora principal del Tow Center for Digital Journalism de Columbia y antigua responsable de la política de Twitter.
“Y da la sensación de que siguen facilitando que las malas predicciones se hagan realidad”, agregó.
El portavoz de Meta, Kevin McAlister, dijo en un comunicado que se trata de “una tecnología nueva y puede que no siempre devuelva la respuesta que pretendemos, que es la misma para todos los sistemas de IA generativa”.
“Desde nuestro lanzamiento, hemos lanzado constantemente actualizaciones y mejoras de nuestros modelos y seguimos trabajando para mejorarlos”, añadió.
Aunque Meta AI estará disponible en un nuevo sitio web independiente, también poblará los cuadros de búsqueda de WhatsApp, Instagram, Facebook y Messenger. La compañía también ha experimentado con el asistente de IA en grupos de Facebook, donde responde automáticamente a las preguntas de los grupos si nadie ha respondido en una hora.
Meta se enfrenta desde hace tiempo al escrutinio de activistas y reguladores sobre cómo gestiona contenidos delicados sobre política, asuntos sociales y actualidad. Los chatbots con inteligencia artificial, conocidos por “alucinar” y dar respuestas falsas o no basadas en la realidad, podrían agravar estas polémicas.
Incluir esta tecnología es “invitar a estas herramientas a opinar sobre temas que van desde la educación a la sanidad, pasando por la vivienda o la política local, todos ellos ámbitos en los que los desarrolladores de tecnología de IA deberían actuar con cautela”, afirmó Miranda Bogen, directora del AI Governance Lab del think tank Center for Democracy and Technology y antigua responsable de políticas de IA en Meta.
“Si los desarrolladores no reflexionan sobre los contextos en los que se desplegarán las herramientas de inteligencia artificial, estas no solo serán inadecuadas para las tareas previstas, sino que también corren el riesgo de causar confusión, trastornos y daños”, sostuvo.
El miércoles, la profesora de informática y asuntos públicos de Princeton Aleksandra Korolova publicó en X capturas de pantalla de Meta AI hablando en un grupo de Facebook para miles de padres de Nueva York. En respuesta a una pregunta sobre programas para superdotados y talentosos, el chatbot AI afirmó ser un padre con experiencia en el sistema escolar de la ciudad, y pasó a recomendar una escuela específica.
McAlister dijo que el producto está evolucionando y que algunas personas pueden empezar a ver que “algunas respuestas de Meta AI son sustituidas por una nueva respuesta que dice ‘Esta respuesta no era útil y ha sido eliminada’”. Seguiremos mejorando’”.
Esta semana, un emprendedor que experimentaba con Meta AI en WhatsApp descubrió que esta se inventaba un post en su blog acusándole de plagio, ofreciendo incluso una cita formal del post, que no existe.
Los generadores de imágenes como Meta también han tenido sus propios problemas. A principios de este mes, un reportero de Verge tuvo problemas para conseguir que generara imágenes de una persona asiática con una persona blanca en pareja o como amigos, a pesar de dar al servicio indicaciones repetidas y específicas. En febrero, Google bloqueó la posibilidad de generar imágenes de personas en su herramienta de inteligencia artificial Gemini después de que algunos usuarios la acusaran de parcialidad contra los blancos.
Ahora, Navaroli dice que le preocupa que los prejuicios incorporados a las herramientas de IA “se retroalimenten en las líneas de tiempo sociales”, reforzando potencialmente esos prejuicios en un “bucle de retroalimentación hacia el infierno”.
Korolova, la profesora de Princeton, dijo que las afirmaciones potencialmente falsas de Meta AI en los grupos de Facebook son probablemente “sólo la punta del iceberg de los daños que la empresa no anticipó”.
“Sólo porque la tecnología sea nueva, ¿deberíamos aceptar un listón más bajo para los daños potenciales?”, preguntó Korolova. “Esto suena otra vez a ‘Muévete rápido y rompe cosas’”, concluyó.
infobae.com
- TravelgateX irrumpe en Latinoamérica con una propuesta de valor innovadora - 18 de julio de 2024
- INCOMUNICADOS: El Gobierno de Milei dió rienda suelta a los aumentos en internet, cable y celular. - 27 de junio de 2024
- Por qué las fuertes nevadas y lluvias podrían contribuir a generar terremotos, según expertos del MIT - 10 de mayo de 2024