“La tecnología no es buena ni mala y tampoco es neutral[i].” A este enunciado del historiador Melvin Kranzberg se suele añadir que la tecnología es: lo que los hombres hacen con ella. Por su lado Bill Gates indica que el poder de la IA es tan increíble que implicará una mutación profunda de la sociedad ; ciertas vías serán buenas otras serán malas[ii]”.
En artículos anteriores señalamos los beneficios de la IA, cabe ahora analizar cuáles son las “vías malas” de esa tecnología, por lo menos las más graves[iii], su impacto sobre la sociedad y cómo limitarlas en el caso de no poder evitarlas.
Para esto, clasificaremos las utilizaciones negativas de la IA en tres categorías: la desinformación, el control de las personas y los ataques contra los individuos y las instituciones (weaponization).
La desinformación
Sabemos que, por diseño, los sistemas de IA generativa actuales no garantizan resultados factuales libres de error, ni crean contenidos sin sesgos de tipo societal o ideológico[iv].
Un estudio de NewsGuard[v] de ChatGPT4, mostró que con esta versión del chatbot, según la manera de formular una pregunta, la probabilidad de obtener un resultado falso es mayor que con las versiones anteriores; que en 79% de los casos, el sistema ofrece ningún desmentido sobre las falsas informaciones, y que no filtra contenidos complotistas.
No obstante, la IA generativa no “desinforma” per sé, en la medida en que las informaciones falsas producidas no hayan sido introducidas (en principio) de manera intencional. Lo que no elimina su potencial peligrosidad. Como lo señala Harary[vi], la IA crea una relación de confianza (hasta de intimidad) con el usuario, por lo que una información mala escondida entre una gran cantidad de informaciones reales, o de “buenos” consejos, puede traer graves consecuencias (véase, por ejemplo, el caso de Snapchat[vii]).
La IA generativa contribuye, propiamente, a la desinformación cuando es utilizada de manera deliberada, con el fin de engañar para influenciar una opinión y para debilitar un adversario al crear fakes y hasta deepfakes[viii] o ultrafalsos.
Por ejemplo, cuando se utiliza para: crear propaganda de todo tipo al imitar un estilo de escritura que sea de los principales difusores de falsas informaciones, de medios de Estado o bien de conspiracioncitas; estafar al sintetizar y simular la voz de las personas[ix]; manipular o desprestigiar a individuos e instituciones al generar, con una simple orden escrita, videos e imágenes falsas comprometedoras. Todo esto se puede realizar sencillamente, sin mayor costo, y difundir masivamente vía Internet.
Los procesos electorales son particularmente vulnerables a la desinformación[x]. Con la ayuda de la IA generativa esta desinformación puede llegar a abrumar la democracia[xi]. Así, algunos expertos no dudan en anticipar que para la campaña presidencial del 2024 en EEUU, la IA generativa podría crear una desinformación catastrófica[xii] y usarse para alterar el curso de las elecciones[xiii].
De forma general, el incremento de la desinformación por la IA generativa en cualquier ámbito de la vida social, económica, política y privada de las personas, puede contribuir a sembrar la duda en cuanto a la veracidad de los hechos, a la creación de verdades “alternativas”, a la desconfianza en la información en general y a la sospecha entre las personas, en breve: a socavar el dialogo social y a desestabilizar la sociedad
Para evitar esta situación habría que emprender políticas públicas en varias direcciones:
_promover la alfabetización digital y mediática de la población, con respecto a lo que se puede realizar con la IA generativa, y de sus posibles usos e impactos negativos en los medios de comunicación;
_educar a las personas para que verifiquen la información que reciben, utilizando el razonamiento analítico e evitando, lo más que se pueda, los sesgos cognitivos de todo tipo (de confirmación, de anclaje, de ideología o partidario, etc.[xvi]);
_recurrir a la misma IA, utilizando las técnicas del deep learning para detectar los deepfakes [xvii];
_apoyar el desarrollo de las organizaciones que se dedican al fact-checking y a la producción de herramientas de IA para contrarrestar la desinformación[xviii];
_establecer regulaciones, como en la UE la Ley de Servicios Digitales (DSA)[xix] que obliga a las grandes plataformas (X, Facebook, Instagram, …) a cumplir une serie de directrices para minimizar la desinformación y a regular mejor sus contenidos, o el Artificial Intelligence Act (AI Act)[xx] que impone a las empresas tipo ChatGPPT a señalar a las personas cuando interactúan con una IA; a diseñar los modelos evitando que generen contenidos ilegales; a publicar resúmenes de los derechos de uso de los datos utilizados para entrenar estos modelos;
_obtener la cooperación internacional para regular la IA, puesto que la desinformación, por lo general, proviene de actores que operan a nivel global.
Todas estas acciones no serán fácil ni rápidamente aplicables, razones por las cuales habría de iniciarlas cuanto antes.
El control de las personas
Con tecnologías como los sistemas de reconocimiento facial y los Large Lenguage Models (LLM), ambas tecnologías basadas en el deep learning, la IA aumenta de forma considerable las capacidades de los sistemas de vigilancia.
Los sistemas de reconocimiento facial, acompañados de dispositivos conectados _cuya diseminación ha sido fulgurante con la digitalización de la sociedad_, permiten seguir a las personas por todo lado y en todo momento. Por su lado, los LLM pueden identificar los puntos clave, resumir y proporcionar feedback sobre conversaciones en lenguaje natural (mucho más eficaz y velozmente que las tradicionales búsquedas de palabras claves), facilitando el rastreo de la huella digital que dejan los individuos en las redes sociales, los buscadores, los chatbots y otros medios sociales.
Estas tecnologías son utilizadas por los Estados para asegurar la seguridad de la población, pero también para controlarla. Por supuesto, la situación no es la misma en países autoritarios que en democracias liberales.
Por ejemplo en China, país que cuenta con una cámara de vigilancia para dos habitantes, “el reconocimiento facial se inmiscuyó en la vida cotidiana de los chinos, de los lugares públicos a los distribuidores de papel higiénico, regulando así los usos hasta en la intimidad[xxi].” La IA ha permitido al Estado chino instaurar el social scoring[xxii]un sistema de puntos para calificar las acciones de los ciudadanos observados, con el fin de distinguir buenos de malos ciudadanos y de orientar sus comportamientos.
En las democracias liberales se han multiplicado los sistemas de vigilancia para asegurar la seguridad de la población afín de luchar contra la delincuencia y el terrorismo[xxiii]. Sin embargo, existe el riesgo que los gobiernos se extralimiten en sus obligaciones, y que recolecten datos no solamente de criminales sospechosos, sino también de los ciudadanos -recordemos las revelaciones de Edward Snowden, hace justamente 10 años[xxiv]-. Este riesgo se incrementa porque las poblaciones, que han vivido en estado de crisis casi permanente estos últimos años (atentados extremistas, crisis sanitaria, catástrofes climáticas), están más inclinadas que en el pasado a aceptar restricciones a sus libertades individuales y colectivas, si esto puede contribuir a su seguridad.
Para evitar estas derivas de control global e indiscriminado, la IA Act de la UE, antes citada, establece como inaceptables los usos de la IA que comprometen las libertades fundamentales de las personas, específicamente: la manipulación del comportamiento cognitivo, el social scoring y los sistemas de identificación biométrica a distancia en tiempo real[xxv].
Otros países en el mundo están siguiendo los pasos de la unión europea para regular la IA[xxvi]. Observamos que entre estos países no están, todavía, los Estados Unidos de América, ni Costa Rica, lastimosamente.
la IA: su “weaponization” o como utilizar la IA para atacar a una persona o a un grupo
La IA ya está ampliamente utilizada por los ejércitos más avanzados del planeta. Además del campo de la inteligencia militar (donde se ha vuelto esencial), esta tecnología está en el corazón de los Autonomous Weapon Systems (AWS): drones, misiles, etc., también denominadas como killer robots, que utilizan la IA para identificar, seleccionar y matar blancos humanos sin intervención del hombre[xxvii].
El desarrollo de estos sistemas está generando una carrera armamentista de gran magnitud entre las potencias mundiales. Como lo declaró Vladimir Putin: “ el que se convertirá en el líder en este campo (la IA) será el amo del mundo[xxviii]”.
¿Cuáles son los riesgos específicos que conlleva el uso de la IA para en la guerra? El Instituto de Investigación para la Paz de Estocolmo identificó tres niveles de riesgos[xxix].
El primer nivel es tecnológico. Hemos visto que la IA no está exenta de fallas, lo que puede ser fatal en el caso de un arma. Recientemente, durante un ejercicio, la IA de un dron de combate tomó la decisión de matar a su operador que le impedía… realizar su objetivo[xxx].
El segundo nivel de riesgo consiste en que la IA puede cambiar la forma en que se organizan las guerras y los conflictos. El poder iniciar ataques con armas que no implican la intervención de soldados en el terreno, podría incitar a multiplicar los enfrentamientos.
El tercer nivel radica en la posibilidad de una distribución más amplia de estos sistemas: los malhechores pueden acceder fácilmente a esta tecnología, “no es como la tecnología nuclear que no se puede comprar en la esquina[xxxi]”.
Adicionalmente al ámbito de la guerra, están los riesgos asociados al uso de la IA para acometer actos terroristas; por ejemplo, para: crear armas químicas, potenciar los ciberataques, hackear vehículos autónomos o sistemas controlados por la IA (en cadenas de distribución eléctrica o de alimentación); manipular mercados financieros; desviar drones de ataque; etc.
Frente a la weaponization de la IA, se debería establecer una reglamentación internacional para enmarcar la IA militar, tal como se ha realizado con las armas nucleares [xxxii]. No obstante, esto se ve difícil de lograr en el contexto geopolítico actual.
Sería necesario, también, desarrollar y utilizar la misma inteligencia artificial para contrarrestar los sistemas de IA de ataque, aunque estos esfuerzos no acabarán con la ingeniosidad de los “ciberdelinquentes” para esquivar los mecanismos de seguridad.
Conclusión
La utilización de la IA para desinformar, controlar o atacar a las personas hace correr riesgos a la sociedad que serán difíciles de enfrentar, pero no son inevitables: se trata de prohibir que los humanos fijen a la IA objetivos perjudiciales para la sociedad, y esto, al fin y al cabo, es esencialmente una cuestión de voluntad política. Pero: ¿qué será cuando la IA sea lo suficientemente inteligente para fijar, de forma autónoma, sus propios objetivos? ¿Será entonces el hombre aún en capacidad de controlar a las maquinas? Trataremos estas preguntas en un próximo artículo.
[i] Kranzberg, Melvin (July 1986). “Technology and History: “Kranzberg’s Laws””. Technology and Culture. 27 (3): 544–560.
[ii] https://www.cnbc.com/2019/03/26/bill-gates-artificial-intelligence-both-promising-and-dangerous.html
[iii] https://www.futura-sciences.com/tech/questions-reponses/intelligence-artificielle-20-menaces-plus-dangereuses-intelligence-artificielle-14343/
[iv] https://www.crhoy.com/opinion/el-lector-opina/la-ia-un-nuevo-renacimiento-o-una-amenaza-para-la-humanidad/
[v] https://www.newsguardtech.com/misinformation-monitor/march-2023/
[vi] https://www.lepoint.fr/sciences-nature/yuval-harari-sapiens-versus-yann-le-cun-meta-on-artificial-intelligence-11-05-2023-2519782_1924.php
[vii] https://edition.cnn.com/2023/04/27/tech/snapchat-my-ai-concerns-wellness/index.html
[viii] A video of a person in which their face or body has been digitally altered so that they appear to be someone else, typically used maliciously or to spread false information. Oxford Languages.
[ix] https://www.uctoday.com/unified-communications/cybercriminals-use-generative-ai-for-voice-cloning-scams/#:~:text=Generative%20AI%20is%20now%20being,knew%20somebody%20else%20who%20had
[x] https://www.vozdeamerica.com/a/desinformaci%C3%B3n-amenaza-sistemas-electorales-latinoamericanos/6298814.html
[xi] https://es.cointelegraph.com/news/forget-cambridge-analytica-here-s-how-ai-could-threaten-elections
[xii] https://edition.cnn.com/2023/07/17/tech/ai-generated-election-misinformation-social-media/index.html
[xiii] https://thehill.com/opinion/campaign/4133062-generative-ai-could-be-used-to-steal-the-next-election-heres-how-we-can-stop-it/
[xiv] Ver 6
[xv] https://www.hachettebookgroup.com/titles/henry-a-kissinger/the-age-of-ai/9780316273992/
[xvi] https://ceciliacorespsicologa.es/50-sesgos-cognitivos/
[xvii] https://www.nutanix.com/theforecastbynutanix/technology/what-data-scientists-are-doing-to-detect-deepfakes#:~:text=Fighting%20AI%20with%20AI&text=Tech%20companies%20like%20Intel%20are,to%2072%20different%20detection%20streams.
[xviii] https://www.newsguardtech.com/special-reports/
[xix] https://digital-strategy.ec.europa.eu/es/policies/digital-services-act-package
[xx] https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
[xxi] https://www.rfi.fr/fr/podcasts/reportage-international/20230611-chine-l-intelligence-artificielle-au-service-de-la-surveillance-des-masses
[xxii] https://www.technologyreview.com/2022/11/22/1063605/china-announced-a-new-social-credit-law-what-does-it-mean/
[xxiii] https://silogora.org/la-surveillance-par-lia-un-modele-qui-se-generalise/
[xxiv] https://es.wikipedia.org/wiki/Revelaciones_sobre_la_red_de_vigilancia_mundial_(2013-2015)
[xxv] Ver 19
[xxvi] https://www.wired.com/story/the-global-battle-to-regulate-ai-is-just-beginning/?utm_source=newsletter&utm_medium=email&utm_content=global%20battle%20to%20regulate%20AI&utm_campaign=Enews%20BOTW%205/12/2023
[xxvii] https://autonomousweapons.org/
[xxviii] https://www.larevuedudigital.com/vladimir-poutine-le-leader-en-intelligence-artificielle-dominera-le-monde/
[xxix] https://es.euronews.com/2023/02/17/los-peligros-de-la-inteligencia-artificial-como-arma-de-guerra
[xxx] https://www.futura-sciences.com/tech/actualites/guerre-futur-ia-drone-combat-prend-decision-inquietante-tuer-son-operateur-lors-exercice-105637/
[xxxi] Ver 27
[xxxii] https://legrandcontinent.eu/es/2023/05/19/como-controlar-la-proliferacion-de-la-ia-una-conversacion-con-robert-trager/
- La nieta de Elvis Presley presentó una demanda para paralizar la subasta de la mansión Graceland - 21 de mayo de 2024
- Abinader insta a gran pacto nacional en República Dominicana - 21 de mayo de 2024
- Asamblea General reconoce mayor participación de Palestina en la ONU - 10 de mayo de 2024