

En el blog corporativo de la empresa, se explica que se activaron los «estándares de despliegue y seguridad de nivel 3 para IA (ASL-3)», diseñados en parte para limitar el riesgo de que este nuevo modelo, presentado ayer, «sea utilizado indebidamente para el desarrollo o la adquisición de armas químicas, biológicas, radiológicas y nucleares».
Estas medidas no deberían llevar a Claude Opus 4 «a rechazar consultas, salvo sobre un conjunto muy limitado de temas», asegura la publicación.
La empresa, fundada por exempleados de Open AI, indicó que adoptó la medida por pura precaución, ya que aún no se ha establecido al 100 % si Claude Opus 4 ha traspasado ya un umbral que requeriría de estos protocolos de seguridad.
La compañía, que cuenta con respaldo financiero de Amazon o Google, indicó que Claude Sonnet 4, el otro modelo presentado ayer y que es una actualización de su modelo anterior Claude Sonnet 3.7, no requiere de estos protocolos de seguridad.
Claude Sonnet 4 y Claude Opus 4 son los últimos desarrollos de Anthropic y están diseñados para resolver tareas complejas y responder con mayor precisión a las instrucciones que les da el usuario.
EFE
Fuente de esta noticia: https://www.abc.com.py/ciencia/2025/05/23/anthropic-activa-cortafuegos-en-su-ia-avanzada-para-evitar-que-ayude-a-desarrollar-armas/
También estamos en Telegram como @prensamercosur, únete aquí: https://t.me/prensamercosur Mercosur
Recibe información al instante en tu celular. Únete al Canal del Diario Prensa Mercosur en WhatsApp a través del siguiente link: https://www.whatsapp.com/channel/0029VaNRx00ATRSnVrqEHu1W
