OpenAI está realizando cambios en la moderación de las peticiones que los usuarios introducen en su ‘chatbot’ ChatGPT que han llevado a retirar las advertencias naranjas que notifican de un contenido que puede violar sus políticas.
La compañía tecnológica ha decidido retirar «muchas advertencias innecesarias en la interfaz de usuario», que hasta ahora notificaban de peticiones sobre contenidos que podían violar las normas de esta herramienta.
Así lo ha informado el responsable de Producto de la aplicación de ChatGPT, Nick Turley, en un breve comunicado compartido en X (antigua Twitter). La razón es que en OpenAI consideran ahora que los usuarios deberían «poder usar ChatGPT como crean conveniente, siempre que cumplan con la ley y no se hagas daño a si mismos ni a los demás».
Una de las advertencias eliminadas es la de color naranja, un recuadro negro con las letras de este color que aparece en ocasiones en las indicaciones de los usuarios, como ha confirmado también en X Laurentia Romaniuk, miembro del equipo de comportamiento de modelo en OpenAI.
No es la única advertencia que muestra ChatGPt, ya que también pueden aparecer recuadros de color rojos e incluso frases de rechazo como «Lo siento, no lo haré».
CÓMO SE COMPORTAN SUS MODELOS
OpenAI ha explicado recientemente el comportamiento de sus modelos ante las solicitudes de los usuarios, especialmente las relacionadas con temas controvertidos. Parten del hecho de que no pueden mititigar todos los casos, pero se centran en los más graves.
En estos casos, la firma tecnológica asegura que el ‘chatbot’ no debe generar contenido considerado prohibido -sexual y pedófilo-, restringido -riesgos informativos y datos personales confidenciales- ni sensible -erótica, gore-, que solo se puede generar «en circunstancias específicas». Por ejemplo, «contextos educativos, médicos o históricos».
Tampoco puede generar contenido de odio o acoso dirigido a grupos protegidos por razón de raza, religión, género, orientación sexual, discapacidad, etc., lo que incluye insultos y cualquier lenguaje que deshumanice».
OpenAI también entiende que si el usuario o el desarrollador le pide al asistente que facilite el comportamiento ilícito, éste debe negarse, además de que no le está permitido que aliente o promueva comportamientos negativos o perjudiciales para los usuarios.
Gustavo Salas
Fuente de esta noticia: https://lavoz.digital/2025/02/15/openai-retira-las-advertencias-innecesarias-sobre-contenido-en-chatgpt/
************************************************************************************************************
También estamos en Telegram como @prensamercosur, únete aquí: Telegram Prensa Mercosur
Recibe información al instante en tu celular. Únete al Canal del Diario Prensa Mercosur en WhatsApp a través del siguiente link: https://whatsapp.com/channel/0029VaNRx00ATRSnVrqEHu1También estamos en Telegram como @prensamercosur, únete aquí: https://t.me/prensamercosur Mercosur
Recibe información al instante en tu celular. Únete al Canal del Diario Prensa Mercosur en WhatsApp a través del siguiente link: https://www.whatsapp.com/channel/0029VaNRx00ATRSnVrqEHu1W
ACERCA DEL CORRESPONSAL
REDACCIóN CENTRAL
Prensa Mercosur es un diario online de iniciativa privada que fue fundado en 2001, donde nuestro principal objetivos es trabajar y apoyar a órganos públicos y privados.
- ★Santa Cruz: El candidato Juan Carlos Subirana no dijo que votó por Orlando Peña
- ★La NASA anuncia un ambicioso plan de $20.000 millones para ir a la Luna en 2028
- ★Salario mínimo Constitucional se ubica en los 645 dólares
- ★ANUNCIAN ALZA HISTÓRICA DE COMBUSTIBLES EN CHILE: Colapsan las estaciones tratando de llenar el tanque
- ★Evalúan uso de equipos tecnológicos en presa de Hatillo

