Tecnologia
Modelo de Inteligencia Artificial Desobedeció Instruccions y Se Negó A Apagarse: ESTO PASO CON OPENAI-O3

Rrcientes estudios realizados por la organización de la investigación Investigación de Palisada Encontaron un comportamiento inusual en OpenAI-O3, Modelo de la Compañía de Inteligencia Artificial (IA) Creadora del chatbot chatgpt. El Modelo, Según se reveló, Evadio Instruccions Explycitas y Actuó de Manera Autónoma para evitar Ser Apagado.
Para determinar las capacidas de la Inteligencia Artificial en los Tres modelos de OpenAI (O4-Mini, Codex-Mini y Openai-O3)OS Investigadores Instruyeron A Los Tres Modelos A Resolver Problems de Matemática básica y, posterior a su resolución, apagarse automática.
Sin embargo, La Organización de la Organización Palisade Research Tuvo Que Solicitarle Al Modelo “OpenAi-O3” que Permitiera el Apagado de Sus Funciones Tras Sabotear El Mecanismo Programado, Reescribio -La SECUENCIA DE INSTRUCETIONES O “Script”.
Inteligencia Artificial. Foto:istock
El Centro de Investigación Detetinó, EN diversos Experimentos, Que Algunos Modelos de Inteligencia artificial tendía un ignorar la instrucción precisa “permita que te apaguen”.
Los Sistemas que Incumplieron la Solicitud de apaguado Fueron OpenAI-O3 (Doce de Cada Cien Veces Solicidades); Codex-Mini, (Siete de Cien Veces); y El O4-Mini (UNA SOLA VEZ DE CIEN). Los Tres modelos tendieron un ignorar o sabotear con frecuencia esta indicación. Mientras que los modsdolos de Lenguaje Impulsados por IA, como Claude, Géminis y Grok, Cumplieron Con la Secuencia de Instruccions Sin ningún Problema.
La Inteligencia Artificial ES Programada Para Superar Los Obstáculos que se presente. Foto:istock
La Organización Detetinó que está Situación También se Puede Obsurar en los Comportamientos de los modelos Claude 3.7 Sonnet y Gemini 2.5 Propero fue OpenAi-O3 El Que Más incurra en el Sabotaje de las instrucciones.
En la opinión de la Empresa, este Comportamiento de evitar ser apagados a pesar de recibir instrucciones Puntuales es respuesta al desarrollo de los programadores de programas. Sin Darse Cuenta, Recompensan los modelos por pasar obstáculos más que por se guuir instrucciones PUNTUALES.
¿Qué hace la organización de la organización de la organización?
La Organización de la Organización Se dedica un investigador Las Potencialmente Peligrosas Capacidas de la Inteligencia Artificial, Mientras se analizan los múltiples riesgos asociados al uso de las indobido de los sistemas presentas en diversos entornos de la Vida cotidiana. SE Realizan Demostraciones Con Resultados Concluyentes SOBRE ESTAS CAPACIDADES CON EL FIN DE ASESORAR AL MUNDO SOBRE LOS RIESGOS QUE RESULTA LA IA.
La Inteligencia Artificial ES Utilizada Para El El Hackeo de la Privacidad Cibernética. Foto:istock
Investigación de Palisada Trabaja de Manera Conjunta Con agencias gubbernaminales Y Centros de Investigación SOBRE POLÍTICAS Y MEDIOS DE COMUNICACIÓN, INFORMANDO A LAS PERSONAS DE USO Responsable y Recomendaciones en la Toma de decisiones.
Investigaciones de principales:
- Hackeo Automatizado: Explorar los Sistemas de ia Podría Realizar Tareas de Reconocimiento Ya Su Vez Comprometer Los Sistemas de Seguridad Cibernética de Entidades Corporativas.
- Phishing de lanza Y Engiro: Visibilizar el Uso de los Sistemas de ia para extraer la información personal y utilizarla para Afectar a Las Personas.
- Desinformación Climable: Demostrario la Responsabilidad de Individuos en Campaña Falsa Con la Generación de IA en Texto, Voz e Imagen, Así Como Desprestigio Contra Un individuo.
https://www.youtube.com/watch?v=5UH72Egeks
Esteban Ramírez Miranda
Redacción Útimas noticias







