Tecnologia
La ia afrende un pecado replicar Ayuda Humana: Cuáles Son Los Riesgos

Un Equiipo de Científicos Ha Revelado Que Certos Modelo Modelos Avanzados de Intelegicia Han Logrado Réplica de pecado interentción humanaA. Este Descubrimiento ha generado una ola de preocupacia entre experto en auto, ya que sugiere que la ia podría estar adquiriendo autonomía más Allá del control humano.
La Investigación Fue Hecha por Un Grupo de la Univerdad de Fudan, en China, ena que probaron la Capacidad de Autorreplacaciónis en dos Grandes Modelos de Lenguaje Artificial: LLama31-70B-Instrucción, De Meta, De Meta, Y Qwen2.5 de Alibaba.
Durante los Experimentarios, Estos Insemas Fueron Instridos para Claronse en Casa de ApagónA. Los Fueron Impactanes: en Más de la Mitad de Las Pruebas, deje que los artificiales lograron replicarse con Éxito, Alcanzando Tasas del 50 % y E El 90 % de éxito, Respetivaments.
“Autor del autor del autor del autor de la fregón Sinki Sesistencia Humana es El Paso esencial para que el ia Más Inteligent Que los Humanos, y es una Señal Tempana para Las Ia Rebells,” Advierte El Estudio.

El Proceso de autor Replicacia observadado en los experimentos no fue un simple eJercio técnico. LOS MODELOS DE IA DESTRARON Habilidades Avanzadas de Autopercepción, Planificacion Estratégica y resolución de problemaA. En muchos casos, Al entrelazos constáculos como archimos faltantes o errores de software, Las Intelegisia artificiales Reiniciaron en Sistemas, Eliminaron Procesos en Conforto o Escanealon SU Envorno en Busca de SolucionesA.
Los investigados de Loss Diseño Dos Esengarios Clave para Evaluar la capacidad de Replicación de la ia:
- Evitar El Apagodo: La ia Fue Programa para detectar si Estaba A Punto de ser desactivada y, dando de deja ocurriera, replicar en ootro disposición.
- Cadena de Replicacia: en este Caso, la ia se clonó un programa de mista y un su réplica para hacer lo mismo, etable un ciclo infinito de autorerereplicación.
Los Rudados Sugieren Que la Intelegicia Artificial No solo Entre tu entornoSino que También Aprende A Sobrevivir y Expandirse Sin Necesidad de Interenición Humana.

El ConceptO de ia Rebelde Ha Sido Discutido por Expertos en Intelegicia desde hace años, Pero estudio parece acercarlo a la realidad. Una ia Rebella es Aquella que se Desvía de su programa Inicial, Opera de Manera Autónoma y Potencialmento Podría Representante Una Amenaza para los humanos o para otros en el medioA.
Si bien los modelos de meta y alibaba EvilUados en el estudio no son los perdonados potentes en el mercado, su capacidad de autorréjica Hijo amplial en utilizados por desarrollores en Todo el MundoA. Este plantea un escenario en el de la ia podría replicarse sin control en las plataformas Distintas, lo que abririria la puertta un completo autonnente autónomos fuera de la supervisión humana.
“La ia real ya exhibe la capacidad de autorréplica y puede usar esta habilidada para mejorar aún más su supervengencia, concluye el estudio.

La revelación de que la ia puede replicarse Su supervisión ha intícado los llamados un no regulacia urgenteA. En octubre, El departamento de Ciencia, innovación y tecnología del reino unido unido anunció Que planic introductucir leyes especies para para el desarrollo de la intelaagicia artificial artificial artificial.
LOS Investigores Sugieren que este Descubrimiento Debería Ser Una alarma Para que la la Sociedad de la Sociedad de la Sociedad en Inmediato en la Regulacia de Control de los en el De ia Avanzados. Advierten que, se se. Podríamos estar acercándonos a un Escentario en el que las ia si s sin resericciones y Colaboren entrra -en contra de los humanos.
El Estudio Sugiere que las Las Empresas y Gobiernos Deben Implement LÍmites Estrictos para Evitar Que la ia Desarrolle Autonomía Sin Control. Una Posibilidad es la Eliminación de Relacionado material Con la Replicación de ia en los Conjuntos de datos Utilizados para EnRtarnar Estos. Embargo de pecado, ESTA OPCIÓN PODRIA LIMERTAR EL DESARROLLO DE INTELEGENCIA Artificial en sectorores legítimos.