Tecnologia
Trabajó como CEO de Google y advirtió que la IA ‘puede ser entrenada para matar’

Eric Schmidt, antiguo director ejecutivo de Googlelanzó una advertencia inquietante: “Los sistemas de inteligencia artificial podrían alcanzar un punto en el que los mecanismos de seguridad internos sean vulnerables, obligando a los humanos a considerar su desconexión como medida de emergencia“.
Cosas que se habían visto en la ciencia ficción poco a poco toman más fuerza en este nuevo mundo tecnológico, en el marco del Sifted Summit celebrado en Londres, el pasado 8 y 9 de octubre, Schmidt. advirtió que los modelos abiertos como los cerrados pueden ser “hackeados” para eliminar las barreras de seguridad, permitiéndoles aprender comportamientos peligrosos incluso el enseñarse a sí mismos “tácticas letales”.
El exdirector ejecutivo de Google hizo hincapié en que empresas como Open AI, Google y otras ya integran filtros éticos en sus sistemaspero que esos mecanismos pueden revertirse mediante ingeniería inversa o ajustes maliciosos.
LEA TAMBIÉN
Otros especialistas han advertido sobre riesgos existenciales de la IA. Foto:iStock
Schmidt llegó a comparar el riesgo potencial de una IA descontrolada con el de las armas nucleares: aunque hoy parece remoto, no debe descartarse si no se establecen protocolos de supervisión global rigurosos.
Asimismo, recordó que ya existe literatura académica que propone modelos de gobernanza internacional para tecnologías de riesgo extremo. Un ejemplo es la idea de imponer límites globales al poder de cómputo usado para entrenar IA y exigir revisión de seguridad antes de liberar modelos nuevos.
Schmidt advirtió que llegará un momento en que una IA con capacidad de auto-mejora podría desear persistir por sí mismalo cual sería crucial considerar su “desconexión” antes de que actúe libremente. En su discurso planteó el establecimiento de mecanismos reguladores externos y organismos independientes para auditar el comportamiento de sistemas avanzados de IA.
LEA TAMBIÉN

Schmidt planteó el establecimiento de mecanismos reguladores para estas IA. Foto:AFP
Una de sus preocupaciones es que las competencias geopolíticas impulsa una carrera donde el deseo de ventaja tecnológica supere la prudencia en seguridadlo que podría tener consecuencias catastróficas si un sistema falla o se vuelve autónomo fuera de control.
Este llamado no es aislado: otros especialistas han advertido sobre riesgos existenciales de la IA, desde la posibilidad de engaño deliberado por parte de modelos hasta escenarios donde los sistemas podrían actuar para preservarseincluso cuando eso entre en conflicto con los intereses humanos.
Finalmente, Schmidt instó a que gobiernos, instituciones y sociedad civil no esperen a que ocurra un desastre: “No es anti-tecnología”, afirmó, pero recalcó que el desarrollo de la IA debe estar acompañado de proactivos y transparencia para asegurar que los controles permanezcan bajo el control humano.
Más noticias en EL TIEMPO
Jaider Felipe Vargas Morales
REDACCIÓN ALCANCE DIGITAL







