Tecnologia
¿Cómo lograr una IA socialmente sostenible?
La inteligencia artificial (IA) hoy está presente, de manera invisible, en prácticamente todos los ámbitos de nuestra sociedad. Su adopción, a escala masiva, no tiene precedentes y el potencial que nos brinda para tener un impacto social positivo es inmenso. De hecho, necesitamos apoyarnos en la IA para abordar los grandes retos del siglo XXI, desde el cambio climático hasta el envejecimiento de la población. Nos puede ayudar, por ejemplo, a detectar tumores antes de que sean visibles al ojo humano en pruebas radiológicas, a reducir el consumo energético de nuestras ciudades, hogares y empresas, o a encontrar patrones en datos científicos que a los humanos nos llevaría décadas descubrir.
Una de las aspiraciones es que la IA nos haga más humanos al liberarnos de tareas repetitivas, mecánicas y de poco valor. Dicha aspiración es posible, pero no está garantizada. De hecho, si dejamos que la IA tome decisiones por nosotros en exceso, corremos el riesgo de atrofiar nuestras propias habilidades: el pensamiento crítico, la empatía, la creatividad, la comprensión lectora, la capacidad de escribir… Esto puede conducirnos no solo a una dependencia silenciosa, sino a la pérdida de habilidades que nos definen como humanos.
No hay que acudir siempre a la IA para resolver un problema o una situación. Foto:iStock
No es una solución universal.
Vivimos en un momento de cierto solucionismo tecnológico que nos empuja a recurrir a la IA incluso cuando una solución más simple sería más eficaz, comprensible, sostenible y también menos arriesgada. En muchos casos, un buen diseño de procesos o una interfaz clara vuelven innecesarios millones de parámetros entrenados con cantidades ingentes de datos y con un consumo energético inmenso.
Una pregunta común es si la IA es más inteligente que los humanos. Sin duda, no lo es. Los sistemas de IA actuales son excelentes realizando tareas muy concretas, como clasificar imágenes, traducir de un idioma a otro, predecir patrones y generar texto plausible. Pero solo saben hacer dicha tarea: es lo que se conoce como “inteligencia artificial específica”. Esos sistemas que tanto nos impresionan carecen, entre otras cosas, de comprensión del contexto, de sentido común, de emociones, de capacidad para adaptarse, de conciencia… Son programas de ordenador, sin experiencia vital en el mundo físico.
LEA TAMBIÉN
Y aunque sintamos la necesidad de compararnos, un debate más productivo es preguntarnos cómo podemos aprovechar las capacidades de la IA para que los humanos desarrollemos todo nuestro potencial.
El debate se intensifica con la irrupción de las técnicas de IA generativa, capaces de crear imágenes, vídeos, música, texto, código o incluso moléculas de manera automática y casi instantánea. ¿Puede ser la inteligencia artificial creativa? El contenido que produce puede ser original y sorprendente, pero no nace de experiencias, emociones o intenciones propias. Es el resultado de procesar y recombinar patrones aprendidos de millones de obras previas.
La creatividad humana, en cambio, es vivencial: lleva consigo el peso de nuestras historias, ideas, emociones, deseos o miedos. No olvidemos que la expresión creativa humana es mucho más que la obra; es también el proceso, el mensaje, la intencionalidad, el contexto… elementos fundamentales que no existen cuando un algoritmo de IA generativa produce un poema, una canción o un diseño gráfico, por muy deseable que sean.
Diferentes sistemas de IA ya son capaces de producir imágenes y vídeos. Foto:iStock
El entusiasmo colectivo con el que hemos adoptado la inteligencia artificial en nuestra sociedad viene acompañado a menudo por una idea peligrosa: que la IA es siempre sinónimo de progreso. Una IA que optimiza la logística de un almacén puede resultar útil, pero si para lograrlo recurrir a una vigilancia excesiva, consumir cantidades ingeniosas de recursos y precariza el trabajo humano, ¿podemos llamarlo progreso? En última instancia, la IA debería evaluarse no por lo impresionante de su rendimiento, sino por su impacto en la sociedad.
Además, los sistemas de inteligencia artificial no son perfectos. Tienen limitaciones importantes que, entre otras cosas, impactan directamente en los derechos fundamentales de las personas, como son la discriminación, los sesgos y la estereotipación algorítmica; la falta de transparencia, diversidad y veracidad; la violación de la privacidad; la excesiva huella de carbono; la manipulación subliminal de nuestro comportamiento; la difícil reproducibilidad; y las vulnerabilidades de seguridad.
LEA TAMBIÉN

Tomemos, como ejemplo, el reto de la discriminación. Los sistemas de IA actuales son entrenados con cantidades ingentes de datos que, en muchos casos, reflejan nuestras desigualdades y prejuicios. Si no corregimos los sesgos, estereotipos y patrones de discriminación existentes en la sociedad, los algoritmos de IA no solo los replicarán, sino que, en muchos casos, los amplificarán.
La discriminación automatizada no es más aceptable que la humana; de hecho, puede ser más peligroso por su inmensa escalabilidad y su aparente –pero no real– objetividad matemática. Además, las consecuencias negativas fruto del uso de la IA no solo son resultado de una negligencia o diseño deficiente, sino que también pueden ser intencionales, como cuando se usa la IA para manipular elecciones o vigilar masivamente a la población. Pero en todos los casos, el daño es real.
El código ‘Faten’
El carácter transversal de la IA, es decir, su capacidad para ser aplicada prácticamente en todos los ámbitos de la sociedad, la dota de un inmenso poder, lo que nos obliga a preguntarnos cómo mitigar sus riesgos con investigación responsable, regulaciones sólidas, auditorías independientes e integrando los derechos digitales desde su concepción. Para recordar qué características debemos exigir a los sistemas de IA, me gusta utilizar el acrónimo en inglés Faten:
1.F de justicia o justicia. Exigir garantías de no discriminación fruto del uso de sistemas de IA.
2. Un de autonomía o autonomía. Según este valor, cada persona debería tener la capacidad de decidir sus propios pensamientos y acciones. Sin embargo, hoy podemos construir modelos computacionales de nuestros deseos, necesidades, personalidad y comportamiento con la capacidad de influir en nuestras decisiones y acciones de manera subliminal. Por ello, Deberíamos garantizar que los sistemas inteligentes tomen las decisiones preservando siempre la autonomía y la dignidad humanas.
LEA TAMBIÉN

La A también es de responsabilidad o rendición de cuentas. Es decir, tener claridad a la hora de atribuir responsabilidad por las consecuencias de las decisiones algorítmicas. Y de aumento o aumento, de manera que los sistemas de IA se utilizan para aumentar o complementar la inteligencia humana, no para reemplazarla.
3. T de confianza o confianza. La tecnología necesita un entorno de confianza con sus usuarios, que cada vez delegan más sus vidas a servicios digitales. Para ello, han de cumplirse tres condiciones: la competencia, es decir, la habilidad para realizar con solvencia la tarea prometida; la confiabilidad, o sea, la competencia sostenida en el tiempo; y la honestidad.
Por ello, la T también es de transparencia o transparencia sobre la posibilidad de entender un modelo o un proceso computacional. Las decisiones algorítmicas pueden ser opacas por tres motivos: intencionalmente, para proteger la propiedad intelectual de los creadores de dichos algoritmos; debido a una falta de conocimiento por parte de los usuarios que les impide entender cómo funcionan los modelos; o porque ciertos métodos de aprendizaje por computadora son extremadamente complejos. También es imprescindible que los sistemas de IA sean transparentes sobre los datos que captan y analizan.y para qué propósitos, y respecto a en qué situaciones los humanos están interactuando con sistemas artificiales (por ejemplo, chatbots) o con otros humanos.
LEA TAMBIÉN

4. E de educación o educación. Hay que invertir en educación a todos los niveles, enseñando tanto pensamiento computacional desde primero de primaria, como a desarrollar el pensamiento críticola creatividad y habilidades de las inteligencias sociales y emocionales. La adopción masiva de herramientas de IA generativa de textos, música, audios o videos cuestiona los modelos tradicionales de enseñanza y evaluación, dado que cualquier estudiante puede, en cuestión de segundos, producir documentos –veraces o no– sobre prácticamente cualquier tema.
pero la falta de rigor y veracidad de esos sistemas hace relevante la necesidad de desarrollar el espíritu crítico y de validar y contrastar la información con fuentes reputadas y solventes. La educación también es necesaria para la ciudadanía, los trabajadores, el sector público y los representantes políticos.
La E también es de beneficencia o beneficencia, es decir, maximizar el impacto positivo del uso de la inteligencia artificialcon sostenibilidad, diversidad, honestidad y veracidad.
Y de equidad, pues los principios de universalización del conocimiento y democratización del acceso a la tecnología están siendo cuestionados hoy en día, en gran parte, por la situación de dominancia extrema de las grandes empresas tecnológicas americanas y chinas. Si queremos maximizar el impacto positivo del desarrollo tecnológico y, en particular, de la inteligencia artificial en la sociedad –dado que esos modelos necesitan datos para poder aprender– Deberíamos plantearnos nuevos modelos de propiedad, gestión y regulación de los datos. Sin embargo, la complejidad en su aplicación práctica pone de manifiesto la dificultad para definir e implementar el concepto de “propiedad” cuando hablamos de un bien intangible, distribuido, variado, creciente, dinámico y replicable infinitas veces a costo prácticamente cero.
5. norte de no maleficencia o no maleficiencia. Se trata de minimizar el impacto negativo que pueda derivarse del uso de las decisiones algorítmicas. Para ello, es importante Aplicar un principio de prudencia, así como garantizar la seguridad, confiabilidad y reproducibilidad. de los sistemas, preservando siempre la privacidad de las personas.
LEA TAMBIÉN

Solo cuando respetemos estos requisitos seremos capaces de avanzar y conseguir una inteligencia artificial socialmente sostenible por y para las personas, ayudándonos a desarrollar nuestro potencial y salvaguardando lo que no queremos perder. Porque el verdadero avance no será el que nos deslumbre con algoritmos más rápidos o modelos más grandes, sino el que Nos permitamos vivir mejor, con más justicia, más libertad, prosperidad. y, sobre todo, sin perder lo que nos definen como seres humanos.
Directora de la Fundación Ellis Alicante y profesora honoraria de la Universidad de Alicante. (**) Es una organización sin ánimo de lucro que busca compartir ideas y conocimientos académicos con el público. Este artículo se reproduce aquí bajo licencia de Creative Commons. La versión original de este escrito se publicó en la revista ‘Telos’, de Fundación Telefónica. Este artículo fue editado por motivos de espacio.
