Connect with us

Noticias

Código Futuro: Trump vs. China: cuando la geopolítica define el futuro de la IA

Published

on


Pero aquí surge una pregunta incómoda: ¿es realmente una carrera? ¿O estamos creando una falsa dicotomía que justifica concentrar aún más poder en pocas manos?

Me llama la atención que, mientras Trump habla de “liberar” a Silicon Valley de regulaciones, países europeos están implementando marcos como el AI Act, que aunque imperfecto, al menos intenta establecer guardrails éticos. La pregunta es si el enfoque estadounidense de “innovación a toda costa” realmente nos va a dar una IA más útil y menos dañina.

Y eso me conecta con algo que leí en “Anarquismo Jurídico” de Carla Escoffié (que recomiendo encarecidamente). Escoffié argumenta que necesitamos cuestionar las narrativas que nos presentan como “inevitables”. ¿Es inevitable que la IA se desarrolle sin supervisión? ¿Es inevitable que solo unos pocos gigantes tecnológicos controlen esta tecnología?

📈 La burbuja que todos ven venir pero nadie quiere evitar

Torsten Slok, economista jefe de Apollo Global Management, soltó una bomba esta semana: la IA está generando una burbuja bursátil más grande y peligrosa que la burbuja puntocom de los 90s. Según Slok, el futuro de Wall Street depende del rendimiento de solo diez empresas que, hasta ahora, no han demostrado la mayoría de los beneficios que prometen.

¿Te suena familiar? En 1999, decenas de startups con ingresos escasos o inexistentes atrajeron enormes sumas de capital con promesas centradas en el internet. La sobrevaloración alcanzó más de 4 billones de dólares antes de colapsar en 2000.

La diferencia es que esta vez no son startups obscuras, sino gigantes como NVIDIA, Microsoft, Google. Empresas con productos reales y millones de usuarios. Pero ¿están realmente generando el valor que justifica sus valuaciones astronómicas?

Lo preocupante es que, a diferencia de la burbuja puntocom, esta vez la infraestructura crítica de internet depende de estas mismas empresas. Si colapsan, no solo perdemos dinero: potencialmente perdemos servicios esenciales.

💰 El dilema ético que nadie quiere enfrentar

Y hablando de dilemas, Anthropic (la empresa detrás de Claude, la IA con la que algunos de ustedes interactúan) reconoció esta semana que aceptar dinero de líderes de Oriente Medio “puede enriquecer a dictadores”, pero que igual lo van a hacer.

Dario Amodei, CEO de Anthropic, escribió en una nota interna: “Desgraciadamente, creo que ‘Ninguna mala persona debería beneficiarse de nuestro éxito’ es un principio bastante difícil para dirigir un negocio.”

Es una honestidad brutal que rara vez vemos en el sector. Pero también es terriblemente reveladora de cómo funciona realmente la industria de la IA: principios éticos versus realidades financieras, y las realidades financieras casi siempre ganan.

La pregunta de la semana

Después de una semana viendo cómo la infraestructura humana es tan frágil como la tecnológica, me pregunto: ¿Estamos construyendo sistemas de IA demasiado complejos para las estructuras humanas que los sostienen? ¿O es precisamente esa tensión entre lo humano y lo automatizado lo que hace que estos sistemas sean útiles?

¿Crees que necesitamos infraestructuras humanas más robustas, o sistemas de IA menos dependientes de decisiones humanas centralizadas? ¿Lo seguimos hablando en Código Futuro?



Source link

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *