estrategIA #82 - IA y poder público: lo que revela (y advierte) el AI Index 2025 de Stanford
Newsletter pionera en español sobre inteligencia artificial en la Política y el Gobierno. Impulsada por la Institución Educativa ALEPH
AI Index 2025: el estado de la IA en la política y el poder público
El año 2024 marcó un antes y un después en la relación entre la inteligencia artificial, la política y la gobernanza global. Lo que hasta hace poco eran debates teóricos y estrategias nacionales incipientes se transformó en una oleada de acciones concretas: regulaciones vinculantes, inversiones públicas masivas y una intensificación sin precedentes de la cooperación (y competencia) internacional. El Artificial Intelligence Index Report 2025, publicado el pasado 7 de abril por el Institute for Human-Centered AI de la Universidad de Stanford, documenta esta efervescencia y ofrece una radiografía detallada de un campo tecnológico que ya no es futuro, sino un presente que exige atención política urgente. Para estrategIA este informe es una lectura obligada, el del pasado año fue nuestra “recomendación de la semana” en el número 30 de estrategIA, y en este número desgranamos las claves más relevantes del de 2025 centrándonos principalmente en lo que las más de 450 páginas de informe nos comentan sobre la encrucijada de la IA y el poder público (El capítulo 6 del informe está dedicado a “Policy and Governance” pero hay muchas cuestiones relevantes del campo del gobierno y la política también en otros apartados).
La explosión regulatoria: del debate a la acción concreta
Si 2023 fue el año en que la IA generativa irrumpió en la conciencia pública global, 2024 fue el año en que los gobiernos y legisladores comenzaron a responder a ello. El informe del AI Index revela un aumento drástico de la actividad normativa. A nivel global, las menciones de "inteligencia artificial" en los procedimientos legislativos de 75 países aumentaron un 21,3% solo en 2024, acumulando un crecimiento de nueve veces desde 2016.
En Estados Unidos, la tendencia es aún más acusada. A nivel federal, se introdujeron 59 regulaciones relacionadas con la IA en 2024, más del doble que las 25 de 2023, involucrando además al doble de agencias gubernamentales. Aunque la aprobación de leyes federales integrales sigue siendo lenta (solo 4 pasaron en 2024 frente a 221 propuestas), la maquinaria regulatoria a través de órdenes ejecutivas y directrices de agencias está en pleno funcionamiento. Sin embargo, el verdadero epicentro legislativo en EE. UU. está en los estados: el número de leyes estatales sobre IA se disparó de 49 en 2023 a 131 en 2024. California lidera esta carga, pero muchos otros estados están legislando activamente, especialmente en áreas de preocupación inmediata como los deepfakes. A finales de 2024, 24 estados ya contaban con leyes específicas para regular o penalizar el uso malicioso de contenido sintético generado por IA, frente a solo 5 el año anterior, una respuesta directa a los temores sobre la integridad electoral y la protección personal.
A nivel internacional, la Unión Europea marcó un hito con la aprobación final de su ambiciosa Ley de Inteligencia Artificial (AI Act), el primer marco regulatorio horizontal y basado en riesgos del mundo. Aunque su plena entrada en vigor será progresiva hasta 2026, su enfoque establece un precedente global, clasificando los sistemas de IA por nivel de riesgo e imponiendo obligaciones estrictas a los considerados de "alto riesgo".
Inversión pública masiva en IA
Paralelamente a la regulación, 2024 fue testigo de un compromiso financiero sin precedentes por parte de los Estados para impulsar sus ecosistemas de IA. La IA se ha consolidado como un activo estratégico nacional, y los gobiernos están invirtiendo miles de millones para no quedarse atrás. Canadá anunció un paquete de 2.400 millones de dólares para asegurar su "ventaja en IA". Francia comprometió 109.000 millones de euros en un plan tecnológico más amplio que prioriza la IA. India lanzó la "IndiaAI Mission" con 1.250 millones de dólares. Arabia Saudita desveló el "Project Transcendence", un ambicioso proyecto estratégico de 100.000 millones de dólares para posicionarse como hub tecnológico global, incluyendo una fuerte apuesta por modelos de IA en árabe en colaboración con Google. China, por su parte, creó un nuevo fondo estatal de 47.500 millones de dólares centrado en semiconductores avanzados, cruciales para la IA.
Estas cifras astronómicas contrastan con las inversiones públicas de años anteriores y reflejan una nueva doctrina: la soberanía tecnológica en IA es una cuestión de seguridad nacional y competitividad económica. Curiosamente, el informe del AI Index destaca diferencias en el enfoque del gasto. Mientras en Estados Unidos el análisis de contratos públicos muestra una fuerte concentración en el Departamento de Defensa (75% del gasto en 2023), en Europa la inversión pública en IA está más distribuida entre servicios públicos generales, educación y salud, con la defensa representando aún menos del 1%.
Geopolítica de la IA: intensa competencia y nueva cooperación
La IA es, inevitablemente, un nuevo tablero de la geopolítica. Estados Unidos mantiene el liderazgo en la vanguardia de la innovación (produjo 40 de los 58 modelos notables de IA en 2024) y atrae la mayor inversión privada (109 mil millones de dólares). China, sin embargo, lidera en volumen de producción científica (23.2% de las publicaciones globales) y patentes (casi el 70% de las globales), y, crucialmente, ha cerrado drásticamente la brecha en el rendimiento técnico de sus modelos. A finales de 2024, los mejores modelos chinos alcanzaban prácticamente la paridad con los occidentales en benchmarks clave como MMLU o HumanEval. La competencia es feroz, y se refleja también en medidas como los controles de exportación de semiconductores avanzados impuestos por EE. UU. a China.
Pero 2024 no fue solo competencia. También se intensificó la cooperación internacional para abordar los riesgos compartidos. El hito más visible fue la creación de la Red Internacional de Institutos de Seguridad de IA, lanzada formalmente en noviembre de 2024, que agrupa a entidades de EE. UU., Reino Unido, UE, Canadá, Francia, Japón, Singapur, Corea del Sur, Australia y Kenia. Su objetivo es coordinar la investigación sobre seguridad de modelos avanzados, gestionar riesgos de contenido sintético y desarrollar estándares comunes. Iniciativas similares surgieron del G7 (Hiroshima AI Process) y la OECD, buscando crear un lenguaje y unas expectativas compartidas sobre la IA responsable.
En busca de una IA Responsable
Gran parte de la actividad política y regulatoria de 2024 giró en torno a la necesidad de una IA responsable (RAI). Los principios de transparencia, explicabilidad, equidad, seguridad y rendición de cuentas se repiten en casi todas las estrategias nacionales y marcos internacionales. Esto responde tanto a las preocupaciones éticas como a la necesidad pragmática de generar confianza pública para facilitar la adopción de la IA.
El informe del AI Index revela que, si bien la conciencia sobre los riesgos RAI ha aumentado en las empresas (la privacidad y la ciberseguridad son las principales preocupaciones), la implementación efectiva de medidas de mitigación va a la zaga. Solo un pequeño porcentaje de empresas realiza auditorías de sesgo o evaluaciones de impacto rigurosas de forma sistemática. Aquí es donde la política pública está llamada a jugar un rol crucial, incentivando o exigiendo mejores prácticas.
Surgieron nuevos benchmarks técnicos para evaluar la seguridad y la facticidad de los modelos, y la transparencia de los desarrolladores mejoró, pero persisten áreas opacas. Un desafío emergente con implicaciones políticas es la reducción de los "data commons": el aumento de restricciones para el scraping de datos web públicos podría limitar la diversidad y calidad de los datos para entrenar futuros modelos, afectando potencialmente a la competencia y la equidad.
Percepción pública: ¿confianza o cautela?
La opinión pública, que se aborda de forma central en el octavo y último capítulo del informe, es un termómetro clave para la viabilidad política de la IA. El documento muestra un panorama complejo:
Optimismo creciente pero desigual: A nivel global, el 55% cree que la IA traerá más beneficios que perjuicios (frente al 52% en 2022). Sin embargo, las diferencias regionales son enormes (83% en China vs. 39% en EE. UU.). Notablemente, el optimismo ha crecido más en países previamente escépticos (Alemania +10% o Francia +10%).
Utilidad contra riesgo: La gente valora la IA para ahorrar tiempo y entretenimiento, pero desconfía de su impacto en la salud, la economía y la calidad del empleo.
Apoyo a la regulación: Tanto el público general como los legisladores locales en EE. UU. muestran un fuerte apoyo a la regulación de la IA.
Baja confianza institucional: Persiste la desconfianza hacia las empresas tecnológicas y su capacidad para proteger datos personales (solo el 47% confía globalmente) y garantizar la equidad (la creencia en la imparcialidad de la IA disminuyó).
Esta mezcla de percepciones sugiere que los gobiernos tienen un mandato ciudadano para regular, pero deben hacerlo equilibrando la protección con el fomento de la innovación útil, y comunicando claramente los beneficios y riesgos para construir una confianza informada.
Esas serían las principales ideas que el Artificial Intelligence Index Report 2025 nos lanza en los campos de IA y política y gobierno, pero, sin duda, el informe tiene también una serie de conclusiones generales muy relevantes. Se puede ver el resumen que ellos mismos han elaborado en su web y en las primeras páginas del informe, nosotros a continuación les traemos el nuestro condensado (que hemos elaborado trabajando, como en el resto de artículo, con O3 y Gemini Pro 2.5 y generando la infografía con Napkin.ai)
Conclusiones
El AI Index Report 2025 confirma que 2024 fue el año en que la intersección entre IA, política y gobierno alcanzó una masa crítica. La velocidad de los avances técnicos obliga a los actores públicos a moverse con una agilidad sin precedentes. Una buena regulación ya no es una opción, sino una necesidad percibida globalmente. La inversión pública se ha convertido en una herramienta geopolítica fundamental. Y la cooperación internacional, aunque incipiente, es reconocida como indispensable para afrontar desafíos transfronterizos como la seguridad de modelos avanzados o la desinformación.
Sin embargo, los retos son inmensos. ¿Cómo regular eficazmente, sin matar la innovación en una tecnología que evoluciona cada pocos meses? ¿Cómo asegurar que la inversión pública masiva se traduzca en beneficios sociales amplios y no solo en ventajas competitivas estrechas? ¿Cómo garantizar que la IA responsable no se quede en declaraciones de principios, sino que se integre en el diseño y despliegue real de los sistemas? ¿Y cómo gestionar la brecha entre las capacidades técnicas de la IA y la comprensión (y confianza) del público general y de muchos decisores?
El informe de Stanford no ofrece respuestas sencillas, pero sí nos da datos cruciales para aportar al debate. Muestra un mundo que ha despertado definitivamente a la era de la IA y está empezando a construir, de forma acelerada y a veces caótica, las reglas del juego. Los próximos años serán determinantes para ver si logramos forjar una gobernanza global adaptativa, basada en evidencia y centrada en el ser humano, que nos permita navegar la transformación más profunda desde la revolución industrial. Para los lectores de estrategIA, el mensaje que comunica ya este informe es claro: la IA ya no es solo un asunto técnico o económico, es también, y con gran relevancia, un asunto político y de gobernanza global.
Director de Innovación Digital de la Institución Educativa ALEPH
Difunda estrategIA: explorando la inteligencia artificial y la política juntos
Le invitamos a que nos ayude a seguir creciendo, son ya más de 1.500 los suscriptores de estrategIA en Substack y Linkedin que nos acompañan cada semana. Le invitamos a que comparta estrategIA con sus amigos y colegas. Pueden acceder fácilmente a este número de la newsletter de manera gratuita y sin necesidad de suscripción desde el siguiente enlace:
Actualidad y artículos de interés
La Junta de Castilla y León impulsa el uso de la inteligencia artificial generativa en la administración local con una guía práctica
La Junta de Castilla y León ha publicado la guía Cómo usar la Inteligencia Artificial Generativa en el puesto de trabajo, orientada a empleados públicos de ayuntamientos y diputaciones. El documento, elaborado en el marco del proyecto IBERUS - SmartCDT, ofrece una introducción práctica al uso de la inteligencia artificial generativa en tareas administrativas, con ejemplos reales, videotutoriales y explicaciones sobre diversas herramientas disponibles. También aborda retos éticos, normativos y técnicos, con el objetivo de fomentar un uso responsable y seguro. La iniciativa busca modernizar la administración local y capacitar a su personal en tecnologías emergentes.
Bill Gates advierte sobre la pasividad política ante el impacto transformador de la inteligencia artificial
En una reciente intervención en CNBC, Bill Gates expresó su preocupación por la falta de atención política al avance de la inteligencia artificial, calificándola como la tendencia más importante del mundo actual. El cofundador de Microsoft alertó sobre una transformación inminente que podría redefinir el empleo, la economía y los marcos sociales, sin una respuesta institucional a la altura. Gates pronosticó una década decisiva, con posibles semanas laborales de solo dos días y un mundo impulsado por sistemas autónomos, subrayando la urgencia de debatir y regular esta nueva era tecnológica.
DeepMind plantea un nuevo paradigma para la IA: modelos que aprenden por experiencia
Investigadores de DeepMind, unidad de IA de Google, proponen un enfoque radical para el desarrollo de inteligencia artificial llamado streams, que permitiría a los modelos aprender de experiencias continuas con el entorno, sin depender del juicio humano previo. En un artículo científico titulado Welcome to the Era of Experience, los expertos David Silver y Richard Sutton critican los límites de los modelos actuales, basados en datos estáticos y en interacciones breves. Su propuesta se basa en extender el aprendizaje por refuerzo a contextos dinámicos y abiertos, permitiendo a los agentes establecer metas propias, adaptarse a largo plazo y descubrir conocimiento por sí mismos. Este enfoque, aseguran, podría marcar el inicio de una nueva era en la IA, acercándose incluso a la inteligencia artificial general, aunque advierten también de riesgos importantes relacionados con la autonomía de estos sistemas.
México creará un laboratorio nacional de IA con un enfoque científico y sectorial
La presidenta mexicana Claudia Sheinbaum anunció la creación del Laboratorio Nacional de Inteligencia Artificial en México, una iniciativa que integrará ciencia, salud y agricultura mediante el uso de tecnología avanzada. El proyecto estará a cargo de la Agencia de Transformación Digital, en coordinación con la Secretaría de Ciencia, Humanidades, Tecnología e Innovación, y buscará fomentar la colaboración interdisciplinaria en el desarrollo de IA. Actualmente, el gobierno ya aplica esta tecnología en diagnósticos médicos y monitoreo agrícola. Además, el Senado cuenta con una comisión dedicada a su regulación, centrada en la transparencia, la equidad y la prevención de monopolios tecnológicos.
China integra la IA en su sistema educativo como parte de una reforma nacional
China ha anunciado una reforma educativa significativa que implica la integración de la inteligencia artificial en todos los niveles de su sistema educativo. El objetivo es desarrollar habilidades esenciales entre profesores y estudiantes, como el pensamiento independiente, la resolución de problemas y la colaboración, mejorando la experiencia en el aula con contenido innovador. Esta iniciativa forma parte de la estrategia más amplia de China para mejorar la innovación y mantener el crecimiento económico. Además, se alinea con el plan de acción "nación de educación fuerte" anunciado en enero de 2025, que busca avances educativos importantes para 2035 mediante la innovación tecnológica.
Emiratos Árabes Unidos, primer país en usar IA para redactar leyes
Emiratos Árabes Unidos se convierte en el primer país del mundo en utilizar inteligencia artificial para redactar y revisar leyes, así como para apoyar fallos judiciales y procedimientos ejecutivos. La nueva Oficina de Inteligencia Regulatoria supervisará el proceso, con el objetivo de acelerar y mejorar la precisión legislativa. El vicepresidente de UAE sostiene que este enfoque sustituye modelos parlamentarios lentos por un sistema ágil y basado en datos. Aunque se destacan ventajas como claridad lingüística y eficiencia, varios expertos advierten sobre la fiabilidad y necesidad de supervisión humana.
Si desea patrocinar o colaborar con estrategIA, la newsletter pionera en español sobre IA, Política y Gobierno, por favor escriba a: pablomartin@institucioneducativaaleph.com
IA en acción (nuestro rincón más práctico)
Herramienta de IA de la semana
El pasado 16 de abril OpenAI dio acceso a los usuarios a o3 y o4-mini, sus modelos más avanzados hasta la fecha, con mejoras clave en razonamiento multimodal, uso eficiente de herramientas y capacidades visuales. O3, ahora el buque insignia y el modelo públicamente accesible más capaz del mundo, destaca en tareas complejas como matemáticas, ciencia y programación, con la gran novedad, frente a anteriores modelos de razonamiento de OpenaIA, de permitir integrar imágenes directamente en su proceso cognitivo y superando a sus predecesores en los principales benchmarks. O4-mini, más ligero y eficiente, ofrece un rendimiento sobresaliente en coste-beneficio, superando en matemáticas incluso a modelos mayores. Ambos ya están disponibles en ChatGPT (Plus, Pro, Team) y o4-mini puede usarse gratis activando el modo "razonar".
Este curioso benchmark que compara el rendimiento de los modelos en test de inteligencia humanos (seguramente no es el mejor modo de medir las capacidades reales de un modelo de IA, pero es bastante gráfico y sencillo de entender y por eso se lo acercamos) muestra que O3 llega ya a alcanzar una puntuación de 136 en uno de los test (el de Mensa en Noruega), lo que lo coloca ya en niveles que sólo alcanza un porcentaje muy reducido de personas, pero lo más relevante es que hace un año los mejores modelos se quedaban en 96 puntos en ese mismo test lo que muestra, una vez más, la rápida mejora que se está produciendo en este campo. Nuestra experiencia de uso diario también nos dice que O3 junto a Gemini 2.5 Pro, que es el segundo en ese ranking, son ahora mismo las IAs más avanzadas que podemos utilizar.
Prompts para GPT-4
Directamente relacionados con el tema de la semana, el AI Index Report 2025, les proponemos los siguientes prompts:
Actúa como una experta en políticas públicas con experiencia en tecnología cívica y redacta una ficha explicativa de una página dirigida a responsables políticos municipales sin formación técnica. Explica por qué la inteligencia artificial es ya un tema prioritario de gobernanza y qué decisiones estratégicas deben considerar durante 2025–2026. Utiliza un lenguaje claro, ejemplos locales y evita tecnicismos para facilitar la comprensión y la toma de decisiones informadas.
Eres un alto cargo de un ministerio de transformación digital. A partir de las tendencias identificadas en el AI Index Report 2025, diseña una propuesta de política pública de inteligencia artificial para los próximos tres años. Incluye objetivos, áreas prioritarias, presupuesto estimado, indicadores de impacto y mecanismos de control democrático.
Recomendación de la semana
Enviándose esta newsletter el 23 de abril, día del libro, no podemos dejar de recomendarles varias lecturas interesantes sobre IA que hemos reseñado en profundidad en diferentes ediciones de estrategIA, aquí les dejamos los enlaces a cada número:
Civilización Artificial, José María Lassalle
Superagency, Reid Hoffman
estrategIA #71 Innovación sin miedo: “Superagency” (el nuevo libro de Reid Hoffman, cofundador de Linkedin) y el desafío de amplificar la agencia humana
La Singularidad está más cerca: Cuando nos fusionamos con la IA, Ray Kurzweil
Co-inteligencia: vivir y trabajar con la IA, Ethan Mollick
Brave New Words: How AI Will Revolutionize Education (and Why That's a Good Thing), Salman Khan
Superpotencias de la inteligencia artificial: China, Silicon Valley y el nuevo orden mundial, Kai-Fu Lee
estrategIA #4 - ¿Y si China lidera la próxima ola tecnológica?
La ola que viene, Mustafá Suleyman
estrategIA #2 - IA, la Encrucijada Política