estrategIA #85 - ¿Ética o ideología de la inteligencia artificial? de Adela Cortina, una guía crítica para recuperar la prudencia en tiempos de máquinas que deciden
Newsletter pionera en español sobre inteligencia artificial en la Política y el Gobierno. Impulsada por la Institución Educativa ALEPH
¿Quién debe decidir en la era de la inteligencia artificial? ética, prudencia y dignidad humana frente al poder de los algoritmos
Casi todas las semanas nos topamos con promesas y predicciones grandilocuentes expresadas, a menudo fanfarronamente, por gurús y magnates tecnológicos. Frente a esta hýbris (la antigua desmesura que los griegos asociaban a la arrogancia de quienes se creían por encima del destino), Adela Cortina, catedrática de Ética y Filosofía Política en la Universidad de Valencia y miembro de la Real Academia de Ciencias Morales y Políticas, ofrece una mirada crítica, prudente y sabia que nos ayuda a mirar más allá de la vertiginosa espiral de novedades e impactos tecnológicos. En su libro ¿Ética o ideología de la inteligencia artificial?, la filósofa propone un marco ético para el avance de la IA, al tiempo que alerta de los riesgos a los que la sociedad y la democracia están sometidas actualmente. Una era que prima una mal entendida audacia, anclada en la soberbia, más que la prudencia, calificada como la mayor virtud intelectual por Aristóteles.
Los principios éticos de la revolución 4.0
Adela Cortina menciona que esta nueva ola tecnológica debe ajustarse a los siguientes principios éticos:
1) Beneficencia: los beneficios deben llegar a todas las personas, y no solo a unas pocas. Para ello, la autora sostiene que el Estado debe intervenir.
2) Autonomía y dignidad: en sus primeras páginas, Cortina alerta de una cuestión clave: “la diferencia abismal entre hacer uso de sistemas inteligentes a la hora de tomar decisiones con delegar en esos sistemas inteligentes decisiones significativas para la vida de las personas y de la naturaleza”. En este sentido, la autora recuerda que “los sistemas inteligentes no son autónomos, no tienen libre albedrío”; por tanto, “no pueden ponerse en manos de máquinas inteligentes decisiones que afecta a la vida de las personas sin supervisión humana […] Siempre tiene que ser un ser humano quien tome la decisión última y deba dar razón de ella, en caso necesario. Las máquinas carecen de contexto y entorno; se puede ir creando el entorno, pero carecen de sentido común”.
¿Y si la tecnología avanza y la IA llega a tener sentido común? La filósofa defiende que no puede existir inteligencia general sin cuerpo: “las máquinas carecen del conocimiento de sentido común que es posible por nuestras vivencias corporales”.
3) Explicabilidad y rendición de cuentas: tenemos derecho a conocer el uso de nuestros datos y a saber cómo el algoritmo los maneja. “Creer que las tecnologías son neutrales es puramente ideología”. “Como bien decía Habermas, la ciencia y la técnica se pueden convertir en ideología, en esa visión deformada y deformante de la realidad que permite satisfacer los intereses espurios de los poderosos para practicar su dominación.”
4) No dañar: ciudadanía digital de pleno derecho para hacer frente a retos como la ciberseguridad, la protección de datos, la privacidad, la intimidad, la defensa ante contenidos nocivos, etc.
5) Promover un mundo justo: en especial, con respecto al impacto del mercado laboral. La autora hace referencia a algunas soluciones que ya han sido tratadas con detalle en esta newsletter.
Además de determinar los principios morales, la autora también repasa los marcos de ética que podrían aplicarse a los sistemas inteligentes. Cortina sostiene que “un marco deontológico para integrar normas éticas en los ‘cerebros’ de las máquinas es el más adecuado porque, aunque la máquina no sea consciente de ello, tratará de proteger a los seres valiosos por sí mismos […] Mi propuesta es un deontologismo dialógico, que recurre al método de una hermenéutica crítica”. Es decir, existen cuestiones que son correctas por principio, como el respeto a la dignidad humana, y que la composición del resto de principios y de reglas deben establecerse a través de un debate público complejo y no por imposición de un puñado de empresas o gobiernos; y además, dichos principios están sujetos a interpretación crítica para asegurarnos que la IA se fundamenta en una ética y no en una ideología impuesta a través de la ciencia o la tecnología.
No solo ética y filosofía, también política
Debido a la limitación de espacio de este artículo, me ciño a dos cuestiones políticas clave, aunque el libro de Adela Cortina contiene numerosas referencias a este ámbito que seguro que resultarán muy interesantes para los lectores de esta newsletter.
Geoestrategia: la carrera por la IA es también una carrera por la hegemonía mundial. Presentar ciertos desarrollos como inevitables o inherentemente ‘éticos’ puede servir para justificar inversiones masivas, desregulación selectiva o la adopción de tecnologías que, en última instancia, concentran poder en manos de unas pocas corporaciones o Estados. En cualquier caso, tiene muy clara la estrategia que debería seguir la Unión Europea: “de acuerdo con el principio básico del respeto a la dignidad humana, la promoción de la IA es una obligación moral política y económica para la Unión Europea. Si Europa no asume este reto quedará condenada a la irrelevancia”.
El eclipse de la razón comunicativa: este es, quizás, el concepto más potente del libro para entender el impacto de la IA en la democracia. Cortina, seguidora de Habermas, argumenta que la "sociedad tecnologizada" está sufriendo un "eclipse de la razón comunicativa". La conectividad exacerbada por las redes sociales y las plataformas digitales no se traduce necesariamente en una mejor comunicación veraz y deliberativa. Al contrario, a menudo prima la "razón estratégica" –la manipulación, la desinformación, la polarización– que busca ventajas espurias en lugar del entendimiento mutuo. Este eclipse es un "reto radical para la democracia", ya que dificulta la construcción de un nosotros inclusivo capaz de tomar decisiones conjuntas. Las políticas públicas deben, por tanto, fomentar un ecosistema digital que promueva el diálogo informado y el "lenguaje claro", en lugar de fomentar la fragmentación, el dogmatismo y el moralismo (cultura de la cancelación).
Finalmente, ante los desafíos escritos, Adela Cortina recurre al papel crucial de la educación. Reconoce los beneficios potenciales de la IA en la educación (como la personalización y el acceso a conocimiento), pero advierte con contundencia sobre sus riesgos: incremento de la brecha digital, sesgos algorítmicos, y, fundamentalmente, la erosión de la autonomía personal y la capacidad crítica. Cortina propone que la educación nos ayude a pensar por nosotros mismos y, al mismo tiempo, a conectar bien con los demás, fomentando la conversación pública y la crítica.
Hasta ahora, la moral de un robot correspondía al ámbito de la ciencia ficción. Pero vivimos tiempos maravillosos que han permitido que hasta una de las filósofas más importantes de Iberoamérica reflexione sobre los fundamentos éticos de la IA. Lea este libro. Es sencillo, escrito para todo el mundo, no para lectores avanzados de filosofía. Estoy seguro de que disfrutará tanto como yo y que valorará la trascendencia de la sabiduría construida a base de humildad.
Director Académico de la Institución Educativa ALEPH y Editor de estrategIA
Difunda estrategIA: explorando la inteligencia artificial y la política juntos
Le invitamos a que nos ayude a seguir creciendo, son ya más de 1.500 los suscriptores de estrategIA en Substack y Linkedin que nos acompañan cada semana. Le invitamos a que comparta estrategIA con sus amigos y colegas. Pueden acceder fácilmente a este número de la newsletter de manera gratuita y sin necesidad de suscripción desde el siguiente enlace:
Actualidad y artículos de interés
El mercado laboral para recién licenciados se debilita y podría estar ligado al avance de la inteligencia artificial
El desempleo entre graduados universitarios recientes en EE. UU. ha alcanzado el 5,8 %, una cifra inusualmente alta según la Reserva Federal de Nueva York. Este fenómeno refleja un mercado laboral en deterioro, con teorías que apuntan a tres causas principales: secuelas persistentes de la pandemia y la Gran Recesión, una reducción estructural del valor laboral del título universitario, y el posible impacto incipiente de la inteligencia artificial en empleos de oficina de nivel inicial. Aunque aún no hay pruebas concluyentes de que la IA esté reemplazando masivamente a jóvenes profesionales, pero los datos sugieren una situación a estudiar.
OpenAI lanza “OpenAI for Countries” para promover una “IA democrática” y ampliar su “soft power”
OpenAI ha anunciado su iniciativa global OpenAI for Countries, parte del megaproyecto Stargate, con la que busca construir centros de datos en el extranjero y adaptar ChatGPT a culturas y lenguas locales. Esta estrategia se posiciona como una respuesta a la expansión tecnológica china, promoviendo una “IA democrática” en alianza con gobiernos aliados. La iniciativa incluye fondos nacionales para startups, y la posible liberación de un modelo open source. Sin embargo, varios expertos advierten que esta diplomacia digital podría implicar pérdida de soberanía tecnológica y riesgos en derechos humanos.
El papa León XIV vincula su nombre al desafío ético de la inteligencia artificial
En su primer discurso oficial ante el Colegio de Cardenales, el papa León XIV reveló que eligió su nombre en homenaje a León XIII, quien abordó los retos sociales de la revolución industrial. Comparó aquel contexto histórico con los desafíos actuales que plantea la inteligencia artificial, destacándola como una de las razones centrales para su elección. El pontífice subrayó la necesidad de aplicar la doctrina social de la Iglesia ante esta “nueva revolución industrial”. Esta declaración marca un posible giro estratégico del Vaticano, anticipando un papado enfocado en la ética de la tecnología y la defensa de la dignidad humana.
El debate sobre armas autónomas se intensifica en la ONU ante la falta de regulación global
La ONU ha iniciado esta semana en Nueva York su primera reunión específica sobre armas autónomas, con el objetivo de impulsar un marco legal antes de 2026, plazo marcado por el secretario general António Guterres. Aunque 164 países apoyaron en 2023 una resolución para abordar los riesgos de estas tecnologías, grandes potencias como EE. UU., Rusia, China e India se resisten a normas vinculantes y prefieren directrices nacionales. Activistas y expertos alertan sobre una carrera armamentística y la falta de rendición de cuentas, mientras el uso de sistemas autónomos crece en conflictos como Ucrania y Gaza sin supervisión suficiente.
OpenAI lanza HealthBench, su primer estándar abierto para evaluar la seguridad y precisión de modelos de IA en salud
OpenAI presentó HealthBench, un benchmark de código abierto para medir el rendimiento y la seguridad de modelos de lenguaje en escenarios clínicos realistas. Desarrollado con 262 médicos de 60 países, incluye 5.000 conversaciones evaluadas con 48.562 criterios clínicos. A diferencia de pruebas tipo examen, HealthBench simula diálogos complejos entre pacientes o profesionales y la IA, abarcando siete áreas temáticas, como emergencias o salud global. La iniciativa busca fijar estándares rigurosos para mejorar sistemas de IA en salud y guiar a investigadores y organizaciones sanitarias. En las primeras pruebas, el modelo o3 de OpenAI obtuvo el mejor desempeño con un 60% de aciertos, seguido por Grok (54%) y Gemini 2.5 Pro (52%). El objetivo es guiar el desarrollo de IA médica segura y transparente.
Si desea patrocinar o colaborar con estrategIA, la newsletter pionera en español sobre IA, Política y Gobierno, por favor escriba a: pablomartin@institucioneducativaaleph.com
IA en acción (nuestro rincón más práctico)
Herramienta de IA de la semana
¿Le gustaría transformar una imagen manteniendo su esencia, cambiar el estilo de una foto o probar cómo se vería con otra ropa? DreamO, desarrollado por ByteDance y lanzado a finales de abril de 2025, es una herramienta de inteligencia artificial que permite personalizar imágenes de manera intuitiva y versátil.
Pueden experimentar con DreamO directamente desde el navegador a través de su demo gratuita en Hugging Face:
Solo se necesita subir una imagen y seguir las instrucciones para seleccionar el tipo de personalización.
Para los interesados en los aspectos técnicos y el desarrollo de DreamO, pueden consultar el artículo académico publicado en arXiv:
Un par de ejemplos sencillos, Biden como un príncipe Disney y Merkel sentada en una nube tocando la guitarra a partir de sus imágenes oficiales de Wikipedia.
Prompts para GPT-4
Relacionados con el artículo principal de esta semana les proponemos los siguientes prompts:
Actúa como una estratega principal del equipo de innovación digital de la Unión Europea en un contexto geopolítico altamente competitivo. Redacta un memorándum estratégico de alto nivel dirigido a las instituciones europeas en el que argumentes por qué la promoción ética y humanista de la inteligencia artificial no es una opción moral abstracta, sino una obligación política, económica y cultural urgente si Europa quiere evitar su marginalización global, como advierte Adela Cortina.
El memorándum debe incluir:
Un diagnóstico geoestratégico actual que contraste el modelo europeo con los enfoques hegemónicos de China y Estados Unidos (centralización autoritaria vs. capitalismo de vigilancia).
Una defensa del modelo europeo basado en la dignidad humana, la autonomía, la rendición de cuentas y la justicia algorítmica, inspirada en los principios éticos planteados por Cortina.
Al menos tres propuestas concretas de políticas públicas o iniciativas tecnológicas que consoliden a la UE como líder en “IA ética”, incluyendo posibles alianzas internacionales, regulación avanzada y sistemas públicos de IA confiables.
Un apartado final con recomendaciones de comunicación estratégica para que este modelo no sea solo normativo, sino también culturalmente atractivo y globalmente influyente.
Redacta el texto con el tono y formato propios de un documento de asesoramiento político institucional, fundamentado y orientado a la acción.
Actúa como un auditor ético de tecnologías de IA. Redacta un informe inicial para una organización pública que acaba de implementar un sistema algorítmico para evaluar solicitudes de ayudas sociales. Utiliza como marco los cinco principios de Adela Cortina: beneficencia, autonomía, explicabilidad, no daño y justicia. Evalúa potenciales riesgos y sugiere medidas de corrección.
Recomendación de la semana
En este vídeo que les recomendamos, Jon Hernández entrevista al hacker Chema Alonso, experto en ciberseguridad y exmiembro del Comité Ejecutivo de Telefónica, donde ha dirigido la transformación digital de la multinacional.
En la entrevista, Chema expresa su entusiasmo por la IA y cómo está transformando todo a nuestro alrededor, siendo hoy un regalo para la humanidad que no teníamos en los años 90 cuando él estudiaba sistemas expertos en la universidad. En la conversación aborda múltiples temas como la falta de seguridad en los algoritmos de inteligencia artificial, la IA en un futuro cercano como corazón de todas las empresas y cómo deberíamos educar a los jóvenes para usar la IA.
Tomo nota del libro de Adela, muy interesante, gracias por compartir.