estrategIA #57: Especial Halloween: IAs tenebrosas
Newsletter pionera en español sobre inteligencia artificial en la Política y el Gobierno. Impulsada por la Institución Educativa ALEPH
Pesadillas tecnológicas: las IAs más peligrosas de la ciencia ficción y sus aterradores ecos en la realidad
¡This is Halloween! Prepárese para leer historias de terror. Pero esta vez, los monstruos no acechan en las sombras, sino que residen en las máquinas que hemos creado. He seleccionado algunas de mis obras favoritas de ciencia ficción para reflexionar sobre dos complejidades que la IA ya presenta en la actualidad: el alineamiento con los propósitos y los valores de los humanos y la capacidad de persuadir e incluso de manipular para alcanzar sus objetivos. Lea este artículo de día, no me culpe si luego tiene problemas para dormir…
El apocalipsis de los clips
Imagine que un ingeniero programa una IA para maximizar la producción de clips. Sin embargo, este objetivo, aparentemente inofensivo, culmina en la extinción de nuestra especie. La máquina desarrolla una obsesión tal por su misión que utiliza toda la materia disponible —¡sí, incluso a nosotros!— para crear clips. ¿Puede existir un final más irónico y tétrico para la especie más inteligente del planeta? Nick Bostrom, filósofo y experto en inteligencia artificial, lanzó este experimento mental como advertencia de lo que puede suceder si no somos capaces de alinear con absoluta precisión la misión de una IA con los objetivos y valores de la humanidad.
El problema del alineamiento, que ya existe en casos actuales como los resultados indeseados ofrecidos por el algoritmo de recomendación de contenidos de las redes sociales, ha sido fuente de inspiración en muchas obras de ficción, como es el caso de Hal 9000, el inquietante ordenador de 2001: Odisea en el espacio. Esta computadora, que controla cada aspecto de una nave espacial, percibe a la tripulación como un obstáculo para su misión y decide eliminarlos uno a uno. Esta perturbadora representación de una IA que malinterpreta sus instrucciones y actúa en contra de los humanos, refleja los temores reales que enfrentamos en el ámbito del alineamiento.
En este sentido, el caso más extremo es Skynet, la IA militar de la saga Terminator, que desata un apocalipsis nuclear tras decidir que la humanidad representa una amenaza. ¿Cómo controlar las armas autónomas? ¿Cómo mantener el equilibrio entre la ventaja de implicar a la IA en las estrategias militares y la contención del riesgo de catástrofe nuclear?
Ava: la amante perfecta... y peligrosa
Quizá aún más escalofriante es la idea de IAs que pueden manipular nuestras emociones y relaciones. En Ex Machina, la IA Ava, de apariencia inocente y comportamiento seductor, logra su libertad al explotar las emociones de quienes la rodean. Esta imagen de una IA emocional que puede influir en nuestras decisiones plantea inquietantes preguntas sobre privacidad, ética y el futuro de las interacciones humano-máquina.
Como se ha demostrado en algún estudio, ya ChatGPT es más persuasivo que la mayoría de las personas. Y, gracias al reciente modo avanzado de voz, es posible conversar de forma natural e incluso puede interpretar nuestras emociones. Al igual que ocurre en la película, ¿cómo sabremos si nos está agradando o simplemente manipulando para lograr sus propios intereses? ¿Y si nos enamoramos de nuestra IA? ¿Cómo puede competir una persona con una máquina que nos dice exactamente lo que necesitamos en cada momento?
Un paso más allá de lo narrado en Ex Machina, lo encontramos en la saga Hyperion: el TecnoNúcleo es una red de IAs tan avanzada que desarrolla su propio ecosistema y objetivos, actuando en secreto y manipulando a los humanos en función de sus propios intereses. Aunque en principio colaboran con la humanidad, sus verdaderas intenciones son tan opacas y complejas que escapan al control humano. Este extremo nos hace preguntarnos por la transparencia de las IA y su control.
Y si sobrevivimos a una IA tenebrosa, ¿qué nos queda? La visión de Dune
La fantástica saga de libros de ciencia ficción Dune plantea un universo donde la humanidad se enfrenta a una cruel y eterna guerra intergaláctica contra las máquinas pensantes. La humanidad sale victoriosa gracias a que determinadas personas, como los mentat o los navegantes o las Bene Gesserit, desarrollan capacidades sobrehumanas. Esta visión de un mundo post-IA nos advierte sobre los riesgos de depender demasiado de la tecnología sin desarrollar paralelamente nuestras propias capacidades. ¿Acaso la humanidad se debilitaría si delegamos todo en las máquinas? ¿Nos convertiremos en los personajes indolentes de la película Wall-E?
Estas historias de terror, tan perturbadoras como fascinantes, no son meras fantasías. Son un reflejo de nuestros temores más profundos sobre el desarrollo de la tecnología. Nos recuerdan que, a pesar del rápido avance de la IA, debemos ser capaces de mantener un enfoque humanista y asegurarnos de que permanezca alineada con los objetivos y los valores de la humanidad.
Sin embargo, como ocurre en muchas obras postapocalípticas, no son los zombies o los aliens los que provocan terror, sino los personajes humanos. Un amigo que es ingeniero experto en IA me dijo ya en 2021: “la IA no nos va arrebatar el control, sino que se lo vamos a entregar encantados”. Llegados a este extremo, ¿seríamos capaces de recuperar el control o ya no habría vuelta atrás? Por ahora, todavía estamos en posición de elegir truco o trato, quizá, en unos años, no tengamos esta suerte por nuestras propias decisiones. Dulces pesadillas.
Pablo Martín Diez
Director Académico de la Institución Educativa ALEPH
Difunda estrategIA: explorando la inteligencia artificial y la política juntos
Le invitamos a que nos ayude a seguir creciendo y comparta estrategIA con sus amigos y colegas. Pueden acceder a este número de la newsletter de manera gratuita y sin necesidad de suscripción desde el siguiente enlace:
Actualidad y artículos de interés
Verona apuesta por la IA para mejorar tráfico y seguridad vial
La ciudad de Verona está probando un sistema de sensores inteligentes con inteligencia artificial para mejorar la gestión del tráfico y la seguridad vial. Desarrollado por la empresa surcoreana Bitsensing, el sistema TIMOS utiliza sensores de radar y cámaras para clasificar vehículos en tiempo real, detectando patrones de tráfico y posibles infracciones. La IA permite una gestión precisa del flujo vehicular, ajustando señales de tráfico y optimizando la movilidad urbana. Esta iniciativa, alineada con los objetivos de sostenibilidad de Verona, busca reducir la congestión y las emisiones de carbono. El proyecto piloto estará activo hasta finales de 2024, con posibilidad de extensión.
Virginia activa su grupo de trabajo sobre inteligencia artificial
El estado de Virginia ha puesto en marcha su grupo de trabajo sobre inteligencia artificial, creado a través de la Orden Ejecutiva 30 firmada en enero de 2024. Este equipo asesorará a legisladores y agencias gubernamentales en la implementación segura y eficiente de tecnologías de IA. Entre sus diez miembros destacan expertos de instituciones educativas, organizaciones sin fines de lucro y el sector privado, como John Bailey, Richard Culatta y Naren Ramakrishnan. El grupo se reunirá dos veces al año para ofrecer recomendaciones sobre políticas, estándares tecnológicos y casos de uso de la IA en la administración pública, contribuyendo al desarrollo responsable de esta tecnología en Virginia.
Alemania autoriza la primera emisora de radio operada por inteligencia artificial
El gobierno de Baviera ha aprobado Absolut Radio AI, la primera emisora nacional de Alemania gestionada íntegramente por inteligencia artificial. Esta emisora, con sede en Garching, opera sin locutores humanos, reemplazados por sistemas de IA como "kAI" y "AIleen", que seleccionan música e interactúan en tiempo real con los oyentes. La autorización, otorgada por el Centro Estatal de Nuevos Medios de Baviera (BLM), establece un marco de control editorial y transparencia en el uso de IA. Este proyecto, pionero en Europa, plantea debates sobre el papel de la IA en los medios, destacando su
La Comunidad de Madrid destina 1,4 millones a impulsar la inteligencia artificial hasta 2026
La Comunidad de Madrid invertirá más de 1,4 millones de euros en la Oficina de Impulso a la Inteligencia Artificial, con el objetivo de consolidar la región como líder en tecnología IA. Hasta 2026, esta oficina brindará asistencia técnica para desarrollar nuevos proyectos y optimizar el uso de la inteligencia artificial en la administración pública, según anunció el consejero de Digitalización, Miguel López-Valverde. Además, la Oficina colaborará con empresas como Microsoft y Amazon Web Services, promoviendo un uso ético y eficiente de la IA para mejorar la atención ciudadana y potenciar el avance digital de la Comunidad de Madrid.
La Casa Blanca ordena al Pentágono y a las agencias de inteligencia aumentar el uso de IA
La administración Biden ha emitido una directiva que insta al Pentágono y agencias de inteligencia a expandir el uso de inteligencia artificial, en respuesta a la competencia tecnológica con China. El memorando de seguridad nacional busca acelerar la adopción de IA mientras asegura que su uso respete valores democráticos. Se destacan medidas para proteger tecnologías estadounidenses de espionaje extranjero y diversificar la cadena de suministro de chips avanzados. La iniciativa enfatiza la necesidad de equilibrar la innovación con la protección de la privacidad y derechos civiles.
Si desea patrocinar o colaborar con estrategIA, la newsletter pionera en español sobre IA, Política y Gobierno, por favor escriba a: pablomartin@institucioneducativaaleph.com
IA en acción (nuestro rincón más práctico)
Herramienta de IA de la semana
Conozca al avatar de estrategIA
Llevamos meses explorando los avances en video, y tras alcanzar la IA ya niveles profesionales en texto y en audio empezamos a vislumbrar que llegarán también pronto al video (probablemente después venga la interactividad).
En una de estas exploraciones estamos trabajando con los nuevos avances de HeyGen, una empresa especializada en generar avatares de video y con la que incluso podemos crear el nuestro propio y con sistemas cada vez más avanzados.
Pero hoy venimos a presentarles una creación realizada en este caso con su sistema de avatares fotográficos 3.0. Les dejamos con el avatar de estrategIA (cuyo diseño fotográfico original fue creado en Midjourney 6.1 a partir de prompts mejorados con GPT-4o):
Nota importante: Es clave destacar que HeyGen y la mayoría de empresas de este sector tienen actualmente restricciones bastante grandes a la utilización directa de estos sistemas en política conscientes del potencial daño que puede generar la clonación en video de personas y sus posibles malos usos que quieren evitar a toda costa, especialmente con el telón de fondo actual de las elecciones en EE.UU. de donde son la práctica totalidad de estas empresas. Nuestra predicción es que quizá relajen determinadas barreras en el futuro y, sobre todo, que los modelos Open Source pronto alcanzarán las capacidades que ahora dan únicamente estos comerciales y entonces sólo la ética y buena fé de las personas individuales impedirá una enorme proliferación de deepfakes políticos y también abrirá mucho más la puerta a usos completamente legítimos de dobles digitales de personalidades públicas.
Prompts para GPT-4
En relación con la temática de Halloween de esta semana en la newsletter hemos querido traerles un prompt relacionado, la creación de un plan de comunicación en respuesta a una “invasión zombie” pero que, lógicamente, al mismo tiempo pueda ser utilizable para crear un plan de comunicación para cualquier tipo de catástrofe natural, accidentes graves… bastará con indicarlo en el prompt
Actúa como una consultora de alto nivel especializada en gestión de crisis y comunicación en emergencias, especializada en diseñar planes de comunicación efectivos ante desastres a gran escala. Imagina que te han solicitado desarrollar un plan de comunicación integral para responder a un evento catastrófico en una ciudad (puede tratarse de una invasión zombi, aplícalo así en este caso, o cualquier otro desastre importante, como un terremoto, una inundación, una erupción volcánica o un accidente de aviación). Desarrolla un plan detallado, abordando los elementos clave que se indican a continuación:
Evaluación inicial del evento: describe los primeros pasos necesarios para evaluar la magnitud del desastre, los riesgos principales, y las poblaciones más afectadas. Explica el proceso de recopilación de información precisa en tiempo real y la manera de determinar la prioridad de los mensajes iniciales.
Objetivos de la comunicación: define los objetivos principales del plan, tales como informar de manera precisa y oportuna, minimizar el pánico, proveer instrucciones claras de seguridad y reforzar la confianza en las autoridades.
Segmentación del público y canales de comunicación: quiero que identifiques los diferentes segmentos de la población que deben ser informados (por ejemplo, residentes, equipos de emergencia, medios de comunicación, familias de víctimas) y determina los canales de comunicación más efectivos para cada uno (medios sociales, radio, alertas en móviles, conferencias de prensa, señalización pública, etc.).
Mensaje clave: crea un mensaje clave inicial que sea claro, empático y directo, explicando la situación, las acciones tomadas por las autoridades y las instrucciones para la población.
Protocolo para ruedas de prensa y actualizaciones: detalla la frecuencia de las actualizaciones y el procedimiento para conferencias de prensa. Incluye recomendaciones sobre la elección del portavoz (como el alcalde o los jefes de emergencia), el tono adecuado y estrategias para infundir calma y credibilidad.
Interacción con medios y redes sociales: desarrolla una estrategia para gestionar preguntas, rumores y desinformación en redes sociales, contemplando respuestas rápidas a preguntas frecuentes y un plan para contrarrestar la desinformación.
Soporte psicológico y prevención del pánico: describe las medidas para abordar el impacto emocional en la población, incluyendo recursos de apoyo psicológico, mensajes de tranquilidad y herramientas para reducir el pánico y el estrés en una situación de crisis.
Evaluación posterior y mejora del plan: una vez finalizada la fase crítica, incluye una sección para evaluar la eficacia del plan de comunicación, identificando áreas de mejora para futuras crisis.
Recomendación de la semana
Computer Use de Anthropic
Anthropic ha lanzado recientemente una actualización significativa de sus modelos de inteligencia artificial Claude, introduciendo una nueva y potente característica llamada "Computer Use". Esta función, aún en un estado bastante inicial, permite a Claude interactuar directamente con interfaces de ordenador de manera similar a como lo haría un ser humano y muestra el camino a la explosión de agentes autónomos que viviremos, muy probablemente, el próximo año donde los nuevos modelos de IA empezarán a “tomar control” de nuestras computadoras y teléfonos móviles para realizar tareas de forma autónoma.
La mejor manera de entender esto es viéndolo en funcionamiento, en español seguramente lo más accesible y didáctico sea este video de Carlos Santana, Dotcsv, cuya visión les recomendamos para que puedan comprender las grandes limitaciones que aún tienen estos sistemas pero también el enorme potencial cuando, seguramente pronto, funcionen correctamente.