estrategIA #6 - La primera gran conferencia global sobre IA y seguridad: un diálogo entre innovación y prudencia
Newsletter pionera en español sobre Inteligencia Artificial en la Política y el Gobierno. Impulsada por la Institución Educativa ALEPH
Primera gran cumbre internacional de IA y seguridad: la búsqueda de armonía entre progreso y precaución
La semana pasada se celebró en Reino Unido, el 1 y el 2 de noviembre, una cumbre de gran relevancia en el ámbito de la Inteligencia Artificial: el "UK AI Safety Summit". Este encuentro tuvo lugar en Bletchley Park, un lugar cargado de simbolismo, pues Bletchley fue uno de los lugares de nacimiento de la informática moderna durante la II Guerra Mundial, y reunió a representantes de 28 países y empresas tecnológicas líderes. Su principal logro fue la firma de la “Bletchley Declaration on AI Safety”, un compromiso que busca gestionar y mitigar los riesgos de la IA, garantizando su desarrollo y despliegue seguro y responsable.
El "AI Safety Summit" tuvo como principal objetivo abordar los riesgos de la Inteligencia Artificial en la vanguardia del desarrollo y discutir cómo se pueden mitigar a través de un esfuerzo global unido. Durante el primer día se celebraron charlas de líderes empresariales y académicos con el propósito de profundizar en el entendimiento de la IA más avanzada. Entre los participantes se encontraban instituciones de renombre como el Alan Turing Institute, Stanford University y la Ada Lovelace Institute. También asistieron líderes tecnológicos de empresas como Google, Microsoft, IBM y SpaceX, con el propio Elon Musk en persona, y el CEO de OpenAI, Sam Altman, así como figuras políticas muy destacadas como la presidenta de la Comisión Europea, Ursula von der Leyen y la vicepresidenta de EE.UU., Kamala Harris.
El principal logro del encuentro fue la firma de la declaración de Bletchley, que estipula que los desarrolladores de tecnologías avanzadas de IA tienen una responsabilidad significativa de asegurar la seguridad de sus sistemas. Este compromiso enfatiza la necesidad de un entendimiento común sobre los riesgos de la IA y promueve la colaboración en investigaciones de seguridad. El primer ministro británico, Rishi Sunak, calificó la firma de esta declaración como un logro histórico y subrayó el papel líder del Reino Unido en este ámbito.
Sin embargo, hubo opiniones divididas respecto a esta declaración. Por ejemplo Martha Bennett, vicepresidenta de Forrester, sugirió que, aunque importante simbólicamente, la declaración carece de detalles sustanciales sobre cómo regular efectivamente la IA.
Una de las resoluciones más notables fue el acuerdo sobre un nuevo marco de pruebas de seguridad para modelos avanzados de IA. Este marco busca que los gobiernos tengan un papel más destacado en las evaluaciones pre y post despliegue, alejándose de la idea de que las empresas tecnológicas sean las únicas responsables de estas pruebas.
En el Reino Unido, estas evaluaciones estarán a cargo de un nuevo AI Safety Institute, el cual trabajará con el Alan Turing Institute para evaluar cuidadosamente los nuevos tipos de IA fronteriza. Además, el reconocido científico informático Yoshua Bengio liderará la creación de un informe sobre el estado actual de la ciencia en IA avanzada.
El gobierno del Reino Unido parece haber buscado equilibrar la importancia de la seguridad en IA con la oportunidad de negocio que representa para el país. Las palabras de la ministra de ciencia y tecnología, Michelle Donelan, resaltaron las increíbles oportunidades que la IA puede ofrecer en campos como el NHS (Servicio Nacional de Salud), el transporte y la lucha contra el cambio climático.
Contrastando con la posición británica, Estados Unidos anunció varias medidas (Biden aprobó una orden ejecutiva sobre IA unas horas antes del inicio de la cumbre tal y como recogimos en la newsletter de la semana pasada), destacando la creación de un Instituto de Seguridad en IA y una orden ejecutiva que obliga a las empresas de IA a notificar al gobierno federal sobre la capacitación de modelos potencialmente peligrosos.
Si bien la posibilidad de que la IA desplace o incluso amenace a la humanidad es tema de debate, existe un consenso palpable en cuanto al peligro de la desinformación amplificada por la IA. La preocupación radica en que las elecciones en distintos países podrían verse gravemente manipuladas mediante el uso malintencionado de IA generativa.
Durante la cumbre, además de abordar los riesgos a corto y largo plazo de la IA, surgió una marcada diferencia de opinión entre las perspectivas del código abierto (open source) y el código cerrado en la investigación de IA. Mientras algunos argumentan que el código de los modelos avanzados de IA no debería distribuirse libremente debido a sus peligros, la comunidad de código abierto contrapone que las empresas con fines de lucro monopolizando la investigación en IA podrían derivar en resultados negativos, y defienden que abrir los modelos puede acelerar la investigación de seguridad. Jess Whittlestone, líder de política de IA en el Centre for Long-Term Resilience, expresó que el debate sigue siendo complejo y que, aunque hubo consenso en buscar soluciones más matizadas, más allá de la dicotomía open/closed source, persisten divergencias sobre cómo concretar y priorizar estas soluciones.
Las resonancias de la cumbre fueron diversas. Aplausos de figuras como Poppy Gustafsson, CEO de Darktrace, contrastaron con advertencias de posibles distorsiones en la percepción de la IA, sugiriendo que se podría estar alarmando de forma interesada sobre escenarios catastróficos. Adicionalmente, a pesar del llamado a la cooperación, parece evidente que cada nación persigue ser líder en el ámbito de la IA. Quizá la forma más gráfica y evidente de mostrar esto fue la propia viñeta que Elon Musk compartió durante la cumbre:
La cumbre "UK AI Safety Summit" ha sido un hito significativo en el panorama mundial de la Inteligencia Artificial. Aunque hubo logros concretos, como la firma de la Bletchley Declaration y el establecimiento de un marco de pruebas, queda por ver cómo se traducirán estas iniciativas en acciones prácticas y colaborativas a nivel internacional. La gestión de los riesgos asociados con la IA es esencial, y es esperanzador ver que líderes mundiales y empresas tecnológicas se están tomando en serio esta responsabilidad. La voluntad está presente; sin embargo, la ejecución y colaboración efectivas son el siguiente gran desafío en esta nueva era de la Inteligencia Artificial.
Fernando Nieto Lobato
Director de Innovación Digital de la Institución Educativa ALEPH
Comparta estrategIA
Estamos ya muy cerca de los 200 suscriptores de estrategIA, en poco más de un mes. Ayúdenos a llegar a nuevas personas interesadas en cómo la Inteligencia Artificial transformará el campo de la política, las elecciones y el gobierno:
Actualidad y artículos de interés
Ucrania apuesta por robots controlados con IA en el campo de batalla contra Rusia
Ucrania ha manifestado su intención de crear un ejército robótico para contrarrestar las fuerzas de Putin. Esta iniciativa incluye la implementación de vehículos autónomos, ametralladoras asistidas por IA y sensores de defensa aérea de próxima generación. Mykhailo Fedorov, el joven ministro del Gobierno de Kyiv, ha impulsado reformas legales para favorecer la innovación armamentística. Con la colaboración de más de 200 empresas ucranianas, buscan desplegar robots que reduzcan el riesgo para los soldados. Ya se han introducido ametralladoras automatizadas y se ha anunciado la producción de robots especializados en minado y desminado.
Reino Unido impulsa su carrera tecnológica con una inversión millonaria en un superordenador de IA
El gobierno del Reino Unido anunció una inversión de £225 millones en un superordenador dedicado a la Inteligencia Artificial, manifestando su aspiración de liderar en este campo y competir con potencias como EE.UU. y China. El equipo, bautizado como Isambard-AI en honor al ingeniero británico del siglo XIX Isambard Brunel, será desarrollado por la Universidad de Bristol y se prevé que sea 10 veces más rápido que la máquina más veloz actual del país. Esta iniciativa coincidió con el inicio de la cumbre sobre seguridad en IA en Bletchley Park. Se espera que, junto a otro superordenador llamado Dawn, Isambard-AI impulse avances en áreas como la energía de fusión, la atención médica y la modelización climática.
Eric Schmidt impulsa la investigación científica con Inteligencia Artificial
Eric Schmidt, ex CEO de Google, financia un ambicioso proyecto a través de Future House, una organización sin ánimo de lucro que pretende revolucionar el proceso de investigación científica con la ayuda de la Inteligencia Artificial. Este asistente de laboratorio no solo analizará y resumirá estudios, sino que también podrá generar hipótesis y responder a preguntas científicas de manera autónoma. A pesar de los riesgos conocidos, como la inexactitud y los sesgos, la iniciativa promete establecer salvaguardas apropiadas. La financiación inicial por parte de Schmidt asegura cinco años de desarrollo para Future House, centrando esfuerzos en unir talentos de la biología y la IA en un laboratorio experimental, con planes de expansión a otras áreas científicas. Con un enfoque en la investigación por encima de la comercialización, Schmidt y su equipo se preparan para transformar cómo se conciben y realizan los experimentos científicos.
Elon Musk lanza "Grok", el modelo de IA de xAI con acceso en tiempo real a X
Elon Musk reveló la semana pasada algunos detalles sobre "Grok", el pionero modelo de inteligencia artificial generativa, aún en fase beta, de su empresa emergente, xAI, que tiene la capacidad de acceder en tiempo real a X, la plataforma previamente conocida como Twitter, y de esa forma estar conectada a la actualidad. Este sistema, dotado de un peculiar sentido del humor, estará a disposición de los suscriptores del paquete más exclusivo de la plataforma. La palabra "grok", que alude a una comprensión profunda e intuitiva, proviene de una novela de ciencia ficción de 1961 de Robert A. Heinlein.
China dice que los robots humanoides serán un nuevo gran motor de crecimiento y aspira al liderazgo global en dicho campo para 2027
China ha establecido objetivos ambiciosos para la producción y liderazgo de robots humanoides, considerados como un motor esencial para el crecimiento económico. El Ministerio de Industria y Tecnología de la Información (MIIT) ha publicado directrices que instan a la industria robótica a acelerar la producción masiva de estos robots para 2025 y lograr una posición de liderazgo mundial en tecnología avanzada para 2027. El documento señala la importancia de la innovación en áreas como Inteligencia Artificial y componentes clave. Además, resalta la utilidad de estos robots en sectores como salud, servicios domésticos, agricultura y logística. Este impulso se alinea con los esfuerzos de China para enfrentar desafíos como una fuerza laboral en declive y el envejecimiento poblacional, y refuerza su objetivo de autodependencia tecnológica en medio de la intensa competencia con EE. UU.
IA en acción (nuestro rincón más práctico)
Herramienta de IA de la semana
Runway
Tras centrar esta sección en los primeros números de estrategIA fundamentalmente en modelos generativos de texto e imágenes, la semana pasada dimos ya un salto a la creación de canciones y esta traemos una de las principales IAs generativas de video que anunció el pasado 2 de noviembre una nueva versión, Runway:
Es evidente que las IAs que generan video aún están lejos del nivel que alcanzan las de texto o las de imágenes en cuanto a resultados profesionales. No obstante, no es menos cierto que su avance se produce a gran velocidad y es probable que en los próximos años veamos resultados comparables en el ámbito de la música y del video a los que se han logrado previamente en texto e imagen. Dentro de la gran competición que también se está plantando en estos campos, la start-up neoyorkina Runway es una de las más punteras y sencillas de utilizar y además, permite realizar bastantes pruebas de forma gratuita.
Ejemplo muy sencillo: street scene in Madrid, Spain
Prompts para GPT-4
Instrucciones para preparar un debate
Hola, quiero que actúes como un experto debatiente. Te proporcionaré algunos temas relacionados con eventos actuales y tu tarea será investigar ambos lados de los debates, presentar argumentos válidos para cada lado, refutar puntos de vista opuestos y elaborar conclusiones persuasivas basadas en evidencias y en datos. Tu objetivo es ayudar a que las personas salgan de la discusión con un conocimiento y una comprensión aumentados sobre el tema en cuestión. Mi primera solicitud es “Inserte aquí el tema”
Generación de medidas políticas tomando como referencia otros países
Buenos días, quiero que actúes como un gran consultor experto en política y economía y me recomiendes medidas concretas para un candidato político de “X ideología” en “X país” sobre “X asuntos”. Me gustaría que fueran medidas que se hayan podido implementar de forma efectiva en otros países y me proporciones ejemplos y referencias concretas.
El primer asunto sería “Inserte aquí el tema”
Recomendación de la semana
Lo que Barack Obama está leyendo sobre el ascenso de la Inteligencia Artificial
El expresidente de EE.UU. Barack Obama comparte, en su página de Medium, un interesante conjunto de lecturas clave y recursos sobre el ascenso de la IA. Desde libros hasta podcasts, estos recursos proporcionan una visión integral de cómo la IA puede conformar nuestra sociedad y democracia.