En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información
aquí
Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
Al año de Chat GPT, el mundo cree que se tiene que reglamentar la IA
Líderes de alto nivel se reunieron en Londres para firmar un compromiso por su desarrollo seguro.
En la mesa: Ursula von der Leyen (izq.), presidenta de la Comisión Europea; Kamala Harri (cen.), vicepresidenta de EE. UU., y Rishi Sunak (der.), primer ministro del Reino Unido. Foto: EFE
Estados Unidos, China, la Unión Europea y una veintena de otros países firmaron esta semana en el Reino Unido la Declaración de Bletchley para un desarrollo seguro de la inteligencia artificial (IA), en la primera cumbre internacional sobre el auge de esta tecnología.
“Esta declaración histórica marca el comienzo de un nuevo esfuerzo mundial para aumentar la confianza del público en la IA, garantizando que sea segura”, dijo el primer ministro británico, Rishi Sunak, en X (Twitter).
El documento, entre cuyos firmantes también figuran Brasil y Chile, subraya “la necesidad urgente de comprender y gestionar colectivamente los riesgos potenciales de la IA”.
Inteligencia artificial Foto:iStock
La declaración de Bletchley “muestra que, por primera vez, el mundo se reúne para identificar el problema y destacar sus oportunidades”,
Ante el creciente potencial de modelos como ChatGPT, la declaración de Bletchley “muestra que, por primera vez, el mundo se reúne para identificar el problema y destacar sus oportunidades”, subrayó a AFP la ministra británica de Tecnología, Michelle Donelan. La reunión “no tiene como objetivo sentar las bases de una legislación mundial, sino que debe servir para trazar un camino por seguir”, precisó.
Dos cumbres internacionales sobre la IA tendrán lugar más adelante. Una en Corea del Sur, dentro de seis meses, y otra en Francia, dentro de un año, añadió la ministra desde el emblemático centro donde se descifraron los códigos secretos nazis en la Segunda Guerra Mundial.
Paralelamente al encuentro, la vicepresidenta estadounidense, Kamala Harris, anunció la creación de un instituto sobre la seguridad de la inteligencia artificial en Washington. Esta estructura –similar a la que también anunció el Reino Unido– reunirá a expertos para establecer directivas y evaluar los modelos de IA más avanzados para “identificar y mitigar” los riesgos en los avances de esta tecnología, según la Casa Blanca.
Las IA generativas –capaces de producir texto, sonidos o imágenes en cuestión de segundos- progresaron exponencialmente en los últimos años y las próximas generaciones de estos modelos aparecerán en siguiente el verano.
Aunque la IA trae consigo grandes esperanzas para el campo de la medicina y la educación, también podrían desestabilizar las sociedades, permitir la fabricación de armas o eludir el control humano, advierte el Gobierno británico.
Seguridad nacional
Las consecuencias de estos avances preocupan a los s y a los expertos. Foto:iStock
“Los principios de gobernanza de la IA deben basarse en la Carta de las Naciones Unidas y la Declaración Universal de Derechos Humanos”.
Uno de los temas del evento fue evaluar los riesgos de la IA en la seguridad nacional, en la que participaron la presidenta de la Comisión Europea, Úrsula von der Leyen; el secretario general de la ONU, António Guterres, y la jefa del Gobierno italiano, Giorgia Meloni. China, cuya eventual presencia causó revuelo debido a las tensiones geopolíticas y a los temores de espionaje tecnológico, no fue invitada a este espacio.
El tema de la seguridad nacional y la IA es de alto interés debido a las próximas citas electorales de grandes potencias, como las presidenciales en Estados Unidos (en noviembre de 2024) o las legislativas británicas (que se deberían celebrar antes de enero de 2025).
En su participación, Guterres pidió una respuesta “unida, sostenible y global” a los riesgos derivados del auge de la inteligencia artificial y agregó que “los principios de gobernanza de la IA deben basarse en la Carta de las Naciones Unidas y la Declaración Universal de Derechos Humanos”.
Días antes de la cumbre, la cabeza de Naciones Unidas creó un grupo consultivo multilateral que tiene la tarea de hacer propuestas para la gobernanza de estas nuevas tecnologías. Integrada por expertos en istración pública, empresarios, comunidad tecnológica, sociedad civil y académicos, esta comisión tiene como objetivo final maximizar los beneficios y disminuir los riesgos de la IA.
Aunque el brasileño reconoce el gran potencial de la IA, también expresó sus preocupaciones sobre las brechas digitales, la proliferación de la desinformación, el asentamiento de los prejuicios y la discriminación, la vigilancia y la invasión de la privacidad o el fraude que puede generar esta tecnología. La IA puede “socavar la confianza en las instituciones, debilitar la cohesión social y amenazar a las democracias”, dijo Guterres en su momento.
Elon Musk Foto:EFE
Además de funcionarios de alto nivel, en la cumbre hizo presencia el multimillonario y empresario Elon Musk. “Nuestro objetivo es establecer un marco para una mejor comprensión, y para que haya al menos un árbitro independiente que pueda observar lo que están haciendo las empresas de la IA y dé la señal de alarma si algo le preocupa”, precisó Musk a la prensa.
“La balanza se inclina a favor de la humanidad, porque tenemos la voluntad política y la capacidad de controlar esta tecnología, asegurando sus beneficios a largo plazo”, subrayó el primer ministro británico en la clausura del evento.
En una carta abierta publicada el martes, varios de los “padres fundadores” de esta tecnología, como Yoshua Bengio o Geoffrey Hinton, abogaron por “la elaboración y la ratificación de un tratado internacional sobre la IA”, para reducir los riesgos “potencialmente catastróficos que los sistemas avanzados hacen pesar sobre la humanidad”.
El reto consiste en establecer salvaguardas sin obstaculizar la innovación para los laboratorios de IA y los gigantes tecnológicos. La Unión Europea y Estados Unidos, a diferencia del Reino Unido, eligieron el camino de la regulación. La semana pasada, varias empresas como OpenAI, Meta (Facebook) o DeepMind (Google) acordaron hacer públicas algunas de sus políticas de seguridad de la IA a petición del Reino Unido.
Pasos previos de EE. UU.
Adelantándose a la cumbre, la Casa Blanca reveló el lunes un conjunto de normas y principios destinados a garantizar que Estados Unidos “marque el camino” en la regulación de la inteligencia artificial (IA), objeto de una feroz competencia internacional.
El presidente Joe Biden firmó un decreto que exige a los desarrolladores de IA presentar al gobierno federal los resultados de sus pruebas de seguridad cuando sus proyectos supongan “un grave riesgo para la seguridad nacional, la seguridad económica nacional o la salud pública”.
Biden se basa en una ley que data de la Guerra Fría, la Defense Production Act (1950), que otorga al Gobierno cierto poder de coacción sobre las empresas cuando está en juego la seguridad del país. Los criterios para estas pruebas se fijarán a nivel federal, según el Gobierno estadounidense.
En julio, varias gigantes del sector digital, entre ellas Microsoft y Google, ya se habían comprometido a someter sus sistemas de IA a pruebas externas.
La Casa Blanca pretende prestar especial atención a los riesgos que puede plantear el desarrollo de la IA en los campos de la biotecnología e infraestructuras.
El Presidente de Estados Unidos firmó orden ejecutiva para su control y regulación. Foto:EFE
También emitirá recomendaciones sobre la detección e identificación de contenidos generados con IA, una tecnología que permite producir a muy alta velocidad imágenes, sonidos e incluso videos más fieles a la realidad.
Así mismo, el Ejecutivo promete publicar sugerencias para contrarrestar la posible discriminación (por sesgos de género o raza) que susciten estos modelos de IA, y se compromete a vigilar el impacto de esta revolución tecnológica en el empleo.
Pero Biden dispone apenas de un margen de maniobra limitado. Cualquier normativa verdaderamente vinculante y ambiciosa sobre inteligencia artificial debería pasar por el Congreso. Sin embargo, el Legislativo tiene divididos a demócratas y republicanos, lo que hace muy improbable la adopción de una ley a gran escala.
En una reacción al anuncio, la asociación de editores de software BAS también pidió “un nuevo marco legislativo para crear salvaguardas específicas para la inteligencia artificial”.
La regulación de la IA es objeto de una gran competencia internacional. La Unión Europea, que produce abundantes normas en el ámbito digital, busca establecer antes de fin de año un marco regulatorio de esa tecnología, con la esperanza de marcar el ritmo a nivel mundial.
Cada vez crece más
ChatGPT puede responder preguntas sobre una amplia gama de temas, desde ciencia y tecnología hasta cultura pop y recetas de cocina. Foto:iStock
“Ninguna empresa de IA proporciona información sobre el número de s que dependen de su modelo, ni brinda estadísticas sobre los países o mercados que lo utilizan”
Los modelos de inteligencia artificial, que se multiplican desde el lanzamiento de ChatGPT hace un año, carecen de transparencia en su diseño, planteando un riesgo para las aplicaciones que los utilizan como base técnica, según un estudio de la Universidad de Stanford publicado el 18 de octubre.
Según un nuevo índice diseñado y calculado por los investigadores de esta universidad, el modelo más transparente entre los diez evaluados es Llama 2, sistema de inteligencia artificial lanzado por Meta en julio y reutilizable libremente.
Pero solo obtuvo una puntuación del 54 %, aún muy insuficiente según los autores del estudio. Chat GPT-4, el modelo de lenguaje creado por Open AI, solo obtuvo 48 % de transparencia.
Los otros modelos de moda, como Palm-2 de Google o Claude 2 de la sociedad Anthropic (financiada por Amazon), aparecen aún más abajo en la clasificación.
Todos los modelos deben tratar de alcanzar entre un 80 y 100 % de transparencia, estima en un comunicado Rishi Bommasani, director de investigación en Stanford sobre los modelos llamados de “fundación”.
La falta de transparencia hace que sea más difícil para las empresas “saber si pueden crear aplicaciones seguras basadas en estos modelos empresariales”, y “para los académicos confiar en estos modelos para sus investigaciones”, explica el estudio.
Esto también complica la tarea de los consumidores que desean “comprender los límites de los modelos o reclamar reparación por los perjuicios sufridos”, detalla. Concretamente, “la mayoría de las empresas no revelan el alcance de los contenidos protegidos por derechos de autor utilizados para entrenar su modelo. Tampoco divulgan el uso de trabajo humano para corregir los datos de entrenamiento, lo que puede ser muy problemático”, subraya.
“Ninguna empresa proporciona información sobre el número de s que dependen de su modelo, ni brinda estadísticas sobre los países o mercados que lo utilizan”, resalta Bommasani.
Según los autores, este índice de transparencia podría ser utilizado en el futuro por los responsables políticos y los reguladores.
CLARA LALANNE*
AFP
REINO UNIDO
(*) Con información adicional de periodistas de la AFP en Washington, Naciones Unidas y París.