En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información aquí

CLUB VIVAMOS
Suscríbete
Disfruta de los beneficios de El Tiempo
SUSCRÍBETE CLUB VIVAMOS

¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo [email protected] no ha sido verificado. Verificar Correo

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión

Hola, bienvenido

¿Cual es la ciudad colombiana clasificada como la más peligrosa del mundo?
¿Cómo va el juicio al expresidente Álvaro Uribe?
¿Accidente de bus en Calarcá?
Frío inusual en Bogotá explicado por el Ideam

Al año de Chat GPT, el mundo cree que se tiene que reglamentar la IA

Líderes de alto nivel se reunieron en Londres para firmar un compromiso por su desarrollo seguro.

En la mesa: Ursula von der Leyen (izq.), presidenta de la Comisión Europea; Kamala Harri (cen.), vicepresidenta de EE. UU., y Rishi Sunak (der.), primer ministro del Reino Unido.

En la mesa: Ursula von der Leyen (izq.), presidenta de la Comisión Europea; Kamala Harri (cen.), vicepresidenta de EE. UU., y Rishi Sunak (der.), primer ministro del Reino Unido. Foto: EFE

Alt thumbnail

PERIODISTAActualizado:

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon
Estados Unidos, China, la Unión Europea y una veintena de otros países firmaron esta semana en el Reino Unido la Declaración de Bletchley para un desarrollo seguro de la inteligencia artificial (IA), en la primera cumbre internacional sobre el auge de esta tecnología.
“Esta declaración histórica marca el comienzo de un nuevo esfuerzo mundial para aumentar la confianza del público en la IA, garantizando que sea segura”, dijo el primer ministro británico, Rishi Sunak, en X (Twitter).
El documento, entre cuyos firmantes también figuran Brasil y Chile, subraya “la necesidad urgente de comprender y gestionar colectivamente los riesgos potenciales de la IA”.
Inteligencia artificial

Inteligencia artificial Foto:iStock

La declaración de Bletchley “muestra que, por primera vez, el mundo se reúne para identificar el problema y destacar sus oportunidades”,
Ante el creciente potencial de modelos como ChatGPT, la declaración de Bletchley “muestra que, por primera vez, el mundo se reúne para identificar el problema y destacar sus oportunidades”, subrayó a AFP la ministra británica de Tecnología, Michelle Donelan. La reunión “no tiene como objetivo sentar las bases de una legislación mundial, sino que debe servir para trazar un camino por seguir”, precisó.
Dos cumbres internacionales sobre la IA tendrán lugar más adelante. Una en Corea del Sur, dentro de seis meses, y otra en Francia, dentro de un año, añadió la ministra desde el emblemático centro donde se descifraron los códigos secretos nazis en la Segunda Guerra Mundial.
Paralelamente al encuentro, la vicepresidenta estadounidense, Kamala Harris, anunció la creación de un instituto sobre la seguridad de la inteligencia artificial en Washington. Esta estructura –similar a la que también anunció el Reino Unido– reunirá a expertos para establecer directivas y evaluar los modelos de IA más avanzados para “identificar y mitigar” los riesgos en los avances de esta tecnología, según la Casa Blanca.
Las IA generativas –capaces de producir texto, sonidos o imágenes en cuestión de segundos- progresaron exponencialmente en los últimos años y las próximas generaciones de estos modelos aparecerán en siguiente el verano.
Aunque la IA trae consigo grandes esperanzas para el campo de la medicina y la educación, también podrían desestabilizar las sociedades, permitir la fabricación de armas o eludir el control humano, advierte el Gobierno británico.

Seguridad nacional

Las consecuencias de estos avances preocupan a los s y a los expertos.

Las consecuencias de estos avances preocupan a los s y a los expertos. Foto:iStock

“Los principios de gobernanza de la IA deben basarse en la Carta de las Naciones Unidas y la Declaración Universal de Derechos Humanos”.
Uno de los temas del evento fue evaluar los riesgos de la IA en la seguridad nacional, en la que participaron la presidenta de la Comisión Europea, Úrsula von der Leyen; el secretario general de la ONU, António Guterres, y la jefa del Gobierno italiano, Giorgia Meloni. China, cuya eventual presencia causó revuelo debido a las tensiones geopolíticas y a los temores de espionaje tecnológico, no fue invitada a este espacio.
El tema de la seguridad nacional y la IA es de alto interés debido a las próximas citas electorales de grandes potencias, como las presidenciales en Estados Unidos (en noviembre de 2024) o las legislativas británicas (que se deberían celebrar antes de enero de 2025).
En su participación, Guterres pidió una respuesta “unida, sostenible y global” a los riesgos derivados del auge de la inteligencia artificial y agregó que “los principios de gobernanza de la IA deben basarse en la Carta de las Naciones Unidas y la Declaración Universal de Derechos Humanos”.
Días antes de la cumbre, la cabeza de Naciones Unidas creó un grupo consultivo multilateral que tiene la tarea de hacer propuestas para la gobernanza de estas nuevas tecnologías. Integrada por expertos en istración pública, empresarios, comunidad tecnológica, sociedad civil y académicos, esta comisión tiene como objetivo final maximizar los beneficios y disminuir los riesgos de la IA.
Aunque el brasileño reconoce el gran potencial de la IA, también expresó sus preocupaciones sobre las brechas digitales, la proliferación de la desinformación, el asentamiento de los prejuicios y la discriminación, la vigilancia y la invasión de la privacidad o el fraude que puede generar esta tecnología. La IA puede “socavar la confianza en las instituciones, debilitar la cohesión social y amenazar a las democracias”, dijo Guterres en su momento.
Elon Musk

Elon Musk Foto:EFE

Además de funcionarios de alto nivel, en la cumbre hizo presencia el multimillonario y empresario Elon Musk. “Nuestro objetivo es establecer un marco para una mejor comprensión, y para que haya al menos un árbitro independiente que pueda observar lo que están haciendo las empresas de la IA y dé la señal de alarma si algo le preocupa”, precisó Musk a la prensa.
“La balanza se inclina a favor de la humanidad, porque tenemos la voluntad política y la capacidad de controlar esta tecnología, asegurando sus beneficios a largo plazo”, subrayó el primer ministro británico en la clausura del evento.
En una carta abierta publicada el martes, varios de los “padres fundadores” de esta tecnología, como Yoshua Bengio o Geoffrey Hinton, abogaron por “la elaboración y la ratificación de un tratado internacional sobre la IA”, para reducir los riesgos “potencialmente catastróficos que los sistemas avanzados hacen pesar sobre la humanidad”.
El reto consiste en establecer salvaguardas sin obstaculizar la innovación para los laboratorios de IA y los gigantes tecnológicos. La Unión Europea y Estados Unidos, a diferencia del Reino Unido, eligieron el camino de la regulación. La semana pasada, varias empresas como OpenAI, Meta (Facebook) o DeepMind (Google) acordaron hacer públicas algunas de sus políticas de seguridad de la IA a petición del Reino Unido.

Pasos previos de EE. UU.

Adelantándose a la cumbre, la Casa Blanca reveló el lunes un conjunto de normas y principios destinados a garantizar que Estados Unidos “marque el camino” en la regulación de la inteligencia artificial (IA), objeto de una feroz competencia internacional.
El presidente Joe Biden firmó un decreto que exige a los desarrolladores de IA presentar al gobierno federal los resultados de sus pruebas de seguridad cuando sus proyectos supongan “un grave riesgo para la seguridad nacional, la seguridad económica nacional o la salud pública”.
Biden se basa en una ley que data de la Guerra Fría, la Defense Production Act (1950), que otorga al Gobierno cierto poder de coacción sobre las empresas cuando está en juego la seguridad del país. Los criterios para estas pruebas se fijarán a nivel federal, según el Gobierno estadounidense.
En julio, varias gigantes del sector digital, entre ellas Microsoft y Google, ya se habían comprometido a someter sus sistemas de IA a pruebas externas.
La Casa Blanca pretende prestar especial atención a los riesgos que puede plantear el desarrollo de la IA en los campos de la biotecnología e infraestructuras.
El Presidente de Estados Unidos firmó orden ejecutiva para su control y regulación.

El Presidente de Estados Unidos firmó orden ejecutiva para su control y regulación. Foto:EFE

También emitirá recomendaciones sobre la detección e identificación de contenidos generados con IA, una tecnología que permite producir a muy alta velocidad imágenes, sonidos e incluso videos más fieles a la realidad.
Así mismo, el Ejecutivo promete publicar sugerencias para contrarrestar la posible discriminación (por sesgos de género o raza) que susciten estos modelos de IA, y se compromete a vigilar el impacto de esta revolución tecnológica en el empleo.
Pero Biden dispone apenas de un margen de maniobra limitado. Cualquier normativa verdaderamente vinculante y ambiciosa sobre inteligencia artificial debería pasar por el Congreso. Sin embargo, el Legislativo tiene divididos a demócratas y republicanos, lo que hace muy improbable la adopción de una ley a gran escala.
En una reacción al anuncio, la asociación de editores de software BAS también pidió “un nuevo marco legislativo para crear salvaguardas específicas para la inteligencia artificial”.
La regulación de la IA es objeto de una gran competencia internacional. La Unión Europea, que produce abundantes normas en el ámbito digital, busca establecer antes de fin de año un marco regulatorio de esa tecnología, con la esperanza de marcar el ritmo a nivel mundial.

Cada vez crece más

ChatGPT puede responder preguntas sobre una amplia gama de temas, desde ciencia y tecnología hasta cultura pop y recetas de cocina.

ChatGPT puede responder preguntas sobre una amplia gama de temas, desde ciencia y tecnología hasta cultura pop y recetas de cocina. Foto:iStock

“Ninguna empresa de IA proporciona información sobre el número de s que dependen de su modelo, ni brinda estadísticas sobre los países o mercados que lo utilizan”
Los modelos de inteligencia artificial, que se multiplican desde el lanzamiento de ChatGPT hace un año, carecen de transparencia en su diseño, planteando un riesgo para las aplicaciones que los utilizan como base técnica, según un estudio de la Universidad de Stanford publicado el 18 de octubre.
Según un nuevo índice diseñado y calculado por los investigadores de esta universidad, el modelo más transparente entre los diez evaluados es Llama 2, sistema de inteligencia artificial lanzado por Meta en julio y reutilizable libremente.
Pero solo obtuvo una puntuación del 54 %, aún muy insuficiente según los autores del estudio. Chat GPT-4, el modelo de lenguaje creado por Open AI, solo obtuvo 48 % de transparencia.
Los otros modelos de moda, como Palm-2 de Google o Claude 2 de la sociedad Anthropic (financiada por Amazon), aparecen aún más abajo en la clasificación.
Todos los modelos deben tratar de alcanzar entre un 80 y 100 % de transparencia, estima en un comunicado Rishi Bommasani, director de investigación en Stanford sobre los modelos llamados de “fundación”.
La falta de transparencia hace que sea más difícil para las empresas “saber si pueden crear aplicaciones seguras basadas en estos modelos empresariales”, y “para los académicos confiar en estos modelos para sus investigaciones”, explica el estudio.
Esto también complica la tarea de los consumidores que desean “comprender los límites de los modelos o reclamar reparación por los perjuicios sufridos”, detalla. Concretamente, “la mayoría de las empresas no revelan el alcance de los contenidos protegidos por derechos de autor utilizados para entrenar su modelo. Tampoco divulgan el uso de trabajo humano para corregir los datos de entrenamiento, lo que puede ser muy problemático”, subraya.
“Ninguna empresa proporciona información sobre el número de s que dependen de su modelo, ni brinda estadísticas sobre los países o mercados que lo utilizan”, resalta Bommasani.
Según los autores, este índice de transparencia podría ser utilizado en el futuro por los responsables políticos y los reguladores.
CLARA LALANNE*
AFP
REINO UNIDO
(*) Con información adicional de periodistas de la AFP en Washington, Naciones Unidas y París.

Más noticias en eltiempo.com:

Sigue toda la información de Internacional en Facebook y X, o en nuestra newsletter semanal.

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon

Conforme a los criterios de

Logo Trust Project
Saber más
Sugerencias
Alt thumbnail

BOLETINES EL TIEMPO

Regístrate en nuestros boletines y recibe noticias en tu correo según tus intereses. Mantente informado con lo que realmente te importa.

Alt thumbnail

EL TIEMPO GOOGLE NEWS

Síguenos en GOOGLE NEWS. Mantente siempre actualizado con las últimas noticias coberturas historias y análisis directamente en Google News.

Alt thumbnail

EL TIEMPO WHATSAPP

Únete al canal de El Tiempo en WhatsApp para estar al día con las noticias más relevantes al momento.

Alt thumbnail

EL TIEMPO APP

Mantente informado con la app de EL TIEMPO. Recibe las últimas noticias coberturas historias y análisis directamente en tu dispositivo.

Alt thumbnail

SUSCRÍBETE AL DIGITAL

Información confiable para ti. Suscríbete a EL TIEMPO y consulta de forma ilimitada nuestros contenidos periodísticos.

Mis portales