En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información aquí

CLUB VIVAMOS
Suscríbete
Disfruta de los beneficios de El Tiempo
SUSCRÍBETE CLUB VIVAMOS

¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo [email protected] no ha sido verificado. Verificar Correo

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión

Hola, bienvenido

¿Cómo está el clima en Bogotá?
¿Cómo se llama el hijo de Petro?
¿El pico y placa en Bogotá como quedaría para el 2024?

Exclusivo suscriptores

¿Es la inteligencia artificial una amenaza para la humanidad?

Expertos plantean que el riesgo de la IA es comparable al de una guerra nuclear. ¿A qué se refieren?

Alt thumbnail

PERIODISTA DE CIENCIAActualizado:

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon
A comienzos de junio una historia particular llenó los titulares de algunos medios alrededor del mundo. Se decía que un dron militar de la Fuerza Aérea de Estados Unidos (Usaf), entrenado con inteligencia artificial (IA) para destruir misiles tierra-aire solo con la aprobación de su supervisor humano, se había rebelado en una simulación y había ‘matado’ a la persona que lo operaba.
Aunque con las comillas y la mención a la simulación como contexto en el que ocurrieron los hechos se quería dejar claro que en el plano de lo real nadie había muerto, la escena, que parecía salida de una historia de ciencia ficción, alcanzaba para que muchas personas dieran clic en las notas dispuestas a alimentar ese temor que ha inspirado decenas de películas: que un robot que cobre consciencia de sí mismo se subleve en contra de la humanidad.
Sin embargo, la particular escena no llegó a ocurrir ni siquiera en el plano virtual. Según registraron medios como New Scientist, la historia surgió de un informe de la Royal Aeronautical Society, que describía una presentación del coronel de la Fuerza Aérea de EE. UU. Tucker Hamilton en la que hablaba del ejercicio en una simulación, algo que después fue desmentido por los militares que explicaron que Hamilton se había expresado mal y que el experimento nunca dejó de ser solo hipotético.
Aunque esta historia no fue real, si lo es la narrativa que se ha tejido en los últimos meses alrededor de los temores que despierta la IA. Esto va desde una carta firmada por distinguidos científicos líderes en el campo de la IA –con nombres destacados como los ganadores del Premio Turing, Geoffrey Hinton y Yoshua Bengio, Sam Altman de OpenAI, y Demis Hassabis de Google DeepMind– en la que plantean que el riesgo de extinción que puede provocar la IA es comparable al de una guerra nuclear, hasta la sentencia hecha por Elon Musk desde hace varios años con la que sugiere que esta tecnología amenaza la existencia de nuestra civilización.
Actualmente la inteligencia artificial está lejos de alcanzar niveles de inteligencia y autonomía que puedan plantearse como una amenaza existencia.
Pero, ¿es realmente apocalíptico el panorama que plantean estos avances tecnológicos y científicos? Aunque es algo que se ha debatido ampliamente, no solo en tiempos recientes, esto sigue siendo parte del plano especulativo. Así lo plantea el decano de la Escuela de Ingeniería, Ciencia y Tecnología de la Universidad del Rosario, el profesor Rafael Alberto Méndez-Romero, quien detalla que regularmente esta hipótesis ha estado ligada a la idea del desarrollo de una súper inteligencia artificial.
Actualmente la inteligencia artificial está lejos de alcanzar niveles de inteligencia y autonomía que puedan plantearse como una amenaza existencial”, asegura el profesor Méndez, quien añade que muchos investigadores y expertos están trabajando activamente en el desarrollo y promoción de inteligencias artificiales responsables, justas, seguras y democráticas.
Una opinión similar tiene el profesor asociado del departamento de Matemáticas de la Universidad Nacional de Colombia, Francisco Gómez. “Uno no puede hablar sobre lo que no ha ocurrido, sino sobre las tecnologías que existen en este momento, que lo que hacen es encontrar patrones en los datos y utilizarlos para automatizar ciertas tareas. Patrones de actividades humanas que ya veníamos explotando hace mucho tiempo. Hay riesgos en que esas tareas se realicen mal, pero eso ya lo estaba haciendo mal un humano”, detalla el docente.
Para él la intención del llamado que hicieron recientemente los expertos en IA en su carta era poner el tema en la agenda pública y captar la atención de la comunidad general y de los tomadores de decisiones. “La gente tiene que entender que esto va a tener un impacto grande sobre sus vidas, al igual que lo tuvo la revolución industrial y la informática. Una cosa va ser el mundo pre inteligencia artificial masificada y otra cosa va a ser después. Creo que ellos llaman la atención sobre el hecho de que el uso irracional y desmedido de estas tecnologías puede derivar en problemas que nos pueden impactar como sociedad”, plantea Gómez.

Retos reales

La gente tiene que entender que esto va a tener un impacto grande sobre sus vidas, al igual que lo tuvo la revolución industrial y la informática.
En ese escenario los expertos explican que, más allá de las historias de terror de inteligencias artificiales con deseos de dominar el mundo, existen desafíos reales. “Hay unos desarrollos que están muy descontrolados y la llamada no es a frenar todas estas iniciativas, que son extremadamente enriquecedoras y nos están haciendo avanzar un montón. Hay que parar, reflexionar y entender que junto con la tecnología que se está construyendo se tiene que crear una normatividad y tener un entendimiento profundo de su impacto”, señala el profesor Gómez.
Por eso no es extraño que hace algunas semanas el Parlamento Europeo aprobara un proyecto para regular el uso de la IA en esta región. Según reportó la agencia de noticias AFP, la normativa aprobada (con 499 votos a favor, 28 en contra y 93 abstenciones) regulará la IA según el nivel de riesgo: cuanto mayor sea para los derechos o la salud de las personas, por ejemplo, mayores serán las obligaciones de los sistemas tecnológicos. La lista de alto riesgo incluye la IA en infraestructura crítica, educación, recursos humanos, orden público y gestión de la migración.
Un hecho que fue calificado por el decano de la Facultad de Ciencias Sociales y Tecnología de la Universidad Técnica de Múnich, Urs Gasser, como el marco más ambicioso diseñado hasta la fecha para guiar el desarrollo y el uso de la IA, en una editorial extraordinaria divulgada por la prestigiosa revista Science, con motivo de la aprobación del proyecto.
La votación se hace eco de un coro cada vez mayor de investigadores de diversas disciplinas que reclaman unos límites que rijan la potente IA. Aunque la forma definitiva de proyecto legislativo será fruto de las conversaciones con el Consejo Europeo y la Comisión, la decisión del influyente órgano legislativo europeo ofrece a la comunidad investigadora de la IA la oportunidad de prepararse para un impacto que se espera que tenga repercusiones transfronterizas”, expresó el profesor Gasser en Science.
Ni siquiera los que trabajamos en IA entendemos bien hacia dónde se está moviendo y las cosas que estamos viendo son sorprendentes, como asombran generan miedo.
Aunque para las autoridades de la Unión Europea avanzar en temas de regulación del uso de la IA era prioritario desde el 2021, el reporte de la agencia AFP señala que el asunto se volvió urgente después de que ChatGPT irrumpió en escena, poniendo de relieve el vertiginoso desarrollo del sector. Un hecho que hizo más relevante el tema de la inteligencia artificial, no solo en la agenda legislativa, sino en las conversaciones diarias de las personas, y en sus temores.
“El miedo es una sensación que nos protege frente a algo que nos podría hacer daño, es natural que los miedos se propaguen y amplifiquen porque sentimos una amenaza frente a algo que es inicialmente desconocido. Ni siquiera los que trabajamos en IA entendemos bien hacia dónde se está moviendo y las cosas que estamos viendo son sorprendentes, como asombran generan miedo”, plantea el profesor Gómez, aunque aclara que los desarrollos que hoy el mundo conoce eran cosas que sí se podían esperar de los datos que la comunidad científica que trabaja en el tema ya tenía, y de sus capacidades actuales, por lo que seguramente en los años venideros vendrán cosas aún más impresionantes.
Por eso para el profesor Méndez, además de los esfuerzos legislativos que establezcan guías para el desarrollo ético y responsable de la IA, se debe continuar trabajando en la educación que amplíe el conocimiento que la comunidad en general tiene sobre el tema, porque para él la desinformación ha jugado un rol importante en la propagación de los temores y preocupaciones sobre los cambios que la inteligencia artificial puede traer a corto y largo plazo.
“Hay mucha información que llega a nosotros que está sesgada y que carece un poco de profundidad. Yo creo que ciertamente no debería haber una preocupación a este nivel, pero sí se necesitan hacer cosas para que este miedo disminuya y termine”, plantea el docente, para quien el camino a seguir es la alfabetización tecnológica que permita “educarnos en estos temas, reconocer que existen y empezar a hacernos preguntas sobre ello”.
Los expertos plantean que, antes que preocuparse por el hipotético apocalipsis de la IA, hay temas más urgentes, aunque no necesariamente nuevos, que deben ser discutidos por los gobiernos y por la comunidad en general, como las transformaciones en el mercado laboral, los sesgos y la discriminación en las fuentes de información con las que se alimentan los algoritmos, los desafíos en seguridad y privacidad con la recopilación masiva de información personal, violaciones al derecho de autor o el uso de las nuevas herramientas como fuentes de mayor desinformación.
ALEJANDRA LÓPEZ PLAZAS
REDACCIÓN CIENCIA

La amenaza de la inteligencia artificial

Encuentre también en Ciencia

Sigue toda la información de Vida en Facebook y X, o en nuestra newsletter semanal.

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon

Conforme a los criterios de

Logo Trust Project
Saber más
Sugerencias
Alt thumbnail

BOLETINES EL TIEMPO

Regístrate en nuestros boletines y recibe noticias en tu correo según tus intereses. Mantente informado con lo que realmente te importa.

Alt thumbnail

EL TIEMPO GOOGLE NEWS

Síguenos en GOOGLE NEWS. Mantente siempre actualizado con las últimas noticias coberturas historias y análisis directamente en Google News.

Alt thumbnail

EL TIEMPO WHATSAPP

Únete al canal de El Tiempo en WhatsApp para estar al día con las noticias más relevantes al momento.

Alt thumbnail

EL TIEMPO APP

Mantente informado con la app de EL TIEMPO. Recibe las últimas noticias coberturas historias y análisis directamente en tu dispositivo.

Alt thumbnail

SUSCRÍBETE AL DIGITAL

Información confiable para ti. Suscríbete a EL TIEMPO y consulta de forma ilimitada nuestros contenidos periodísticos.