En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información
aquí
Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
Exclusivo suscriptores
¿Es la inteligencia artificial una amenaza para la humanidad?
Expertos plantean que el riesgo de la IA es comparable al de una guerra nuclear. ¿A qué se refieren?
A comienzos de junio una historia particular llenó los titulares de algunos medios alrededor del mundo. Se decía que un dron militar de la Fuerza Aérea de Estados Unidos (Usaf), entrenado con inteligencia artificial (IA) para destruir misiles tierra-aire solo con la aprobación de su supervisor humano, se había rebelado en una simulación y había ‘matado’ a la persona que lo operaba.
Aunque con las comillas y la mención a la simulación como contexto en el que ocurrieron los hechos se quería dejar claro que en el plano de lo real nadie había muerto, la escena, que parecía salida de una historia de ciencia ficción, alcanzaba para que muchas personas dieran clic en las notas dispuestas a alimentar ese temor que ha inspirado decenas de películas: que un robot que cobre consciencia de sí mismo se subleve en contra de la humanidad.
Sin embargo, la particular escena no llegó a ocurrir ni siquiera en el plano virtual. Según registraron medios como New Scientist, la historia surgió de un informe de la Royal Aeronautical Society, que describía una presentación del coronel de la Fuerza Aérea de EE. UU. Tucker Hamilton en la que hablaba del ejercicio en una simulación, algo que después fue desmentido por los militares que explicaron que Hamilton se había expresado mal y que el experimento nunca dejó de ser solo hipotético.
Aunque esta historia no fue real, si lo es la narrativa que se ha tejido en los últimos meses alrededor de los temores que despierta la IA. Esto va desde una carta firmada por distinguidos científicos líderes en el campo de la IA –con nombres destacados como los ganadores del Premio Turing, Geoffrey Hinton y Yoshua Bengio, Sam Altman de OpenAI, y Demis Hassabis de Google DeepMind– en la que plantean que el riesgo de extinción que puede provocar la IA es comparable al de una guerra nuclear, hasta la sentencia hecha por Elon Musk desde hace varios años con la que sugiere que esta tecnología amenaza la existencia de nuestra civilización.
Actualmente la inteligencia artificial está lejos de alcanzar niveles de inteligencia y autonomía que puedan plantearse como una amenaza existencia.
Pero, ¿es realmente apocalíptico el panorama que plantean estos avances tecnológicos y científicos? Aunque es algo que se ha debatido ampliamente, no solo en tiempos recientes, esto sigue siendo parte del plano especulativo. Así lo plantea el decano de la Escuela de Ingeniería, Ciencia y Tecnología de la Universidad del Rosario, el profesor Rafael Alberto Méndez-Romero, quien detalla que regularmente esta hipótesis ha estado ligada a la idea del desarrollo de una súper inteligencia artificial.
“Actualmente la inteligencia artificial está lejos de alcanzar niveles de inteligencia y autonomía que puedan plantearse como una amenaza existencial”, asegura el profesor Méndez, quien añade que muchos investigadores y expertos están trabajando activamente en el desarrollo y promoción de inteligencias artificiales responsables, justas, seguras y democráticas.
Una opinión similar tiene el profesor asociado del departamento de Matemáticas de la Universidad Nacional de Colombia, Francisco Gómez. “Uno no puede hablar sobre lo que no ha ocurrido, sino sobre las tecnologías que existen en este momento, que lo que hacen es encontrar patrones en los datos y utilizarlos para automatizar ciertas tareas. Patrones de actividades humanas que ya veníamos explotando hace mucho tiempo. Hay riesgos en que esas tareas se realicen mal, pero eso ya lo estaba haciendo mal un humano”, detalla el docente.
Para él la intención del llamado que hicieron recientemente los expertos en IA en su carta era poner el tema en la agenda pública y captar la atención de la comunidad general y de los tomadores de decisiones. “La gente tiene que entender que esto va a tener un impacto grande sobre sus vidas, al igual que lo tuvo la revolución industrial y la informática. Una cosa va ser el mundo pre inteligencia artificial masificada y otra cosa va a ser después. Creo que ellos llaman la atención sobre el hecho de que el uso irracional y desmedido de estas tecnologías puede derivar en problemas que nos pueden impactar como sociedad”, plantea Gómez.
Retos reales
La gente tiene que entender que esto va a tener un impacto grande sobre sus vidas, al igual que lo tuvo la revolución industrial y la informática.
En ese escenario los expertos explican que, más allá de las historias de terror de inteligencias artificiales con deseos de dominar el mundo, existen desafíos reales. “Hay unos desarrollos que están muy descontrolados y la llamada no es a frenar todas estas iniciativas, que son extremadamente enriquecedoras y nos están haciendo avanzar un montón. Hay que parar, reflexionar y entender que junto con la tecnología que se está construyendo se tiene que crear una normatividad y tener un entendimiento profundo de su impacto”, señala el profesor Gómez.
Por eso no es extraño que hace algunas semanas el Parlamento Europeo aprobara un proyecto para regular el uso de la IA en esta región. Según reportó la agencia de noticias AFP, la normativa aprobada (con 499 votos a favor, 28 en contra y 93 abstenciones) regulará la IA según el nivel de riesgo: cuanto mayor sea para los derechos o la salud de las personas, por ejemplo, mayores serán las obligaciones de los sistemas tecnológicos. La lista de alto riesgo incluye la IA en infraestructura crítica, educación, recursos humanos, orden público y gestión de la migración.
Un hecho que fue calificado por el decano de la Facultad de Ciencias Sociales y Tecnología de la Universidad Técnica de Múnich, Urs Gasser, como el marco más ambicioso diseñado hasta la fecha para guiar el desarrollo y el uso de la IA, en una editorial extraordinaria divulgada por la prestigiosa revista Science, con motivo de la aprobación del proyecto.
“La votación se hace eco de un coro cada vez mayor de investigadores de diversas disciplinas que reclaman unos límites que rijan la potente IA. Aunque la forma definitiva de proyecto legislativo será fruto de las conversaciones con el Consejo Europeo y la Comisión, la decisión del influyente órgano legislativo europeo ofrece a la comunidad investigadora de la IA la oportunidad de prepararse para un impacto que se espera que tenga repercusiones transfronterizas”, expresó el profesor Gasser en Science.
Ni siquiera los que trabajamos en IA entendemos bien hacia dónde se está moviendo y las cosas que estamos viendo son sorprendentes, como asombran generan miedo.
Aunque para las autoridades de la Unión Europea avanzar en temas de regulación del uso de la IA era prioritario desde el 2021, el reporte de la agencia AFP señala que el asunto se volvió urgente después de que ChatGPT irrumpió en escena, poniendo de relieve el vertiginoso desarrollo del sector. Un hecho que hizo más relevante el tema de la inteligencia artificial, no solo en la agenda legislativa, sino en las conversaciones diarias de las personas, y en sus temores.
“El miedo es una sensación que nos protege frente a algo que nos podría hacer daño, es natural que los miedos se propaguen y amplifiquen porque sentimos una amenaza frente a algo que es inicialmente desconocido. Ni siquiera los que trabajamos en IA entendemos bien hacia dónde se está moviendo y las cosas que estamos viendo son sorprendentes, como asombran generan miedo”, plantea el profesor Gómez, aunque aclara que los desarrollos que hoy el mundo conoce eran cosas que sí se podían esperar de los datos que la comunidad científica que trabaja en el tema ya tenía, y de sus capacidades actuales, por lo que seguramente en los años venideros vendrán cosas aún más impresionantes.
Por eso para el profesor Méndez, además de los esfuerzos legislativos que establezcan guías para el desarrollo ético y responsable de la IA, se debe continuar trabajando en la educación que amplíe el conocimiento que la comunidad en general tiene sobre el tema, porque para él la desinformación ha jugado un rol importante en la propagación de los temores y preocupaciones sobre los cambios que la inteligencia artificial puede traer a corto y largo plazo.
“Hay mucha información que llega a nosotros que está sesgada y que carece un poco de profundidad. Yo creo que ciertamente no debería haber una preocupación a este nivel, pero sí se necesitan hacer cosas para que este miedo disminuya y termine”, plantea el docente, para quien el camino a seguir es la alfabetización tecnológica que permita “educarnos en estos temas, reconocer que existen y empezar a hacernos preguntas sobre ello”.
Los expertos plantean que, antes que preocuparse por el hipotético apocalipsis de la IA, hay temas más urgentes, aunque no necesariamente nuevos, que deben ser discutidos por los gobiernos y por la comunidad en general, como las transformaciones en el mercado laboral, los sesgos y la discriminación en las fuentes de información con las que se alimentan los algoritmos, los desafíos en seguridad y privacidad con la recopilación masiva de información personal, violaciones al derecho de autor o el uso de las nuevas herramientas como fuentes de mayor desinformación.