En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información aquí

CLUB VIVAMOS
Suscríbete
Disfruta de los beneficios de El Tiempo
SUSCRÍBETE CLUB VIVAMOS

¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo [email protected] no ha sido verificado. Verificar Correo

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión

Hola, bienvenido

¿Cómo está el clima en Bogotá?
¿Cómo se llama el hijo de Petro?
¿El pico y placa en Bogotá como quedaría para el 2024?

Exclusivo suscriptores

‘Mientras no se regule, la IA es un territorio salvaje’: exmagistrado Bernal

Reconoce las ventajas, pero advierte que hay que regularla para salvaguardar derechos fundamentales.

Carlos Bernal

Carlos Bernal Foto: Universidad Externado

Alt thumbnail

PERIODISTAActualizado:

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon
El exmagistrado de la Corte Constitucional Carlos Bernal es profesor en la Universidad de Dayton (Ohio) y de La Sabana, y miembro de la CIDH. Acaba de publicar un artículo en el International Journal of Constitutional Law, de la Universidad de Oxford, sobre la necesidad de regular cuanto antes la inteligencia artificial.

Además de maximizar sus ventajas, sostiene en su interesantísima publicación la urgencia de regular la IA. ¿En esa tarea se estará quedando rezagado el constitucionalismo moderno?

Sí, es una responsabilidad de profesores y académicos, de legisladores y cortes, nacionales e internacionales. Mientras no se regule la IA, pues es un territorio salvaje, como el lejano oeste de nuestra era.

¿El lejano oeste de la cuarta revolución industrial?

Exactamente.

Cómo será el tema de preocupante que, en una carta abierta, varios empresarios, académicos, empresarios, pensadores, solicitan a los laboratorios una moratoria de seis meses en el entrenamiento de los sistemas de inteligencia artificial, mientras tenemos claro hacia dónde va a coger esto…

Pues quizá es una medida un tanto radical, pero lo que está detrás es la realidad de que la inteligencia artificial se construye con base en procesos algorítmicos que permiten que las máquinas aprendan, que tomen decisiones o emprendan procesos de razonamiento por sí mismas.

¿Es lo que se conoce como inteligencia artificial generativa?

Exactamente.
La inteligencia artificial cada vez genera más preguntas y preocupaciones de expertos.

La inteligencia artificial cada vez genera más preguntas y preocupaciones de expertos. Foto:MidJourney / iStock

Que cada vez necesitará menos aportes de agentes humanos…

Así es. El asunto es que cuando una máquina comienza a aprender por sí misma, y ese es un concepto clave, el del machine learning, por parte de las máquinas, estas pueden llegar a tomar cursos de acción que son impredecibles.

Deme ejemplos…

Uno que se hizo famoso hace algunos años fue el de los primeros accidentes que se causaron en Estados Unidos cuando entraron los carros Tesla a operar; funcionan con base en procedimientos de inteligencia artificial, que llevan a la máquina a tomar decisiones inesperadas, es decir que los programadores no han diseñado o calculado y que condujeron a varios accidentes de tráfico. Hay una investigación que se está desarrollando en el MIT, tratando de construir un carro verdaderamente autónomo, es decir que no necesite ninguna acción humana, a diferencia de los Tesla.
Ese desarrollo puede tardar algún tiempo, porque todavía hay cosas que las máquinas no pueden aprender, como, por ejemplo, si se va conduciendo y hay un peatón que se acerca mucho a la calle, uno, como ser humano, con los gestos de la cara del peatón podría descifrar, o hacer un cálculo muy aproximado, acerca de si el peatón tiene intención o no de cruzar la calle; eso es muy difícil para una máquina. Lo que ellas pueden hacer de momento es ubicar el carro geoestacionariamente, mirar qué hay a la izquierda y a la derecha, la medida de la velocidad, la distancia, etcétera.

Esa polémica de que de pronto el computador iba a sobrepasar al ser humano lleva mucho y todavía no ha ocurrido. Entonces, ¿por qué se desató la histeria con esta cosa que se llama el chat GPT? ¿Qué tiene de especial sobre otros sistemas de inteligencia artificial con los que ya hemos interactuado desde hace ratico?

Era mi segundo ejemplo: el chat GPT, un mecanismo de IA que crea un lenguaje articulado en forma de razonamientos, para sostener ciertas proposiciones y defenderlas con argumentos, es un mecanismo de IA argumentativa. ¿Cómo funciona? Con datos que la propia máquina aprende de la red y con los cuales puede estructurar razonamientos.

Puede redactar ensayos universitarios, crear obras artísticas, escribir programas informáticos y muchísimas otras hazañas, casi infinitas. ¿Es decir, usted cree que el chat GPT tiene el potencial de borrar a la humanidad del mapa?

¿Cómo funciona? Con datos que la propia máquina aprende de la red y con los cuales puede estructurar razonamientos
No creo. Lo que podría borrar a la humanidad del mapa es la existencia de armas de destrucción masiva que funcionen con base en procedimientos de IA, otra de sus aplicaciones y que está muy avanzada. Lo que el chat GPT implica es un desafío a la verdad, a cómo construirla y a cómo justificar o fundamentar la verdad de una proposición.

La solución, según su artículo, no es detener el avance de la inteligencia artificial, sino regularla. ¿Cómo hacerlo sin violar o menoscabar derechos como el de la libre información, la libre expresión y hasta el ejercicio de los derechos políticos? Porque la inteligencia artificial llega hasta influir, controlar o alterar el comportamiento electoral…

Esa es la tarea que les viene a los constitucionalistas para los próximos años. Y en toda investigación hay una primera tarea que es formular las preguntas correctas, para luego intentar resolverlas.

¿Cuáles son las preguntas correctas en cuanto a la regulación de la IA?

El magistrado saliente Carlos Bernal aceptó una cátedra de derecho público en Ohio (EE. UU.).

El magistrado saliente Carlos Bernal aceptó una cátedra de derecho público en Ohio (EE. UU.). Foto:Corte Constitucional

En primer lugar, está el problema de considerar a las plataformas y a los desarrolladores de inteligencia artificial y de realidad virtual como destinatarios de los derechos fundamentales. Cuando yo estaba en la Corte Constitucional, año 2018, se debatió si las plataformas de YouTube y Facebook tenían la obligación de controlar la veracidad de las informaciones que los s publicaban allí. La Corte Constitucional dijo en su fallo que es muy difícil para una plataforma controlar esa veracidad de la información que la gente publica ahí, y, entre otras cosas, eso implicaría una limitación desproporcionada de la libertad de expresión.

Sí, la Corte Constitucional colombiana hasta ahora se ha abstenido de establecer sanciones para las plataformas transmisoras de noticias falsas. Pero uno no sabe si el tipo de regulación que se está necesitando sea, precisamente, la no regulación…

Si la pregunta se formula de manera más abstracta, pues la respuesta es que la no regulación, o la simple autorregulación de estas plataformas, es insuficiente. Porque, efectivamente, el despliegue de estas plataformas puede llegar a afectar la intimidad, el honor de las personas, así como procesos electorales, con noticias falsas.
En Estados Unidos, en América Latina, e incluso en la última elección en Colombia, hubo debate acerca de ello; y la autorregulación, es decir, el hecho de que a las plataformas les baste con sacar unas políticas de uso, pues no es suficiente. Se puso muchas esperanzas en Facebook cuando nombró un consejo, una minicorte constitucional, pero los casos que ha resuelto ese son mínimos, creo que no son más de 30, 40 casos… Una fachada que pone Facebook para decir: ‘nosotros estamos vigilando el problema’. Pero no lo soluciona.

¿Llegaremos al punto en que se sustituyan del todo en muchos temas las decisiones humanas por decisiones algorítmicas? Por ejemplo, hablemos de las decisiones que tomarán los gobernantes y hasta los jueces, como ya se empieza a hablar acá, basados en los diagnósticos que arroje la IA. ¿Va a llegar el día en que los algoritmos serán irrebatibles, y las sugerencias o reglas que expida no se puedan contraargumentar?

Se puso muchas esperanzas en Facebook cuando nombró un consejo, una minicorte constitucional, pero los casos que ha resuelto ese son mínimos, creo que no son más de 30, 40 casos…
Esa pregunta tiene dos dimensiones. Una, la de si eso es posible; otra, si eso es lo que debería ser. Por ejemplo, no en el mundo de las decisiones públicas, pero en el mundo privado hay muchos contratos inteligentes o smart contracts, que son autoejecutables. Le doy un ejemplo muy simple: algunas compañías de alquiler mensual de carros, en Estados Unidos y en otros países, tienen contratos inteligentes que de llegar el día en que la persona tiene que pagar y no ha pagado, el carro no abre ni prende, y la persona no tiene posibilidad de argumentar ‘oiga, es que este mes tuve una urgencia y por esa razón estoy en mora’, o, ‘en este momento tengo una emergencia, ábrame el carro’, no hay manera. Esa idea me lleva a mí a concluir que esa manera de proceder no es la debida, porque puede llegar a conducir a la irracionalidad; no solamente a que las máquinas gobiernen, sino a que gobiernen irracionalmente… es decir, en contra de razones valederas.

Eso sería el equivalente a pasar de una democracia a una ‘algocracia’…

Exactamente, ese es el término: una ‘algocracia’.

¿Es posible construir un modelo internacional de regulación de plataformas que les asigne deberes de control proporcionados, alcanzables, realistas, y responsabilidades políticas y jurídicas, cuando se vulneren derechos fundamentales?

Es políticamente difícil y jurídicamente más complicado. Hay un gran jugador en estas ligas, que es China, donde el modelo de regulación interna no toma en cuenta los derechos fundamentales.

En China prevalece la seguridad sobre la libertad, mientras que en países como Estados Unidos o en Europa hay mucha preocupación por el derecho a la intimidad de las personas, y a su libre expresión…

Correcto. Pero también a eso se añade el problema jurídico de cuál es la regulación que debemos adoptar. Si uno de los riesgos de la inteligencia artificial es la discriminación algorítmica, consistente en que haya algoritmos que impliquen discriminación de un sector de la población, como la máquina aprende y aprende y aprende, en los algoritmos esa discriminación se vuelve exponencial…

Es que existe la gran preocupación de que la IA aumente la discriminación entre la humanidad. ¿Cree que es otro peligro que corremos?

Es un peligro grandísimo. Imagínese que por ejemplo diez programadores de software creen algoritmos para decidir a quién se le deben asignar los órganos de trasplante, y quienes introducen esos algoritmos tienen ya algunas proclividades tendenciosas, o inclinación hacia discriminaciones de las que incluso pueden no ser conscientes; y si esas discriminaciones quedan en los procesos algorítmicos, pues los algoritmos las potencian.
En Nueva York hubo un estudio que hizo un laboratorio en NYU, que demostró que el programa de inteligencia artificial que decidía a dónde se mandaban las patrullas de la ciudad, en altísima proporción era a los barrios de la gente más rica, donde menos se necesitan las patrullas. Ese es un caso claro de discriminación algorítmica. El asunto es que contra eso están las garantías constitucionales del derecho a la igualdad. Pero, como hay por lo menos tres, cinco, diez concepciones de la igualdad en el mundo, la pregunta es: ¿cuál de esas es la que se debe utilizar si se quiere regular la defensa a la igualdad contra la discriminación algorítmica?

No siempre sabemos los seres humanos qué razones tienen en cuenta los algoritmos para conformarse e irse retroalimentando. ¿Tenemos derecho los seres humanos a que ello no se maneje como secreto empresarial, de manera que conozcamos las razones que alimentan un algoritmo?

Totalmente de acuerdo. Sí tenemos ese derecho. Es más, en la jurisprudencia constitucional ese es un derecho que pertenece a la esencia del debido proceso, y que se opone a lo que los técnicos llaman ‘opacidad algorítmica’.

¿Qué es opacidad algorítmica?

Que se desconocen las razones que tienen los programadores para tomar decisiones en los algoritmos; y si se desconocen, pues no se pueden desafiar, y si no se pueden desafiar, se viola el debido proceso.

Todos estos algoritmos vienen de recaudar big data, que inevitablemente se está sacrificando la intimidad del ser humano. ¿Cómo garantiza una Constitución que la inteligencia artificial la respetará, en lugar de que caigamos, como ya sucede, en un sistema masivo global de espionaje, con tendencia a empeorar?

Es la pregunta del millón, y hoy día no hay respuesta. La que hasta el momento se ha dado en materia de derecho constitucional para la invasión de la intimidad queda chiquita a este campo. ¿Cuál es esa respuesta? El consentimiento; es decir, yo consiento que mi intimidad sea usada, que los datos que me pertenecen sean usados.
¿Por qué esa respuesta ya no es aceptable? Pues porque cualquier persona que compre un teléfono celular nuevo sabrá que al inicializarlo da todos los permisos para que las plataformas que operan mediante ese teléfono compartan los datos. Quien entra a alguna tienda inteligente inmediatamente da su autorización para que sus elecciones sean registradas en esa big data, es decir, la idea del consentimiento informado ya no alcanza. Por eso se necesita una regulación más poderosa. Ahora, esa regulación sí debe ser proporcionada y armonizar todos los intereses en juego. Pero, hasta ahora, no hay ningún lugar en el mundo en el que se haya expedido una regulación que sea totalmente satisfactoria.

¿Debe tener el ser humano, y no la máquina, la palabra final en el empleo de la inteligencia artificial en la toma, por ejemplo, de decisiones públicas?

Mi respuesta es sí. Quienes toman decisiones públicas tienen en la IA una muy buena herramienta que arroja información valiosa para superar lo que yo llamo la ‘inferioridad epistémica’, es decir, el no tener la información necesaria para esa toma de decisiones. Pero, por otra parte, dado el riesgo de opacidad y dado que los algoritmos también pueden ser irracionales, la última palabra siempre la debe tener el funcionario público. Si no comparte las conclusiones de los algoritmos, tendrá la carga de argumentar por qué razón se aparta de sus sugerencias. Y ahí entonces, pues la ciudadanía tiene las bases para hacerle control político a esa persona y ver si las razones que invoca son valederas o no.

En todo caso, el desafío es grande, y normativamente no se le está prestando la atención que merece. Con declarar una moratoria de seis meses no se va a poder frenar el avance de la IA ni tampoco los nefastos efectos que pueda producir…

Lamentablemente, el derecho siempre va detrás de los cambios sociales, por lo menos temporalmente, y esa es una misión que los constitucionalistas no podemos soslayar. Es, quizá, la misión más importante que tenemos frente a nosotros en estos tiempos.
MARÍA ISABEL RUEDA
Especial para EL TIEMPO

Lea otros artículos de EL TIEMPO:

Sigue toda la información de Justicia en Facebook y X, o en nuestra newsletter semanal.

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon

Conforme a los criterios de

Logo Trust Project
Saber más
Sugerencias
Alt thumbnail

BOLETINES EL TIEMPO

Regístrate en nuestros boletines y recibe noticias en tu correo según tus intereses. Mantente informado con lo que realmente te importa.

Alt thumbnail

EL TIEMPO GOOGLE NEWS

Síguenos en GOOGLE NEWS. Mantente siempre actualizado con las últimas noticias coberturas historias y análisis directamente en Google News.

Alt thumbnail

EL TIEMPO WHATSAPP

Únete al canal de El Tiempo en WhatsApp para estar al día con las noticias más relevantes al momento.

Alt thumbnail

EL TIEMPO APP

Mantente informado con la app de EL TIEMPO. Recibe las últimas noticias coberturas historias y análisis directamente en tu dispositivo.

Alt thumbnail

SUSCRÍBETE AL DIGITAL

Información confiable para ti. Suscríbete a EL TIEMPO y consulta de forma ilimitada nuestros contenidos periodísticos.