Ya estábamos aprendiendo a cuidarnos en las redes de los fakes, y nos llegan los deepfakes. Para los no expertos: los fakes (traduzcámoslo ‘falsificaciones’) son engaños difundidos generalmente por las redes, que lo hacen creer a uno que alguien dijo o hizo algo que ni dijo ni hizo. Obviamente, las intenciones de quien los difunde son malvadas: nadie se esfuerza inventando cómo hacer quedar bien al otro a sus espaldas. Pocos de quienes interactúan en las redes se han salvado de caer en la trampa. Vimos hace poco al presidente Petro peleando con una supuesta cuenta en la red X del exfiscal Barbosa, quien nunca ha tenido cuenta en X.
La situación se agravó. Ya habíamos empezado a desarrollar instrumentos digitales para detectar esas falsificaciones, y habíamos afilado nuestras capacidades analíticas para no caer tan ingenuamente, cuando nos llueven encima las deepfakes (‘falsificaciones profundas’).
Estas deepfakes son productos de la IA (inteligencia artificial). En verdad ya hacía años un experto en el campo podía componer piezas gráficas que ‘documentaban’ hechos que nunca habían sucedido. Pero recientemente surgieron instrumentos mucho más avanzados de varias de las grandes compañías que trabajan en el ramo, y que con una orden sencilla en el computador fabrican en segundos videos de políticos importantes haciendo discursos contrarios a su pensamiento, de grandes ejecutivos incitando a delitos financieros, y sobre todo (campo preferido de los malvados) videos pornográficos falsos. La noticia dice “videos falsos no consensuados”. Un video falso consensuado sería, ante todo, un oxímoron.
Una de las recientes víctimas fue la cantante Taylor Swift. Para los de mi generación y cercanas explico: ella es una cantante, muy exitosa, que empezó componiendo y grabando a los 14 años, y veinte después es billonaria y famosísima. El hecho es que pusieron a circular en las redes videos pornográficos que parecen reales y, peor aún, un video de ella con un discurso apoyando al expresidente Trump. Las imágenes y la voz son absolutamente realistas, el movimiento de los labios también coincide con las palabras, y las expresiones faciales y corporales las acompañan. ‘Sus’ videos pornográficos fueron vistos 45 millones de veces antes de que la cuenta del productor fuera cerrada.
Los ladrones ya descubrieron esa oportunidad, y las llamadas de la abuelita pidiendo una consignación urgente se han multiplicado. En el Reino Unido, en una reunión virtual por Zoom, el gerente de la empresa (con su cara y su voz) dio orden de hacer un desembolso de 230.000 libras esterlinas a una cuenta bancaria; pero el gerente jamás había asistido, ni se había enterado de la reunión. En las elecciones parlamentarias de Eslovaquia, un candidato fue derrotado al hacer unas horas antes unas declaraciones muy impopulares; el lector puede imaginar que en realidad él nunca las dijo.
El peligro para la gente en su vida cotidiana es enorme. Se estima que el año 2023 circularon más de 95.000 deepfakes en las redes. Los videos sexuales explícitos que usaban algunos (generalmente el hombre) para vengarse de la pareja, ahora pueden ser fabricados. El matoneo escolar puede asumir dimensiones extraordinariamente preocupantes. La confianza en la palabra del otro va a desaparecer, porque el otro puede ser en verdad otro.
Hasta ahora no hay soluciones contundentes. Las compañías desarrolladoras han implantado sistemas de huellas, que por un lado permitirán reconocerlos, y por otro hacerles seguimiento.
Enfrentamos un reto sui géneris. Será necesario un cambio cultural, y sin duda la mayor damnificada será la confianza entre las personas. Ojalá nuestra inteligencia y capacidad crítica nos ayuden a salir de tan tremendo atolladero.
MOISÉS WASSERMAN