Anne creyó que tenía una relación amorosa con Brad Pitt. No se lo inventó. La mujer de 53 años estuvo recibiendo mensajes, fotos y videos del famoso actor declarándole su amor y hasta hablando de matrimonio… pero todos hechos con inteligencia artificial (IA). Falsos. Eran de los llamados deepfakes: imágenes y audios generados con IA que imitan la apariencia y la voz de cualquier persona. (Traducido al español sería “falsificación profunda”).La francesa vivió año y medio una mentira que le costó 830 mil euros (17 millones de pesos) que le transfirió al que, daba por hecho, era Brad Pitt. Primero, los estafadores la contactaron por Instagram en el 2023 haciéndose pasar por el actor. Después, con mensajes cariñosos, poemas y fotografías en situaciones del día a día (editadas con IA) generaron un vínculo emocional. Y, entonces, inventaron una emergencia: un cáncer de riñón.El falso Brad Pitt le dijo que estaba enfermo y necesitaba urgentemente dinero para su tratamiento, pero tenía sus cuentas bancarias congeladas por el proceso de divorcio con la actriz Angelina Jolie. Incluso, enviaron fotos editadas de él en el hospital y hasta de un supuesto pasaporte. Aunque Anne dudó decenas de veces de la veracidad de las imágenes y la situación, envió el dinero.Los estafadores sabían que ella había tenido cáncer y atravesaba un divorcio; estaba emocionalmente vulnerable y lo utilizaron en su contra, fue la víctima perfecta. Finalmente, Anne descubrió el engaño cuando vio en las noticias que el actor (el verdadero) estaba iniciando una relación amorosa con alguien más.La víctima, que sufre depresión y ha intentado quitarse la vida, no sabía nada sobre IA ni deepfakes. Ahora, además de la estafa, se enfrenta a un terrible ciberacoso en redes sociales, con miles de burlas y críticas por haber caído en el engaño. El canal de televisión francés TF1 publicó un reportaje sobre la estafa y recientemente lo retiró ante la cantidad de mensajes en contra de la mujer. Pero la historia de Anne ya dio la vuelta al mundo.Los deepfakes son más comunes de lo que pudiéramos creer (más vale irse familiarizando con la palabra). Según el Foro Económico Mundial (WEF por sus siglas en inglés), en Estados Unidos se incrementaron 1740% los fraudes con deepfakes durante el 2023. El uso indebido de la tecnología los ha convertido en armas digitales para delitos financieros y sexuales, desde estafas y suplantación de identidad hasta acoso y abuso con creación imágenes íntimas.A las fotos y vídeos hechos con IA también se suman los audios… todos extremadamente realistas, pero falsos. Así, las extorsiones ahora comienzan con mensajes de voz clonada de algún familiar que envían por Whatsapp. Un joven denunció, en un vídeo que circula en redes sociales, que recibió un audio con la voz de su mamá pidiéndole dinero de manera urgente y que debía depositarle a una cuenta de alguien más; el chico habría caído en la trampa porque la voz era idéntica a la de su mamá, pero por suerte ella estaba en ese momento en casa, con él.Pero Anne no tuvo la misma suerte, y tampoco fue la única engañada con “la estafa del falso Brad Pitt”. En Europa hay más de casos con el mismo modus operandi: mujeres a las que enamoraron, que confiaron y desfalcaron.El mal uso de la IA y los graves problemas de salud mental (como la depresión) pueden ser una grave combinación. La próxima vez que vea un video o escuche algún audio del que sospeche su veracidad, mejor tome distancia y, ante la duda, busque ayuda, pregunte. No vaya a convertirse en una víctima más de las deepfakes.