Sábado, 04 de Mayo 2024

Combatirán los engaños electorales generados con IA

Empresas tecnológicas globales firman un acuerdo para evitar  desinformación y “fake news”

Por: El Informador

Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI y TikTok buscan poner más “candados” a los contenidos engañosos generados por inteligencia artificial y que se distribuyen por redes sociales. AFP

Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI y TikTok buscan poner más “candados” a los contenidos engañosos generados por inteligencia artificial y que se distribuyen por redes sociales. AFP

Varias empresas tecnológicas muy destacadas firmaron ayer un pacto para adoptar voluntariamente “precauciones razonables” a fin de impedir que se utilicen herramientas de inteligencia artificial (IA) para trastornar elecciones democráticas en el mundo.

Directivos de Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI y TikTok se reunieron en la Conferencia de Seguridad de Múnich para anunciar un nuevo marco sobre cómo responder a las deepfakes -imágenes generadas por inteligencia artificial- que son utilizadas para engañar deliberadamente a los votantes. Otras 12 empresas, entre ellas X de Elon Musk, también firmarán el acuerdo.

“Todo el mundo reconoce que ninguna empresa tecnológica, ningún Gobierno y ninguna organización de la sociedad civil por sí sola puede afrontar el advenimiento de esta tecnología y su posible uso nefasto”, dijo Nick Clegg, presidente de asuntos globales de Meta -la empresa matriz de Facebook e Instagram- en una entrevista antes de la conferencia.

El acuerdo, en gran medida simbólico, apunta a las imágenes, audio y video cada vez más realistas generados mediante IA “que alteran o falsifican engañosamente la apariencia, voz o acciones de candidatos políticos, funcionarios electorales y otros interesados cruciales en una elección democrática, o que brindan información falsa a los votantes acerca de cuándo, dónde y cómo pueden votar legalmente”.

Las empresas no se comprometen a prohibir o borrar los deepfakes. En lugar de eso, el acuerdo esboza los métodos que usarán para intentar detectar y etiquetar el contenido engañoso generado por IA cuando sea creado o difundido en sus plataformas. Las compañías compartirán entre ellas los mejores métodos y responderán “de manera veloz y proporcional” cuando ese contenido empiece a propagarse.

La vaguedad de los compromisos y la ausencia de requisitos vinculantes probablemente ayudó a atraer a una amplia gama de empresas, pero algunos activistas decepcionados esperaban algo más concreto y firme.

“El lenguaje no es tan fuerte como uno podría haber esperado”, dijo Rachel Orey, directora adjunta sénior del Proyecto Electoral en el Centro de Políticas Bipartidistas, un centro de investigación con sede en Washington, D.C. “Creo que deberíamos dar el crédito donde corresponde, y reconocer que las empresas sí tienen un interés personal de que sus herramientas no sean utilizadas para socavar elecciones libres e imparciales. Dicho esto, se trata de algo voluntario y estaremos atentos a ver si lo cumplen”.

Clegg dijo que cada compañía “tiene, y con razón, su propio conjunto de políticas de contenido”.

“Esto no es intentar imponer una camisa de fuerza a todo el mundo”, comentó. “Y en cualquier caso, nadie en la industria cree que puede hacer frente a un paradigma tecnológico totalmente nuevo haciéndose de la vista gorda e intentando resolver problemas que surgen una y otra vez y encontrando todo lo que cree que podría engañar a alguien”.

Varios dirigentes políticos de Europa y Estados Unidos también se sumaron al anuncio. La vicepresidenta de la Comisión Europea, Vera Jourova, dijo que si bien un acuerdo de este tipo no puede ser integral, “contiene elementos de gran impacto y muy positivos”. También pidió a sus colegas políticos asumir la responsabilidad de no utilizar las herramientas de IA de forma engañosa, y advirtió de que la desinformación alimentada por la IA podría traer consigo “el fin de la democracia, no sólo en los Estados miembros de la UE”.

AP

Un primer paso para combatir la desinformación

Jeff Allen, cofundador del Integrity Institute -un organismo sin fines de lucro que desea fomentar un mejor internet a nivel social- y ex científico de datos de Facebook, comentó que el acuerdo parece un “paso positivo”, pero que le gustaría que las empresas de redes sociales tomaran otras medidas para combatir la desinformación, como crear sistemas de recomendación de contenidos que no den prioridad a la interacción por encima de todo.

Lisa Gilbert, vicepresidenta ejecutiva del grupo de defensa Public Citizen, alegó que el acuerdo “no es suficiente” y que las empresas de IA deberían “frenar tecnologías” como los generadores hiperrealistas de texto a video “hasta que existan salvaguardas sustanciales y adecuadas que nos ayuden a evitar muchos problemas potenciales”.

Además de las empresas que ayudaron a negociar el acuerdo, otros signatarios son los desarrolladores de chatbot Anthropic e Inflection AI; la startup de clonación de voz ElevenLabs; el diseñador de chips Arm Holdings; las empresas de seguridad McAfee y TrendMicro; y Stability AI, conocida por crear el generador de imágenes Stable Diffusion.

La ausencia de otro popular generador de imágenes de IA, Midjourney, fue notable. La empresa, con sede en San Francisco, no respondió inmediatamente a una solicitud de comentarios.

La inclusión de X -que no fue mencionada en un anuncio anterior sobre el acuerdo pendiente- fue una de las sorpresas del acuerdo. Musk redujo drásticamente los equipos de moderación de contenidos tras hacerse cargo de la ex Twitter y se ha descrito a sí mismo como un “absolutista de la libertad de expresión”.

En un comunicado emitido ayer, la directora general de X, Linda Yaccarino, dijo que “cada ciudadano y compañía tiene la responsabilidad de asegurar unas elecciones libres e imparciales”.

“X está dedicada a desempeñar su papel, a colaborar con sus homólogos para luchar contra las amenazas de la IA al tiempo que protege la libertad de expresión y maximiza la transparencia”, señaló.

Investigadores señalan que las medidas ayudarán a verificar fuentes y evitar que la IA propague información sin verificar. AP

El Iberifier seguirá operando hasta 2026

El observatorio ibérico de medios digitales Iberifier, especializado en combatir la desinformación en España y Portugal, prolongará su actividad hasta 2026, según anunció durante la presentación de los resultados de sus primeros tres años, con más de cuatro mil 500 verificaciones y 15 informes sobre la materia.

La Comisión Europea, quien auspicia este proyecto conformado por 23 organizaciones en España y Portugal -entre ellas EFE Verifica-, ha destinado 1.27 millones de euros para esta segunda fase de Iberifier en un contexto social donde la desinformación se ha erigido como una de las principales amenazas globales.

Junto a otros 13 consorcios comunitarios, Iberifier forma parte de la red el Observatorio Europeo de Medios Digitales (EDMO), también financiados por la Comisión.

“Todos los centros, incluido Iberifier, realizan un trabajo impresionante al implementar iniciativas para entender y abordar la desinformación en el terreno. Su trabajo es clave tanto para el apoyo local que brindan como para la posibilidad de colaborar y comparar con otras realidades nacionales”, aseguró Paula Gori, coordinadora del EDMO, durante una presentación en la Asociación de Prensa de Madrid (APM).

Ramón Salaverría, catedrático de Periodismo de la Universidad de Navarra y coordinador del proyecto, destacó que la clave de su éxito ha sido la colaboración: “En Iberifier participamos instituciones públicas y privadas, universidades y medios de comunicación y, por supuesto, colaboramos investigadores de dos países unidos por preocupaciones similares”.

Como novedad para esta nueva etapa, Iberifier ampliará su foco geográfico, y más allá de circunscribirse al estudio y la lucha contra la desinformación en España y Portugal, lo hará también allá donde el español y el portugués son lenguas predominantes.

Además, el consorcio aumentará su número de socios a 25, y para este periodo contará con 12 universidades involucradas, seis verificadores y siete centros de investigación multidisciplinar de ambos países.

El catedrático de Medios de Comunicación y Sociedad del Instituto Universitario de Lisboa Gustavo Cardoso, quien coordina la parte portuguesa del proyecto, reflexionó sobre los cambios constantes a los que se enfrenta el planeta en cuanto a los modelos de comunicación, e insistió en la necesidad de adaptación y análisis, también desde las políticas públicas.

“En las últimas décadas, incluso cuando internet ya estaba en nuestras vidas, las políticas mediáticas estaban centradas en los medios de comunicación de masas”, añadió.

EFE

Las redes sociales son las principales fuentes de noticias falsas que circulan entre sus usuarios. AFP

Este año hay más de 50 elecciones en el mundo

El acuerdo alcanzado en la reunión anual de seguridad en la ciudad alemana de Múnich llega en un momento en que más de 50 países celebrarán elecciones a nivel nacional en 2024. Bangladesh, Taiwán, Pakistán y recientemente Indonesia ya lo hicieron.

Ya ha habido intentos de intervenir en elecciones por medio de contenido generado por IA. Un ejemplo de ello ocurrió cuando llamadas automáticas que imitaban la voz del presidente estadounidense Joe Biden intentaron disuadir a la gente de votar en las elecciones primarias de Nueva Hampshire el mes pasado.

Pocos días antes de las elecciones de Eslovaquia en noviembre, grabaciones de audio generadas por inteligencia artificial se hicieron pasar por un candidato que hablaba de planes para subir el precio de la cerveza y amañar las elecciones. Verificadores de datos se apresuraron a identificarlas como falsas mientras se difundían por las redes sociales.

Los políticos también han experimentado con la tecnología, desde el uso de chatbots de IA para comunicarse con los votantes hasta la incorporación de imágenes generadas por IA a los anuncios.

El acuerdo insta a las plataformas a “prestar atención al contexto y, en particular, a salvaguardar la expresión educativa, documental, artística, satírica y política”.

Las empresas se centrarán en la transparencia de sus políticas de cara a los usuarios, y trabajarán para educar al público sobre cómo evitar ser engañado con imágenes falsas generadas por IA.

La mayoría de las compañías ya han dicho que están colocando salvaguardas a sus propias herramientas de inteligencia artificial generativa, capaces de manipular imágenes y sonidos, y que están trabajando para identificar y etiquetar los contenidos generados por IA, de modo que los usuarios de redes sociales sepan si lo que están viendo es real. Pero la mayoría de las soluciones que se han propuesto aún no han sido implementadas y las empresas se han visto presionadas para tomar más medidas.

Esa presión es mayor en Estados Unidos, donde el Congreso aún no ha aprobado leyes que regulen el uso de la IA en la política, dejando que las empresas se autogobiernen en gran medida.

La Comisión Federal de Comunicaciones confirmó recientemente que las grabaciones de voz generadas por IA en las llamadas automáticas eran ilegales, pero eso no incluye las “deep fakes” de audio cuando circulan en redes sociales o en anuncios de campaña.

Muchas empresas de redes sociales ya cuentan con políticas para disuadir de la publicación de mensajes engañosos sobre procesos electorales, generados por IA o no. Meta señaló que elimina la información falsa sobre “las fechas, lugares, horas y métodos para votar, el empadronamiento o participar en el censo”, así como otras publicaciones falsas destinadas a interferir en la participación cívica de alguien.

México es una de las naciones donde se desarrollarán elecciones. EL INFORMADOR

Mantiene su labor educativa

Otra de las tareas fundamentales de Iberifier es la alfabetización mediática, cuyo balance en estos tres años de trabajo consolidado se ha traducido en 41 seminarios donde se han formado más de 800 periodistas; además de múltiples acciones de concienciación para niños, personas mayores y población vulnerable, junto a medio centenar de artículos científicos y de divulgación.

Marina Rodríguez, quien dirige la Unidad de Ciberseguridad y contra la Desinformación del Departamento de Seguridad Nacional de España, incidió en las grandes dificultades que enfrenta la sociedad frente a la desinformación, pero aseguró que sí hay cómo “minimizar su impacto”.

“Es posible desde el punto de vista institucional y desde el punto de vista regulatorio. (...) Allá donde hay verificadores el ecosistema informativo es más saludable, porque además de verificar se imponen medidas de control o autocontrol” entre quienes desinforman.

En este sentido, Sergio Hernández, responsable de EFE Verifica, insistió en que la “verificación funciona”, y aunque no es “una respuesta milagrosa”, sí tiene resultados y aminorar el impacto de las narrativas falsas.

“Garantizar la calidad de la información. Esto debería ser también la preocupación de los Estados, de las administraciones públicas. (...) La calidad de la información debería estar, junto a la sanidad o la educación, en esa paleta de derechos que debemos proteger”, subrayó.

CT

Temas

Lee También

Recibe las últimas noticias en tu e-mail

Todo lo que necesitas saber para comenzar tu día

Registrarse implica aceptar los Términos y Condiciones