WASHINGTON — Funcionarios electorales y las empresas de

redes sociales, ya desconcertados por los hackers,

los trolls y los <i style="mso-bidi-font-style:

normal">bots, se están preparando para el lanzamiento de un arma de

desinformación potencialmente más peligrosa a medida que se acercan la

elecciones de 2020: videos manipulados, conocidos como "deepfakes", que pueden ser casi

imposibles de detectar como falsos.

En las salas de consejo de las compañías tecnológicas, los

laboratorios universitarios y las sesiones informativas del Pentágono, los

tecnólogos en la primera línea de la seguridad cibernética han hecho sonar las

alarmas sobre la amenaza, que según dicen ha aumentado notablemente a medida

que la tecnología para hacer falsificaciones convincentes está cada vez más

disponible.

El martes, los líderes en inteligencia artificial planean

presentar una herramienta para combatirla: incluye el software de escaneo que

la Universidad de California en Berkeley ha estado desarrollando en asociación

con las fuerzas militares de EU, la cual la industria comenzará a proporcionar

a periodistas y agentes políticos. El objetivo es dar a los medios y las oficinas

de campaña la oportunidad de analizar posibles videos falsos antes de que

puedan lanzar a la elección al caos.

El software se encuentra entre los primeros esfuerzos importantes

para armar a los periodistas y a las oficinas de campaña de herramientas para

combatir los deepfakes. Este enfrenta

obstáculos formidables, tanto técnicos como políticos, y los desarrolladores dicen

que no hay tiempo que perder.

"Tenemos que tomarnos en serio esto", advirtió

Hany Farid, profesora de ciencias de la computación en UC Berkeley que trabaja

con una organización sin fines de lucro de San Francisco, la Fundación IA, para

enfrentar la amenaza de los deepfakes.

"Dado lo que ya hemos visto con la interferencia, no se

necesita mucha imaginación para ver lo fácil que sería", agregó. "Hay

poder real en las imágenes de videos".

La preocupación que se ha apoderado de los innovadores de la

inteligencia artificial es que un video falso aparezca días antes de una

elección importante y lleve a la contienda al caos. Tal vez podría ser un video

que pretenda mostrar al presidente Donald Trump conspirando para enriquecerse gracias

a la presidencia o a Joe Biden tramando un acuerdo con los cabilderos de la

industria, o a la senadora Elizabeth Warren burlándose de los nativos

americanos.

La preocupación va mucho más allá de la pequeña comunidad de

científicos.

"Hace apenas seis meses, esto era algo disponible solo

para personas con cierto nivel de sofisticación", dijo Lindsay Gorman,

miembro de la Alianza para Asegurar la Democracia, un grupo de análisis bipartidista.

Ahora, el software para hacer falsificaciones en video convincentes está

"disponible para casi todos", afirmó.

“El problema de los deepfakes

se está extendiendo. No hay razón para pensar que no se utilizarán en estas

elecciones".

Facebook ha lanzado su propia iniciativa para acelerar el

desarrollo de tecnología para detectar videos manipulados, y está discutiendo sobre

si eliminar o etiquetar la propaganda deepfake

cuando surja. Google también ha estado trabajando con académicos para generar

colecciones de audio y video, reales y falsos, que se pueden usar en la lucha.

Una nueva ley de California, la AB 730, que entrará en

vigencia en enero, hará que sea ilegal distribuir un audio o video manipulado

de un candidato que sea malintencionadamente engañoso y "parezca

falsamente auténtico para una persona razonable". Hay un esfuerzo

bipartidista en el Congreso para aprobar una legislación similar.

Sin embargo, tales prohibiciones son legalmente precarias y

podrían resultar difíciles de aplicar en parte porque la línea entre una

falsificación maliciosa y un video satírico protegido bajo la Primera Enmienda

es difícil de trazar.

La urgencia en torno a los videos se produce al tiempo que los

desarrolladores de inteligencia artificial revelan demostraciones de deepfakes que parecen increíblemente

auténticos.

El más conocido es un video convincente del ex presidente

Barack Obama recitando un pasaje inocuo que nunca dijo. La tecnología registra

a otra persona pronunciando las palabras, luego injerta los movimientos de los

labios y el sonido en una imagen del objetivo, utilizando algoritmos y grandes

bases de datos de imágenes reales para hacer pasar las palabras como

auténticas.

Los videos resultantes plantean un problema importante para

los expertos en desinformación, quienes han descubierto que muchas soluciones

potenciales no son suficientes. Una compañía como Facebook, por ejemplo, podría

no ser capaz de distinguir entre un video político falso y uno con imágenes

reales que han sido legítima y obviamente alteradas para tal efecto, tal vez

para resaltar al candidato o para darle un tono satírico.

"La tecnología para detectar <i style="mso-bidi-font-style:

normal">deepfakes se está quedando atrás", dijo Robert Chesney,

profesor de derecho de la Universidad de Texas que investiga los videos

engañosos. "Se ha invertido una gran cantidad de dinero en tratar de

enfrentarlo".

El potencial para convertir en un arma las herramientas de

inteligencia artificial contra las elecciones estadounidenses es inquietante para

la Fundación IA, la subsidiaria sin fines de lucro de una empresa que

desarrolla y comercializa aplicaciones de inteligencia artificial. Entre los

trabajos en progreso de la compañía se encuentran clones en línea de líderes

empresariales y espirituales actuales que podrían vivir para siempre.

Una demostración reciente para reporteros presentó un video

chat dirigido por una recreación artificial de Deepak Chopra, la luminaria de

la consciencia plena. El avatar intercambió algunas bromas y luego respondió a

preguntas sobre cómo lidiar con el estrés laboral guiando al grupo en una breve

meditación.

"Estas grandes oportunidades comerciales conllevan riesgos

importantes", dijo Lars Buttler, director ejecutivo de la Fundación IA.

"Estamos enfocando la mitad de nuestra energía en la prevención/detección,

en previsión de lo que podría salir mal".

Y muchas cosas podrían salir mal.

Un video recientemente alterado de la presidenta de la

Cámara de Representantes, Nancy Pelosi, desacelerado para dejar la falsa impresión

de que estaba ebria y desorientada, se propagó por Internet como un virus antes

de que los verificadores pudieran aclarar las cosas.

El video era más una "falsificación barata" que un

deepfake, usando tecnología de

edición burda que podía ser fácilmente detectada. Pero presagió lo poco

preparados que están los votantes para procesar videos alterados.

"Existe un peligro real de que las herramientas de

manipulación de video se estén volviendo tan buenas que las personas normales

en la calle ya no puedan diferenciar qué sucedió", subrayó Buttler.

"Nos enfrentamos al riesgo de que en algún momento ya no podamos coincidir

en cuál es la realidad objetiva".

La fundación, que a principios de este año reclutó al

cofundador de Twitter, Biz Stone, como codirector, espera que las herramientas

de detección que está desarrollando ayuden a evitar eso. A los profesionales de

medios y políticos a los que se dé acceso a su portal "Reality Defender

2020" serán invitados a correr el video que deseen verificar a través de

dos algoritmos desarrollados por científicos en la primera línea de la inteligencia

artificial.

El algoritmo de UC Berkeley compara los gestos sutiles de

cualquier político que aparezca en el video en cuestión con sus gestos reales

extraídos de una extensa colección de videos auténticos. El software puede

evaluar luego si los dos están en sincronía.

"Cada persona tiene una correlación entre lo que dice y

cómo actúa de otra manera", apuntó Buttler. “Es casi tan único como una

huella digital. Si no están sincronizados, es un signo revelador. Se puede determinar

una correlación matemática”. Estas diferencias son típicamente imperceptibles

en sus caras, señaló.

Los videos también se corren a través de un algoritmo

separado, desarrollado en colaboración con el proyecto FaceForensics de la

Universidad Técnica de Múnich en Alemania, que los separa píxel por píxel para

buscar signos de que fueron alterados.

Google ha estado trabajando con el proyecto de Múnich para

crear miles de videos deepfake que son

usados para fortalecer dichos algoritmos, permitiéndoles aprender a detectar

patrones que surgen dentro de la maquinaria de los videos que están alterados,

pero que no son visibles para el espectador.

Falta por ver si la tecnología de detección será efectiva, y

duradera frente a una amenaza que continúa evolucionando. Aquellos involucrados

en la lucha contra los deepfakes prevén

un juego perpetuo del gato y el ratón, donde los arquitectos de la desinformación

usen la tecnología de detección para crear métodos cada vez más evasivos.

El plan con Reality Defender 2020 es permitir el acceso solo

a medios de comunicación y oficinas de campaña política legítimos. Pero ese

plan es complejo, ya que la tecnología corre el riesgo de ser tildada de

partidista si el acceso está demasiado restringido y se ve comprometido si se

pone a disposición de los medios y agentes políticos que tienen afiliaciones

turbias.

E incluso si la tecnología de detección resulta ser

impecable, la renuencia de Facebook y otros gigantes de las redes sociales a

eliminar incluso el contenido demostrablemente falso y engañoso amenaza con

limitar su eficacia.

Esa es una de las principales preocupaciones de Farid, el

científico de UC Berkeley.

"Puedo hacer todo el trabajo que pueda para detectar los

deepfakes, pero si al final del día

Facebook dice: ‘Esto nos parece bien’, entonces todos tendremos un

problema", advirtió. Se muestra escéptico respecto al gigante de las redes

sociales, incluso cuando este financia el trabajo de detección de su

laboratorio.

“Les dije que no basta con trabajar con académicos para

desarrollar esta tecnología y publicar comunicados de prensa y publicaciones de

blog al respecto. Tienen que hacer algo con ello”.

———

(c)2019 Los Angeles Times

Visit the Los Angeles Times at www.latimes.com

Distributed by Tribune Content Agency, LLC.

Copyright 2019 Tribune Content Agency.

Download The Press of Atlantic City App

Welcome to the discussion.

Keep it Clean. Please avoid obscene, vulgar, lewd, racist or sexually-oriented language.
PLEASE TURN OFF YOUR CAPS LOCK.
Don't Threaten. Threats of harming another person will not be tolerated.
Be Truthful. Don't knowingly lie about anyone or anything.
Be Nice. No racism, sexism or any sort of -ism that is degrading to another person.
Be Proactive. Use the 'Report' link on each comment to let us know of abusive posts.
Share with Us. We'd love to hear eyewitness accounts, the history behind an article.

PLEASE BE ADVISED: Soon we will no longer integrate with Facebook for story comments. The commenting option is not going away, however, readers will need to register for a FREE site account to continue sharing their thoughts and feedback on stories. If you already have an account (i.e. current subscribers, posting in obituary guestbooks, for submitting community events), you may use that login, otherwise, you will be prompted to create a new account.

Load comments