Los estados se apresuran a combatir la amenaza de la IA a las elecciones
La elección presidencial de este año será la primera desde que la IA generativa, una forma de inteligencia artificial que puede crear contenido nuevo, incluidas imágenes, audio y video, estuvo ampliamente disponible. Esto genera temores de que millones de votantes puedan ser engañados por una avalancha de falsificaciones políticas.
Pero, si bien el Congreso ha hecho poco para abordar el problema, los estados están tomando medidas agresivas para responder, aunque persisten dudas sobre cuán efectivas serán las nuevas medidas para combatir la desinformación creada por la IA.
El año pasado, una grabación de audio falsa generada por IA de una conversación entre un político liberal eslovaco y un periodista, en la que discutían cómo manipular las próximas elecciones del país, ofreció una advertencia a las democracias de todo el mundo.
Aquí en Estados Unidos, la urgencia de la amenaza de la IA quedó patente en febrero, cuando, en los días previos a las primarias de New Hampshire, miles de votantes del estado recibieron una llamada automática con una voz generada por IA que se hacía pasar por el presidente Joe Biden, instando a que no votaran. Un agente demócrata que trabaja para un candidato rival admitió haber encargado las llamadas.
En respuesta al llamado, la Comisión Federal de Comunicaciones emitió un fallo que restringe las llamadas automáticas que contienen voces generadas por IA.
Algunos grupos conservadores incluso parecen estar utilizando herramientas de inteligencia artificial para ayudar con los desafíos del registro masivo de votantes, lo que genera preocupación de que la tecnología pueda aprovecharse para ayudar a los esquemas existentes de supresión de votantes.
"En lugar de que los votantes busquen fuentes confiables de información sobre las elecciones, incluida la junta electoral de su estado o condado, el contenido generado por IA puede captar la atención de los votantes", dijo Megan Bellamy, vicepresidenta de leyes y políticas del Voting Rights Lab. un grupo de defensa que rastrea la legislación estatal relacionada con las elecciones. “Y esto puede generar caos y confusión antes e incluso después del día de las elecciones”.
Preocupaciones por la desinformación
La amenaza de la IA ha surgido en un momento en que los defensores de la democracia ya están profundamente preocupados por la posibilidad de que la desinformación “ordinaria” en línea confunda a los votantes, y cuando los aliados del expresidente Donald Trump parecen estar teniendo éxito en luchar contra los esfuerzos para frenar la desinformación.
Pero los estados están respondiendo a la amenaza de la IA. Desde principios del año pasado, se han presentado 101 proyectos de ley que abordan la inteligencia artificial y la desinformación electoral, según un análisis del 26 de marzo realizado por Voting Rights Lab.
El 27 de marzo, Oregón se convirtió en el último estado (después de Wisconsin, Nuevo México, Indiana y Utah) en promulgar una ley sobre la desinformación electoral generada por IA. Los legisladores de Florida e Idaho aprobaron sus propias medidas, que actualmente se encuentran en los escritorios de los gobernadores de esos estados.
Mientras tanto, Arizona, Georgia, Iowa y Hawaii han aprobado al menos un proyecto de ley (en el caso de Arizona, dos) a través de una cámara.
Como deja claro esa lista de estados, los estados rojo, azul y morado han dedicado atención al tema.
Se insta a los Estados a actuar
Mientras tanto, el 25 de marzo el Foro NewDEAL, un grupo de defensa progresista, publicó un nuevo informe sobre cómo combatir la amenaza de la IA a las elecciones, basándose en las aportaciones de cuatro secretarios de Estado demócratas.
“La IA (G)enerativa tiene la capacidad de aumentar drásticamente la difusión de información errónea y desinformación electoral y causar confusión entre los votantes”, advierte el informe. "Por ejemplo, los 'deepfakes' (imágenes, voces o vídeos generados por IA) podrían usarse para retratar a un candidato diciendo o haciendo cosas que nunca sucedieron".
El informe del Foro NewDEAL insta a los estados a tomar varias medidas para responder a la amenaza, incluido exigir que ciertos tipos de material de campaña generado por IA estén claramente etiquetados; realizar ejercicios de juego de roles para ayudar a anticipar los problemas que podría causar la IA; crear sistemas de respuesta rápida para comunicarse con los votantes y los medios de comunicación, a fin de acabar con la desinformación generada por la IA; y educar al público con antelación.
Los Secretarios de Estado Steve Simon de Minnesota, Jocelyn Benson de Michigan, Maggie Toulouse Oliver de Nuevo México y Adrian Fontes de Arizona contribuyeron al informe. Los cuatro están trabajando activamente para preparar a sus estados sobre el tema.
Se ven lagunas jurídicas
A pesar de la intensa actividad de legisladores, funcionarios y expertos externos, varias de las medidas examinadas en el análisis del Voting Rights Lab parecen tener debilidades o lagunas que pueden plantear dudas sobre su capacidad para proteger eficazmente a los votantes de la IA.
La mayoría de los proyectos de ley exigen que los creadores agreguen un descargo de responsabilidad a cualquier contenido generado por IA, señalando el uso de IA, como recomienda el informe del Foro NewDEAL.
Pero la nueva ley de Wisconsin, por ejemplo, exige la exención de responsabilidad solo para el contenido creado por campañas, lo que significa que los deepfakes producidos por grupos externos pero destinados a influir en una elección (un escenario nada improbable) no se verían afectados.
Además, la medida se limita al contenido producido por IA generativa, aunque los expertos dicen que otros tipos de contenido sintético que no utilizan IA, como Photoshop y CGI, a veces denominados "falsificaciones baratas", pueden ser igual de efectivos en engañar a los espectadores u oyentes y puede producirse más fácilmente.
Por esa razón, el informe del Foro NewDEAL recomienda que las leyes estatales cubran todo el contenido sintético, no solo el que utiliza IA.
Las leyes de Wisconsin, Utah e Indiana tampoco contienen sanciones penales (las infracciones se castigan con una multa de 1.000 dólares), lo que plantea dudas sobre si funcionarán como elemento disuasorio.
Los proyectos de ley de Arizona y Florida sí incluyen sanciones penales. Pero los dos proyectos de ley de Arizona se aplican sólo a la suplantación digital de un candidato, lo que significa que muchas otras formas de engaño generado por IA (por ejemplo, hacerse pasar por un presentador de noticias que informa una historia) seguirían siendo legales.
Y uno de los proyectos de ley de Arizona, así como la ley de Nuevo México, se aplicó solo en los 90 días previos a una elección, a pesar de que el contenido generado por IA que aparece antes de esa ventana aún podría afectar la votación.
Los expertos dicen que las deficiencias existen en gran parte porque, dado que la amenaza es tan nueva, los estados aún no tienen una idea clara de exactamente qué forma tomará.
"Los cuerpos legislativos están tratando de encontrar el mejor enfoque y están trabajando a partir de ejemplos que ya han visto", dijo Bellamy, señalando los ejemplos del audio eslovaco y las llamadas automáticas de Biden.
"Simplemente no están seguros de qué dirección viene esto, pero sienten la necesidad de hacer algo".
"Creo que veremos evolucionar las soluciones", añadió Bellamy. “El peligro de esto es que es probable que el contenido generado por IA y lo que puede hacer también evolucionen al mismo tiempo. Así que ojalá podamos seguir el ritmo”.