Opinión: Cómo evitar los intentos de manipulación de las elecciones potenciados por la IA


En este ciclo electoral, los titulares han estado dominados por acontecimientos sin precedentes, entre ellos la condena penal de Donald Trump, el atentado contra su vida, la desastrosa actuación de Joe Biden en el debate y su sustitución en la fórmula demócrata por la vicepresidenta Kamala Harris. No es de extrañar que otros acontecimientos políticos importantes hayan quedado eclipsados, incluido el goteo constante de intentos mejorados por inteligencia artificial para influir en los votantes.

Durante las primarias presidenciales, una llamada automática falsa de Biden instó a los votantes de New Hampshire a esperar hasta noviembre para emitir su voto. En julio, Elon Musk compartió un video que incluía una voz que imitaba la de Kamala Harris. diciendo cosas que no dijo. Originalmente etiquetado como una parodia, el clip rápidamente se transformó en una publicación sin etiqueta en X con más de 130 millones de vistas, destacando el desafío que enfrentan los votantes.

Más recientemente, Trump utilizó las preocupaciones sobre la IA como arma falsa: Afirmando que una foto de un mitin de Harris fue generada por IAlo que sugiere que la multitud no era real. Y una foto falsa del intento de asesinato del expresidente Alteró las caras de los agentes del Servicio Secreto Por eso parecen estar sonriendo, promoviendo la falsa teoría de que el tiroteo fue planeado.

Está claro que cuando se trata de manipulación de IA, el público votante tiene que estar preparado para cualquier cosa.

Los votantes no se encontrarían en esta situación si los candidatos tuvieran políticas claras sobre el uso de la IA en sus campañas. Unas directrices escritas sobre cuándo y cómo las campañas pretenden utilizar la IA permitirían a la gente comparar el uso que hacen los candidatos de la tecnología con sus políticas declaradas. Esto ayudaría a los votantes a evaluar si los candidatos practican lo que predican. Si un político presiona para que se coloque una marca de agua en la IA para que la gente pueda identificar cuándo se está utilizando, por ejemplo, debería utilizar esa etiqueta en su propia IA en anuncios y otros materiales de campaña.

Las declaraciones de políticas en materia de IA también pueden ayudar a las personas a protegerse de actores maliciosos que intentan manipular sus votos. Y la falta de medios confiables para evaluar el uso de la IA socava el valor que la tecnología podría aportar a las elecciones si se implementa de manera adecuada, justa y con total transparencia.

No es que los políticos no utilicen la IA. De hecho, empresas como Google y Microsoft han reconocido que la utilizan. He entrenado docenas de campañas y grupos políticos sobre el uso de herramientas de IA generativa.

Las principales empresas tecnológicas publicaron un conjunto de principios A principios de este año, los legisladores prometieron orientar el uso de la IA en las elecciones. También prometieron desarrollar tecnología para detectar y etiquetar contenido realista creado con IA generativa y educar al público sobre su uso. Sin embargo, estos compromisos carecen de medios para su cumplimiento.

Los reguladores gubernamentales han respondido a las preocupaciones sobre el efecto de la IA en las elecciones. En febrero, tras la llamada automática no autorizada de New Hampshire, La Comisión Federal de Comunicaciones tomó medidas para hacer que tales tácticas sean ilegales. El consultor que planeó la llamada recibió una multa de 6 millones de dólares, y la empresa de telecomunicaciones que realizó las llamadas recibió una multa de 2 millones de dólares. Pero aunque la FCC quiere exigir que se revele el uso de IA en los anuncios de radiodifusión, el presidente de la Comisión Federal Electoral anunció el mes pasado que la agencia estaba Pone fin a su consideración de regular la IA en los anuncios políticosLos funcionarios de la FEC dijeron que eso excedería su autoridad y que esperarían la dirección del Congreso sobre el tema.

California y otros estados requieren exenciones de responsabilidad cuando se utiliza la tecnología, pero sólo cuando hay un intento de malicia. Michigan y Washington exigen que se revele cualquier uso de la IA, y Minnesota, Georgia, Texas e Indiana han aprobado prohibiciones totales al uso de la IA en anuncios políticos.

Es probable que sea demasiado tarde en este ciclo electoral para esperar que las campañas comiencen a revelar sus prácticas en materia de inteligencia artificial. Por lo tanto, la responsabilidad de permanecer alertas ante la IA recae en los votantes, de la misma manera que otras tecnologías, como las cajas de autopago en los supermercados y otras tiendas, han transferido la responsabilidad a los consumidores.

Los votantes no pueden confiar en que la información electoral que llega a sus buzones de correo, bandejas de entrada y plataformas de redes sociales esté libre de manipulación tecnológica. Deben tomar nota de quién ha financiado la distribución de dichos materiales y buscar señales obvias del uso de inteligencia artificial en las imágenes, como dedos faltantes o pendientes que no combinan. Los votantes deben conocer la fuente de la información que están consumiendo, cómo se verificó y cómo se está compartiendo. Todo esto contribuirá a una mayor alfabetización informativa, que, junto con el pensamiento crítico, es una habilidad que los votantes necesitarán para llenar sus papeletas este otoño.

Ann G. Skeet es el director senior de ética de liderazgo y Juan P. Pelissero es el director de ética gubernamental en el Centro Markkula de Ética Aplicada de la Universidad de Santa Clara. Se encuentran entre los coautores de “Votar por la ética: una guía para los votantes estadounidenses”, de la cual se adaptaron partes de esta pieza.