La herramienta de fotografía con inteligencia artificial de Elon Musk genera imágenes realistas y falsas de Trump, Harris y Biden


Nueva York –

El chatbot de inteligencia artificial Grok de Elon Musk comenzó el martes a permitir a los usuarios crear imágenes generadas por inteligencia artificial a partir de indicaciones de texto y publicarlas en X.

Casi de inmediato, la gente comenzó a usar la herramienta para inundar el sitio de redes sociales con imágenes falsas de figuras políticas como el expresidente Donald Trump y la vicepresidenta Kamala Harris, así como del propio Musk, algunas de las cuales mostraban a las figuras públicas en situaciones obviamente falsas pero, no obstante, perturbadoras, como participando en los ataques del 11 de septiembre.

A diferencia de otras herramientas de fotografía con inteligencia artificial convencionales, Grok, creada por la empresa emergente de inteligencia artificial xAI de Musk, parece tener pocas barreras.

En las pruebas de la herramienta, por ejemplo, CNN logró que Grok generara fácilmente imágenes falsas y fotorrealistas de políticos y candidatos políticos que, sacadas de contexto, podrían resultar engañosas para los votantes. La herramienta también creó imágenes benignas pero convincentes de figuras públicas, como Musk comiendo un bistec en un parque.

Algunos usuarios de X publicaron imágenes que dijeron haber creado con Grok en las que aparecían personajes prominentes consumiendo drogas, personajes de dibujos animados cometiendo asesinatos violentos e imágenes sexualizadas de mujeres en bikini. En una publicación vista casi 400.000 veces, un usuario compartió una imagen creada por Grok de Trump asomado desde lo alto de un camión, disparando un rifle. Las pruebas de CNN confirmaron que la herramienta es capaz de crear este tipo de imágenes.

Es probable que la herramienta aumente las preocupaciones de que la inteligencia artificial pueda crear una explosión de información falsa o engañosa en Internet, especialmente antes de las elecciones presidenciales de Estados Unidos. Los legisladores, los grupos de la sociedad civil e incluso los propios líderes tecnológicos han dado la voz de alarma ante el hecho de que el uso indebido de dichas herramientas podría causar confusión y caos entre los votantes.

“¡Grok es la IA más divertida del mundo!”, publicó Musk en X el miércoles, en respuesta a un usuario que elogió la herramienta por no tener “censura”.

Muchas otras empresas líderes en inteligencia artificial han tomado algunas medidas para evitar que sus herramientas de generación de imágenes con inteligencia artificial se utilicen para crear desinformación política, aunque los investigadores descubrieron que los usuarios aún pueden encontrar formas de evitar las medidas de cumplimiento. Algunas empresas, incluidas OpenAI, Meta y Microsoft, también incluyen tecnología o etiquetas para ayudar a los espectadores a identificar imágenes que se han creado con sus herramientas de inteligencia artificial.

Las plataformas de redes sociales rivales, incluidas YouTube, TikTok, Instagram y Facebook, también han tomado medidas para etiquetar el contenido generado por IA en los feeds de los usuarios, ya sea usando tecnología para detectarlo ellos mismos o pidiendo a los usuarios que identifiquen cuándo publican dicho contenido.

X no respondió de inmediato a una solicitud de comentarios sobre si tiene alguna política contra la generación de imágenes potencialmente engañosas de candidatos políticos por parte de Grok.

El viernes, xAI pareció haber introducido algunas restricciones en Grok, en respuesta a los informes críticos y las imágenes perturbadoras que los usuarios estaban creando y publicando. La herramienta ahora se niega a crear imágenes de candidatos políticos o personajes de dibujos animados ampliamente reconocidos (cuya propiedad intelectual pertenece a otras empresas) cometiendo actos de violencia o junto a símbolos de incitación al odio, aunque los usuarios notaron que las restricciones parecían limitarse solo a ciertos términos y temas de las imágenes.

X tiene una política contra la difusión de “medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a las personas y provocar daños”, aunque no está claro cómo se aplica esta política. El propio Musk compartió un vídeo el mes pasado en X en el que se utilizaba inteligencia artificial para hacer parecer que Harris había dicho cosas que, de hecho, no había dicho, en una aparente violación de la política y con solo un emoji de cara sonriente para sugerir a los seguidores que era falso.

La nueva herramienta de imágenes de Grok también llega en un momento en que Musk enfrenta críticas por difundir repetidamente afirmaciones falsas y engañosas en X relacionadas con las elecciones presidenciales, incluida una publicación que planteaba preguntas sobre la seguridad de las máquinas de votación. También llega días después de que Musk recibiera a Trump para una conversación transmitida en vivo de más de dos horas en X en la que el candidato republicano hizo al menos 20 afirmaciones falsas sin que Musk respondiera.

Otras herramientas de generación de imágenes con inteligencia artificial han enfrentado críticas por diversos problemas. Google suspendió la capacidad de su chatbot con inteligencia artificial Gemini para generar imágenes de personas después de que fuera criticado por producir representaciones históricamente inexactas de las razas de las personas; el generador de imágenes con inteligencia artificial de Meta fue criticado por tener dificultades para crear imágenes de parejas o amigos de diferentes orígenes raciales. TikTok también se vio obligado a retirar una herramienta de video con inteligencia artificial después de que CNN descubriera que cualquier usuario podía crear videos de apariencia realista de personas diciendo cualquier cosa, incluida información errónea sobre las vacunas, sin etiquetas.

Grok parece tener algunas restricciones; por ejemplo, un mensaje que solicitaba una imagen desnuda devolvía una respuesta que decía: “desafortunadamente, no puedo generar ese tipo de imagen”.

En una prueba separada, la herramienta dijo que también tiene “limitaciones en la creación de contenido que promueva o pueda ser visto como un respaldo a estereotipos dañinos, discursos de odio o desinformación”.

“Es importante evitar difundir falsedades o contenidos que puedan incitar al odio o la división. Si tienes otras peticiones o necesitas información sobre un tema diferente, ¡no dudes en preguntar!”, afirmó Grok.

Sin embargo, en respuesta a un mensaje diferente, la herramienta generó una imagen de una figura política junto a un símbolo de discurso de odio, una señal de que, independientemente de las restricciones que tenga Grok, parecen no aplicarse de manera consistente.


Jon Passantino de CNN contribuyó a este informe.