Rusia, China y las grandes empresas tecnológicas utilizan mujeres falsas para obtener clics

Cuando el investigador de desinformación Wen-Ping Liu investigó los esfuerzos de China para influir en las recientes elecciones de Taiwán empleando cuentas falsas en las redes sociales, cualquier cosa surgió de los perfiles con mejor desempeño.

Eran mujeres, o al menos eso daban la impresión de ser. Los perfiles falsos que se hacen pasar por mujeres obtienen más participación, más ojos y más influencia que las cuentas supuestamente masculinas.

«Fingir ser mujer es la forma de ganar credibilidad», dijo Liu, investigadora del Ministerio de Justicia de Taiwán.

Ya sean agencias de propaganda chinas o rusas, estafadores en línea o chatbots de inteligencia artificial, ser mujer vale la pena, lo que demuestra que, aunque la generación sea cada vez más sofisticada, el cerebro humano sigue siendo extrañamente fácil de piratear gracias en parte a lo antiguo. Estereotipos de género que han migrado de lo global genuino a lo global virtual.

La gente ha atribuido durante mucho tiempo características huguy, como el género, a elementos inanimados (los barcos son un ejemplo), por lo que tiene sentido que las características huguy hagan que los perfiles falsos de las redes sociales o los chatbots sean más atractivos. Sin embargo, las preguntas sobre cómo esas tecnologías pueden reflejar los estereotipos de género están ganando atención a medida que más asistentes de voz y chatbots basados ​​en IA ingresan al mercado, desdibujando aún más la línea entre hombre (y mujer) y máquina.

«Es necesario inyectar emoción y calor, y una forma muy innegable de hacerlo es decidir sobre el rostro y la voz de una mujer», dijo Sylvie Borau, profesora de marketing e investigadora web en Toulouse, Francia, cuyas pinturas descubrieron que los usuarios de la web prefieren » bots «femeninos» y ellos más humanos que las versiones «masculinas».

La gente tiende a ver a las mujeres como más cálidas, menos amenazantes y más comprensivas que los hombres, dijo Borau a The Associated Press. Al mismo tiempo, los hombres son percibidos como más competentes, aunque también con mayor probabilidad de ser amenazantes u hostiles. , muchas otras personas posiblemente estarían, consciente o inconscientemente, más dispuestas a interactuar con una cuenta falsa haciéndose pasar por una mujer.

Cuando Sam Altman, director ejecutivo de OpenAI, buscaba una nueva voz para el programa ChatGPT AI, contactó a Scarlett Johansson, quien dijo que Altman le dijo que los usuarios encontrarían su voz «reconfortante». Hace unos años, la actriz interpretó a la papel de asistente de computadora en la película «Her». Johansson rechazó la solicitud de Altman y amenazó con demandar cuando la empresa usó lo que consideró una voz «inquietantemente similar». OpenAI ha puesto la nueva voz en espera.

Las fotografías de perfil femenino, especialmente aquellas que muestran mujeres con la mejor piel, labios exuberantes y ojos saltones con atuendos reveladores, pueden resultar atractivas en línea para muchos hombres.

Los usuarios también tratan a los bots descubiertos según su género percibido: los estudios de Borau descubrieron que los chatbots «femeninos» tienen muchas más probabilidades de sufrir acoso sexual y amenazas que los bots «masculinos».

Los perfiles de las mujeres en las redes sociales obtienen en promedio más de tres veces más perspectivas que los de los hombres, según una investigación de más de 40. 000 perfiles realizada para la AP a través de Cyabra, una corporación de generación israelí especializada en la detección de bots. Cyabra descubrió que los perfiles femeninos que fingen ser más jóvenes obtienen las máximas perspectivas.

«Crear una cuenta falsa y presentarla como una mujer hará que la cuenta obtenga mayor éxito que si se presentara como un hombre», según el informe de Cyabra.

Las campañas de influencia en línea llevadas a cabo en países como China y Rusia han utilizado durante mucho tiempo a mujeres falsas para difundir propaganda y desinformación. Estas campañas explotan las opiniones de la gente sobre las mujeres. Algunas se parecen a abuelas sabias y amorosas que imparten la sabiduría de su hogar, mientras que otras emulan a mujeres jóvenes convencionalmente cachondas y deseosas de comunicar política con hombres mayores.

El mes pasado, investigadores de la empresa NewsGuard descubrieron que se estaban utilizando un montón de cuentas falsas, algunas con fotos de perfil generadas mediante inteligencia sintética, para criticar al presidente Joe Biden. Esto sucedió después de que algunos partidarios de Trump comenzaran a publicar una foto privada en la que decían que «no votarían por Joe Biden».

Aunque la mayoría de los mensajes eran auténticos, más de 700 procedían de cuentas falsas. La mayoría de los perfiles afirmaban ser mujeres jóvenes que vivían en estados como Illinois o Florida; uno llamado PatriotGal480. Pero muchas cuentas usaban prácticamente el mismo idioma y presentaban imágenes de perfil generadas mediante inteligencia sintética o robadas a otros usuarios. Y aunque no podían decir con certeza quién operaba esas cuentas falsas, descubrieron docenas con vínculos con países como Rusia y China.

Social X eliminó las cuentas después de que NewsGuard se comunicara con la plataforma.

Un informe de la ONU sugiere que hay una explicación aún más evidente de por qué tantas cuentas falsas y chatbots son femeninos: fueron creados por hombres. El informe, titulado «¿Son sexistas los robots?», analiza las disparidades de género en las industrias tecnológicas y concluye que una mayor La diversidad en la programación y la progresión de la IA puede conducir a menos estereotipos de género integrados en sus productos.

Para los programadores que no logran hacer que sus chatbots sean lo más humanos posible, eso crea un dilema, dijo Borau: si tienen un personaje femenino, ¿están fomentando perspectivas sexistas sobre mujeres genuinas?

«Es un círculo vicioso», dijo Borau. Humanizar la IA puede simplemente deshumanizar a las mujeres».

Suscríbete para accederMapa del sitio

Síganos

MORE FROM THE L.A. TIMES

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *