domingo, septiembre 8, 2024
InicioTecnologíaPor qué Rusia, China y las grandes tecnológicas utilizan perfiles falsos de...

Por qué Rusia, China y las grandes tecnológicas utilizan perfiles falsos de mujeres para conseguir clics


Thank you for reading this post, don't forget to subscribe!

WASHINGTON (AP) — Cuando el investigador de desinformación Wen-Ping Liu investigó los esfuerzos de China para influir Las recientes elecciones de Taiwán Al utilizar cuentas falsas en redes sociales, algo inusual se destacó en los perfiles más exitosos.

Eran mujeres, o al menos eso parecían ser. Los perfiles falsos que afirmaban ser de mujeres consiguieron más interacción, más visitas y más influencia que las cuentas supuestamente masculinas.

“Hacerse pasar por mujer es la forma más fácil de conseguir credibilidad”, dijo Liu, investigadora del Ministerio de Justicia de Taiwán.

Ya sea Chino o Agencias de propaganda rusasestafadores en línea o chatbots de inteligencia artificial, es mejor ser mujer, lo que demuestra que, si bien la Tecnología puede volverse cada vez más sofisticada, el cerebro humano sigue siendo sorprendentemente fácil de hackear gracias en parte a viejos estereotipos de género que han migrado del mundo real al virtual.

Imagen

ARCHIVO – Los taiwaneses hacen fila para votar afuera de un centro de votación en Taipei, Taiwán, el 13 de enero de 2024. (Foto AP/Chiang Ying-ying, Archivo)

La gente ha asignado desde hace mucho tiempo características humanas como el género a objetos inanimados (los barcos son un ejemplo), por lo que tiene sentido que los rasgos similares a los humanos hagan que los perfiles falsos en las redes sociales o los chatbots sean más atractivos. Sin embargo, las preguntas sobre cómo estas tecnologías pueden reflejar y reforzar los estereotipos de género están recibiendo atención a medida que más asistentes de voz y chatbots habilitados con IA ingresan al mercado, lo que aumenta la popularidad de los chatbots. Desdibujando las líneas Entre el hombre (y la mujer) y la máquina.

“Quieres inyectar algo de emoción y calidez y una forma muy fácil de hacerlo es elegir el rostro y la voz de una mujer”, dijo Sylvie Borau, profesora de marketing e investigadora en línea en Toulouse, Francia. Cuyo trabajo ha descubierto que los usuarios de Internet prefieren los bots “femeninos” y los ven como más humanos que las versiones “masculinas”.

La gente tiende a ver a las mujeres como personas más cálidas, menos amenazantes y más agradables que los hombres, dijo Borau a The Associated Press. Los hombres, por su parte, suelen ser percibidos como más competentes, aunque también más propensos a ser amenazantes u hostiles. Debido a esto, muchas personas pueden estar, consciente o inconscientemente, más dispuestas a interactuar con una cuenta falsa que se hace pasar por una mujer.

Cuando el director ejecutivo de OpenAI, Sam Altman, buscaba una nueva voz para el programa de inteligencia artificial ChatGPT, Se acercó a Scarlett Johanssonquien dijo que Altman le dijo que los usuarios encontrarían su voz, lo que sirvió como El asistente de voz homónimo En la película “Her”, “reconfortante”. Johansson rechazó la petición de Altman y amenazó con demandar a la compañía cuando esta optó por una voz que ella llamó “extrañamente similar”. OpenAI suspendió la nueva voz.

Fotos de perfil femeninasen particular aquellas que muestran mujeres con piel perfecta, labios carnosos y ojos grandes con atuendos reveladores, pueden ser otro atractivo en línea para muchos hombres.

Imagen

ARCHIVO – Scarlett Johansson asiste a los Golden Heart Awards, el 16 de octubre de 2023, en Nueva York. (Foto de Evan Agostini/Invision/AP, Archivo)

Los usuarios también tratan a los bots de forma diferente según su sexo percibido: la investigación de Borau descubrió que los chatbots «femeninos» tienen muchas más probabilidades de recibir acoso sexual y amenazas que los bots «masculinos».

Los perfiles de las redes sociales de mujeres reciben en promedio más del triple de visitas que los de los hombres, según un análisis de más de 40.000 perfiles realizado para la AP por Cyabra, una empresa tecnológica israelí especializada en la detección de bots. Los perfiles de mujeres que dicen ser más jóvenes son los que reciben más visitas, según Cyabra.

“Crear una cuenta falsa y presentarla como una mujer ayudará a que la cuenta tenga más alcance en comparación con presentarla como un hombre”, según el informe de Cyabra.

Las campañas de influencia en línea montadas por países como China y Rusia han utilizado durante mucho tiempo mujeres falsas para… difundir propaganda y desinformaciónEstas campañas suelen explotar la opinión que la gente tiene de las mujeres. Algunas aparecen como abuelas sabias y protectoras que imparten sabiduría casera, mientras que otras imitan a mujeres jóvenes, convencionalmente atractivas y deseosas de hablar de política con hombres mayores.

El mes pasado, los investigadores de la firma NewsGuard descubrieron que cientos de cuentas falsas (algunas con fotos de perfil generadas por inteligencia artificial) se habían utilizado para criticar al presidente Joe Biden. Esto ocurrió después de que algunos partidarios de Trump comenzaran a publicar una foto personal con el anuncio de que “no votarían por Joe Biden”.

Si bien muchas de las publicaciones eran auténticas, más de 700 provenían de cuentas falsas. La mayoría de los perfiles afirmaban ser de mujeres jóvenes que vivían en estados como Illinois o Florida; una se llamaba PatriotGal480. Pero muchas de las cuentas usaban un lenguaje casi idéntico y tenían fotos de perfil generadas por inteligencia artificial o robadas de otros usuarios. Y si bien no pudieron decir con certeza quién operaba las cuentas falsas, encontraron docenas con vínculos a países como Rusia y China.

X eliminó las cuentas después de que NewsGuard se comunicó con la plataforma.

Un informe de la ONU sugirió que hay una razón aún más obvia por la que… Tantas cuentas falsas y chatbots son mujeres: fueron creadas por hombres. El informe, titulado “ ¿Son los robots sexistas?”, miró Disparidades de género en las industrias tecnológicas y concluyeron que una mayor diversidad en la programación y el desarrollo de IA podría llevar a que haya menos estereotipos sexistas incorporados en sus productos.

Para los programadores ansiosos por hacer que sus chatbots sean lo más humanos posible, esto crea un dilema, dijo Borau: si seleccionan un personaje femenino, ¿están fomentando puntos de vista sexistas sobre las mujeres de la vida real?

“Es un círculo vicioso”, dijo Borau. “Humanizar la IA podría deshumanizar a las mujeres”.





RELATED ARTICLES
- Advertisment -

Most Popular

Recent Comments