Vulnerabilidad digital

La peligrosa puerta que abrió la Inteligencia Artificial: una nueva forma de ejercer violencia

En el Día de la Seguridad Informática se resalta la importancia de proteger datos personales de ciberdelincuentes, pero una nueva tendencia vulnera a un amplio sector de la sociedad.

Por Celeste Funes

Este 30 de noviembre se celebra el Día Internacional de la Seguridad Informática. En esta fecha, diferentes organismos buscan concientizar sobre la importancia de cuidar la información personal que es compartida en el ciberespacio, así como saber reconocer delitos informáticos. No obstante, con el desembarco arrasador de la Inteligencia Artificial (IA) en nuestro día a día, protegernos de ciertas vulneraciones se torna cada vez más complejo.

Es difícil navegar por sitios webs o redes sociales y no ver alguna publicación creada parcial o completamente con algún tipo de sistema de IA. Esta herramienta no solo facilita la producción de textos u obtención de información, sino que cada vez es más utilizada, en su capacidad generativa, para poner ciertas ideas en imágenes o videos. Como es de esperarse, esto es un imán de críticas y halagos.

Cómo la IA profundiza nuevas formas de ejercer violencia

La IA generativa ofrece un mundo de posibilidades pero en algunos casos, lo que podría ser una puerta hacia nuevas formas de creatividad o el refuerzo de determinadas habilidades humanas se convierte en una caja de pandora direccionada hacia mujeres, niños, adolescentes y disidencias.

En los últimos meses, en escuelas de diferentes provincias se encendieron las alarmas por una nueva modalidad de violencia de género: estudiantes comenzaron a crear con IA imágenes de sus compañeras de índole sexual. ¿El objetivo principal?: venderlas a terceros.

Puntualmente, en el Colegio Agustiniano San Andrés, ubicado en el municipio bonaerense de San Martín, un joven de 15 años es investigado por la Justicia tras distribuir “deep fakes” de, al menos, 22 chicas de entre 13 y 17 años. Casos similares se replicaron en La Plata, Córdoba, Chaco o Río Negro, de acuerdo con La Nación.

html-css-collage-concept-with-hacker.jpg

Generalmente, los métodos utilizados por los victimarios son tomar imágenes reales de las jóvenes y desnudarlas con IA Generativa o colocar su rostro en alguna fotografía o video de contenido pornográfico. Las formas de ejercer este tipo de violencia digital pueden variar y tomar múltiples formas, pero el daño provocado en las víctimas es el mismo: temor, angustia y sensación de pérdida de control sobre el propio cuerpo.

En diálogo conSitio Andino, la Doctora en Ciencias Sociales de la UNCuyo y autora del libro “Mandar fotitos. Mujeres jóvenes, imagen y sexualidad en la era digital (2023)”, Valentina Arias, afirmó: “Esto es, sin dudas, una forma de violencia sexual digital. Sabemos que los deep fakes pueden hacer que se representen imágenes o videos de mujeres realizando actos sexuales que nunca ocurrieron y puede ser devastador para las víctimas”.

“Todo lo que es creación de contenido que distorsiona la identidad de una persona afecta la salud mental y emocional de las víctimas”, afirma Arias.

También te puede interesar: Gran Bretaña: la inteligencia artificial agravaría el abuso sexual infantil

“Esto plantea serias preocupaciones sobre la autopercepción y el derecho a decidir sobre el propio cuerpo”, continúa. Para Arias, la capacidad que tiene la IA de manipular imágenes para crear contenido sexual tiene “el potencial de afectar de manera muy profunda la identidad de las jóvenes. La sensación de pérdida del control me parece que es fulminante en estos casos. Es un tipo de violencia digital que, además, contribuye a la cosificación de las mujeres y de las disidencias porque promueven la idea de que los cuerpos pueden ser manipulados, explotados o comercializados sin su consentimiento”.

En este aspecto, se produce una naturalización tanto de la objetivación como de la violencia y el abuso sexual, lo que puede derivar en la pérdida de confianza en la imagen personal, inseguridades relacionadas de la alteración de la identidad y dificultad en el ejercicio del control y las decisiones sobre el cuerpo, señala la Magíster en Psicoanálisis. “Esto hace que se constituya en una vulneración muy clara de la privacidad y de la autonomía de las jóvenes”, completa.

Precarización laboral a un avatar de distancia

La implementación de la Inteligencia Artificial en el ámbito laboral divide las aguas. Por un lado, el sin fin de posibilidades que ofrece esta herramienta provoca un entusiasmo que no se limita al ámbito informático. Por otro lado, en varios sectores de la sociedad preocupa que este sistema pueda ser utilizado para reemplazar a las personas, dejando “obsoletos” algunos puestos de trabajo con la excusa de eficientizar recursos.

Al respecto, Arias ejemplifica con un caso puntual: “Sobre lo que se conoce como industria 4.0 -integración de diferentes tecnologías como la robótica, IA, el internet de las cosas, la impresión 3D, la realidad aumentada, entre otras-, hay estudios de Naciones Unidas que anticipan que va a ser una industria que va a generar pérdida de empleo”.

En esta línea, los datos señalan que esta problemática afectará de forma más negativa a mujeres y disidencias. Según detalló la docente, por cada 1 trabajo ganado por un varón en la industria 4.0, se van a perder 3. En el caso de las mujeres, por cada 1 puesto de trabajo se perderían 5. “Va a tender a aumentar la desigualdad de acceso a estos puestos. Además de que las de las industrias 4.0 son carreras en las que, históricamente, las mujeres y las disidencias han tenido menos lugar y menos protagonismo”, añade.

GPT 3 (1)

A mediados de este año, el gobierno de Ucrania anunció que la portavoz del Ministerio de Relaciones Exteriores sería Victoria Shi, un avatar creado con IA. Lo curioso de este caso es que, más allá de que el puesto podría ser ocupado por una persona, se tomó la decisión de que el género de la portavoz sea femenino. Un caso similar ocurre con Alba Renai, una conductora e “influencer” de España.

“Son tendencias que tienden a desvalorizar el trabajo humano. Especialmente en aquellos empleos en áreas de comunicación, marketing, atención al cliente o de cuidados que son áreas en las que históricamente se han desarrollado las mujeres y las disidencias”, explica Arias.

“El uso de IA en estos roles conduce a la despersonalización del trabajo y, eventualmente, a la eliminación de puestos laborales que antes podían ser desempeñados por personas”.

También te puede interesar: WhatsApp: cómo identificar y evitar nuevas estafas virtuales

Problematizar a la IA: cómo pararse ante la IA y a dónde recurrir ante ciberdelitos

En octubre del 2023, la ley 26.485 de Protección Integral a las Mujeres se modificó para incluir la normativa 27.736 -también conocida como Ley Olimpia por la activista mexicana Olimpia Coral Melo- e incorpora a la violencia digital como una modalidad de violencia de género.

Aunque no menciona explícitamente los Deep Fakes, sí hace foco en la difusión no consensuada de imágenes, vídeos o audios íntimos. Esto cubre la creación y distribución de contenido tanto real como falsificado”, explica Arias. Según la académica, “crear leyes que regulen el uso de la IA en cuanto a la generación de contenidos” es fundamental como estrategia para trabajar en aquellos casos donde se violan los derechos de las personas.

“Hay que promover la alfabetización digital, la alfabetización mediática con un enfoque crítico en las escuelas, concientizar acerca de los riesgos de las tecnologías y, sobre todo, saber cómo protegerse y detectar contenidos falsificados”, detalla Valentina Arias.

La académica también precisa que es necesario “problematizar la IA”. Es común escuchar que esta herramienta “no es mala ni buena” sino que depende del uso que se le da, pero Arias señala que esta no es neutral por dos motivos:

“Primero, porque están producidas por seres humanos y, por lo tanto, llevan las marcas de ese tipo de producción. Quiero decir, son producidas en un determinado momento, en un determinado espacio y cargan con esas marcas contextuales. Se (crean), además, para determinados fines, con determinados objetivos”.

Asimismo, detalla que “tiene efectos muy concretos en nuestro mundo y, por lo tanto, también en nuestra forma de vivir. Por ejemplo, respecto de ChatGPT, hay estudios que dicen que las respuestas que da son las típicas que daría un varón de mediana edad, de raza blanca, de tendencia heterosexual, de clase social media alta que vive en la costa oeste de Estados Unidos”. Esto, explica, se debe justamente a que se relaciona con las características sociodemográficas de los ingenieros, técnicos o profesionales que trabajaron sobre esta herramienta.

Por ello, señala que también es imperioso incluir la ética digital en los programas de formación. “La cuestión de la igualdad de género, la diversidad y la no discriminación en el diseño y en el uso de estas herramientas tiene que ser central en los procesos formativos de ingenieros, ingenieras y de personal técnico relacionado con estas tecnologías”, concluye.

Denunciar ciberdelitos:

Si fuiste víctima de un ciberdelito, podés denunciarlo:

  • Línea 137: Funciona las 24 horas, los 365 días del año para brindar contención, orientación y acompañamiento a víctimas de violencia familiar y sexual;
  • Si sospechás que un niño o un adolescente es víctima de grooming o explotación sexual podés comunicarte por WhatsApp al 11-3133-1000. En esta línea nacional y gratuita, el Equipo Contra las Violencias Digitales te asesorará y acompañará hasta el momento de hacer la denuncia.
  • Línea 102: Una línea directa de la Secretaría Nacional de Niñez, Adolescencia y Familia (SENAF), que brinda un servicio gratuito y confidencial de atención especializada sobre los derechos de niños y adolescentes. Funciona las 24 horas los 365 días del año. Es de alcance nacional y está operada por equipos especializados de cada provincia.

En la provincia de Mendoza, se puede realizar la denuncia de forma online en la página del Ministerio Público Fiscal o presencialmente en una Oficina Fiscal, comisarías o en la Unidad de Delitos Informáticos.

En los casos de ciberacoso o de difusión de imágenes íntimas -ya sean reales o falsas creadas con IA- desde la fiscalía recordaron que, para dicho proceso, es fundamental no eliminar los mensajes que se hayan mantenido con el victimario y, de ser posible, asistir con el teléfono celular. "Las capturas de pantalla no tienen valor como prueba digital porque no se puede corroborar que sean fidedignas. Lo más importante es que podamos acceder al celular para verificar los mensajes y archivos que se han intercambiado”, explican.

También te puede interesar: Consejos para prevenir estafas y delitos en adultos mayores

Te Puede Interesar