spot_img

Ciberacoso con IA crece en universidades de EUA

Organizaciones civiles exigen a las autoridades una legislación nacional que restrinja esta pornografía falsa creada con Inteligencia Artificial

Fecha:

Al despertarse una mañana de octubre, Ellis, una adolescente de 14 años de Texas, tenía varias llamadas perdidas y mensajes de texto con imágenes de ella desnuda que circulaban en las redes sociales.

Las fotos falsas (basadas en su cara real y un cuerpo desnudo superpuesto) habían sido enviadas a compañeros de clase que difícilmente podían imaginarse el engaño.

Y es que la inteligencia artificial (IA) hace que los llamados “deepfakes” (videos, imágenes o audios generados que imitan la apariencia y el sonido de una persona) sean cada vez más realistas.

Las imágenes originales de Ellis y su amiga, que también fue víctima, fueron tomadas de Instagram, contó la estudiante de secundaria a la AFP.

Y no solo las de ellas, sino las de otras compañeras de clase. Después las fotos se compartieron en la aplicación móvil Snapchat. 

“Parecía real, como si los cuerpos (desnudos) parecieran cuerpos reales”, dijo la adolescente. “Y recuerdo haber estado muy, muy asustada”.

Foto: Unicef

A medida que se desarrolla la IA, también lo hace la pornografía deepfake, con imágenes y vídeos hiperrealistas que pueden crearse con un mínimo esfuerzo y dinero, lo que ha provocado escándalos y acoso en varios centros de enseñanza secundaria de Estados Unidos.

Las autoridades intentan suplir la falta de una legislación federal que prohíba la práctica.

“Las niñas no paraban de llorar y llorar. Estaban muy avergonzadas”, declaró Anna McAdams, la madre de Ellis, quien se sorprendió de lo realistas que parecían las imágenes. “No querían ir al colegio”.

¿Qué son las Deepfake?

Un deepfake es un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona. También llamados “medios sintéticos”, son tan convincentes a la hora de imitar lo real que pueden engañar tanto a las personas como a los algoritmos.

Los deepfakes son generados por la IA en directo, y sus formas más comunes de aplicación son en videos o como filtros de realidad aumentada.

Deepfake” como término proviene de la combinación de las palabras “deep learning” y “Fake”, para representar algo falso que es resultado de la tecnología de aprendizaje profundo.

Urge una legislación contra que frene las Deepfake

El mes pasado, el presidente estadounidense Joe Biden firmó un decreto sobre IA que pide al gobierno generar barreras “contra la producción de material de abuso sexual infantil y contra la producción de imágenes íntimas no consensuadas de individuos reales“.

En muchos casos ha resultado difícil localizar a los creadores de algunas imágenes, pero eso no debería impedir que las empresas de inteligencia artificial detrás de ellas o las plataformas de las redes sociales donde se comparten rindan cuentas, estima Farid.

El problema es que no existe una legislación nacional que restrinja esta pornografía y sólo un puñado de estados han aprobado leyes que la regulan.

“Aunque se superponga tu cara a un cuerpo, el cuerpo no es realmente tuyo”, dijo Renee Cummings, especialista en ética de la IA.

Información: Once Noticias

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimas Noticias:

Noticias relacionadas

45 millones de personas enfrentan inseguridad alimentaria

El fuerte aumento de los precios de la energía y las interrupciones en el suministro de petróleo, gas...

Asia Occidental: ultimátum de Trump hacia Irán llega a su hora límite

Este martes por la noche, a las 20:00 horas (tiempo del Este), concluye el ultimátum lanzado por el presidente de Estados...

Destinos sinaloenses muestran su diversidad turística esta Semana Santa

Más allá de la playa, la entidad invita a descubrir su riqueza histórica y natural en una temporada...

Al menos 48 supervivientes en avión accidentado en Colombia

El avión Hércules C-130 de la Fuerza Aérea Colombiana (FAC) que se accidentó este lunes (23.03.2026) al despegar de la...