Las películas del ‘Estudio Ghibli’ suelen tener un estilo de animación único, que ha enamorado a millones de personas, y con la nueva actualización del ChatGPT las personas pueden recrear sus imágenes con este estilo, pero lo que no saben es que esto puede ser un riesgo, debido a que la información queda en algún sitio de la web y los delincuentes lo pueden utilizar para robar la información.

Estas nuevas tendencias han provocado una gran controversia al respecto, ya que mientras unos sí están de acuerdo, a otros les parece que la inteligencia artificial está abusando de la propiedad intelectual de este estudio.

Relacionadas

Aunque esto parece ser algo inofensivo, ha llamado la atención de muchos usuarios, pues las redes sociales están llenas de estas imágenes al estilo del ‘Estudio Ghibli’, pero existe un riesgo de crear estas fotografías con inteligencia artificial.

¿Cuál es el riesgo de realizar estas imágenes?

El uso de fotos puede ser una amenaza, ya que millones de personas contribuyen con sus datos biométricos a las diferentes herramientas de inteligencia artificial, ya que como lo hacen de manera gratuita, no caen en cuenta de que estos datos quedan en la web.

Mónica Vargas, máster en Inteligencia Artificial, explicó: “Cuando el usuario usa estas herramientas de forma gratuita, el producto es el usuario, es decir, que sus datos son vendidos para, por ejemplo, publicidad de otros productos. Es por eso que te llegan cosas por redes sociales asociadas a tu comportamiento”.

Al subir estas imágenes a la web, los datos de la biometría facial son más vulnerables a los ataques de robo o filtración, lo que facilita el hackeo de las cuentas y esto significa un mayor riesgo para la seguridad.

“Los riesgos aumentan cuando se suben fotos en las que aparecen niños, porque sus padres o tutores están entregando información. A veces se basan en estas informaciones para redes de pornografía. Quizá sea un caso extremo, pero es algo que hay que tomar en cuenta”, agregó Vargas.

Además, con el gran número de rostros cargados con la inteligencia artificial, algunos ciberdelincuentes pueden crear ‘huellas maestras’, que combinan ciertas características comunes de varias personas del mundo, para poder romper los métodos de seguridad.