Empresas tecnológicas se arman para evitar los abusos de la IA

0
642
Empresas tecnológicas se arman para evitar los abusos de la IA
Empresas tecnológicas se arman para evitar los abusos de la IA

El caso denunciado alerta de las aplicaciones que crean con IA generativa imágenes con fines delictivos. Google, Microsoft y otras empresas buscan soluciones para minimizar los riesgos de esta tecnología

El alarmante incidente reportado en Almendralejo (Badajoz), en el que se denunció la difusión de imágenes de menores desnudas generadas con inteligencia artificial, ha generado preocupación acerca de los riesgos emergentes asociados al uso de la IA generativa.

En los últimos meses, con el éxito de herramientas como ChatGPT, se ha observado una proliferación constante de aplicaciones de IA que posibilitan la creación de imágenes pornográficas hiperrealistas, vídeos y fotografías con la intención de difamar la reputación, vulnerar la privacidad y la imagen de individuos, fabricar pruebas falsas para procesos judiciales o generar contenido para llevar a cabo diversas formas de estafa. Abordar este grave problema se presenta como un desafío complicado.

“Ni la tecnología, ni estas aplicaciones se pueden prohibir, porque no solo se utilizan para usos ilegales. Igual que existe el sexting, donde hay personas que se mandan fotos de desnudos y no hay ningún problema porque es algo consentido entre ellas, también podrían decidir enviarse fotos suyas, pero creadas con IA. Por tanto, no es una cuestión de tecnología, sino de consentimiento, y de si se hace un uso legal o ilegal de la IA generativa”, explica Borja Adsuara, abogado especializado en derecho digital, privacidad y protección de datos.

Este experto enfatiza que existen numerosas aplicaciones de IA que permiten no solo crear imágenes de desnudos, sino también realizar ediciones fotográficas como eliminar a una persona de una foto o aplicar otros retoques, acciones que son completamente legales. Además, resalta que si se llegara a prohibir estas herramientas, se plantearía la necesidad de prohibir también el uso de Photoshop, ya que “todo lo que se hace actualmente con la IA generativa se realizaba en los años 90 con Photoshop”.

La diferencia clave radica en que hoy en día estas capacidades están al alcance de cualquier persona, sin necesidad de tener conocimientos avanzados en programas de edición, y además, los resultados son considerablemente mejores que los obtenidos hace dos décadas.

Adsuara recuerda que este debate sobre si se puede prohibir una tecnología o unas aplicaciones ya se planteó en los 90 con la piratería intelectual, con las redes P2P. “Se intentó, pero los tribunales dijeron que no, porque esa tecnología también servía para el intercambio de archivos legales entre particulares” afirma.

Grandes empresas

La interrogante que surge en muchos casos, como el de Almendralejo, es si las grandes empresas de tecnología especializadas en inteligencia artificial, como Google, Microsoft o OpenAI, tienen alguna forma de responsabilidad.

Josep Curto, director del máster de Inteligencia Artificial de la UOC, señala que una vez que la EU AI Act (la futura regulación europea de la inteligencia artificial) entre en vigor, estas empresas asumirán una serie de responsabilidades, especialmente en lo que respecta a los sistemas de IA de alto riesgo y a la categoría especial de IA generativa. Esto es lo ideal, pero muchas no lo ven viable. Toca esperar.

Puede interesarte:

Cinco configuraciones que afectan la calidad de imagen de la TV