Los usuarios están utilizando el nuevo generador de imágenes de OpenAI para formar parte de las tendencias virales de redes sociales. Pero su uso pone en riesgo la privacidad, a menos que se tomen unas sencillas medidas de contención.
A inicios de abril, las figuras de acción en redes sociales como LinkedIn y X incrementaron su popularidad. Cada estatuilla representaba a la persona que la había creado con una precisión asombrosa, incluyendo accesorios personalizados como tazas de café, audífonos, smartphones y tapetes de yoga.
Todo esto es posible gracias al nuevo generador de imágenes GPT-4o de OpenAI, que potencia la capacidad del chatbot para editar imágenes, renderizar texto y mucho más. De igual forma, el generador puede diseñar imágenes al estilo de Studio Ghibli, una tendencia que también se viralizó rápidamente. Los contenidos son divertidos y parecen fáciles de crear: lo único que necesitas es abrir una cuenta gratuita en ChatGPT y subir una foto. No obstante, crear una figura de acción o una imagen al estilo Studio Ghibli implica entregar muchos datos a OpenAI, que podrían utilizarse para entrenar sus próximos modelos.
Cada vez que subes una imagen a ChatGPT, estás entregando todo un paquete de metadatos. "Esto incluye los datos EXIF adjuntos al archivo de imagen, como la hora en que se tomó la foto y las coordenadas del lugar donde se hizo", explica Tom Vazdar, director del área de ciberseguridad del Open Institute of Technology.
Vazdar añade que OpenAI también recopila datos sobre el dispositivo que utilizas para acceder a la plataforma. Es decir, si usas un smartphone, PC o tablet, el sistema operativo del aparato, la versión del navegador e identificadores únicos: "Y como plataformas como ChatGPT funcionan de forma conversacional, también hay datos de comportamiento, como lo que has tecleado, qué tipo de imágenes has pedido, cómo has interactuado con la interfaz y la frecuencia de esas acciones".
No se trata solo de tu rostro. Si subes una foto en alta resolución, también estás entregando a OpenAI todo lo que aparece en la imagen. Por ejemplo, el fondo, otras personas, objetos en tu habitación o cualquier texto legible, como documentos o insignias, detalla Camden Woollven, jefe de grupo de marketing de productos de IA en la empresa de gestión de riesgos GRC International Group. Este tipo de datos proporcionados voluntariamente y con consentimiento son "una mina de oro para entrenar modelos generativos", especialmente los multimodales que se basan en datos visuales.
OpenAI niega rotundamente que las tendencias fotográficas virales sean estrategias para recopilar datos de los usuarios, aunque es evidente que la compañía se está beneficiando de ellas. "OpenAI no necesita rastrear la web en busca de tu cara si tú mismo la subes. Esta tendencia, ya sea por diseño o por una oportunidad conveniente, está proporcionando a la empresa volúmenes masivos de datos faciales frescos y de alta calidad de diversos grupos de edad, etnias y geografías", señala Vazdar.
La compañía encabezada por Sam Altman afirma que su objetivo no es buscar información personal para entrenar sus modelos de IA y que "no utiliza datos públicos de internet para construir perfiles sobre los usuarios con el fin de lanzar publicidad personalizada o vender sus datos", según reiteró un portavoz de OpenAI a WIRED. Sin embargo, según la política de privacidad actual de la compañía, las imágenes enviadas a través de ChatGPT pueden conservarse y utilizarse para mejorar sus modelos.
Según Jake Moore, asesor global de ciberseguridad de la empresa de seguridad ESET, quien creó su propia figura de acción para demostrar los riesgos de privacidad de esta tendencia en LinkedIn, cualquier dato, sugerencia o petición que compartas ayuda a enseñar al algoritmo, y la información personalizada permite afinarlo aún más.
En algunos mercados, las fotos están protegidas por la normativa. En el Reino Unido y la Unión Europea, el Reglamento General de Protección de Datos (GDPR) ofrece una sólida protección, incluido el derecho a acceder a tus datos o eliminarlos. Igualmente, los archivos biométricos requieren un consentimiento explícito.
"Sin embargo, las fotografías se convierten en datos biométricos solo cuando se procesan a través de un medio técnico específico que permite la identificación única de un individuo concreto", afirma Melissa Hall, asociada sénior del bufete de abogados MFMac. Es poco probable que el tratamiento de una imagen para crear una versión caricaturizada del sujeto de la fotografía original se ajuste a esta definición.
Mientras tanto, en Estados Unidos, la protección de la intimidad varía. "California e Illinois están a la cabeza con leyes de protección de datos más estrictas, pero no existe una postura estándar en todos los estados", asegura Annalisa Checchi, socia de la firma de abogados especializada en propiedad intelectual Ionic Legal. Además, la política de privacidad de OpenAI no incluye una exclusión explícita de los datos biométricos o de imagen, lo que "crea una zona gris para las cargas faciales estilizadas", advierte Checchi.
Los riesgos incluyen que tu imagen o semejanza se conserve, se utilice potencialmente para entrenar futuros modelos o se combine con otros datos para crear perfiles publicitarios. "Aunque estas plataformas suelen dar prioridad a la seguridad, el uso a largo plazo de tu imagen es desconocido, y es difícil retractarse una vez que se ha subido", expresa Checchi.
OpenAI afirma que la privacidad y seguridad de sus usuarios es una prioridad absoluta. Un portavoz de la compañía refirió a WIRED que su misión es que sus modelos de IA aprendan sobre el mundo, no sobre los individuos, y que minimizan activamente la recopilación de información personal.
Según la empresa, los usuarios tienen control sobre cómo se utilizan sus datos, con herramientas de autoservicio para acceder, exportar o eliminar información personal. También pueden optar por que sus contenidos no se utilicen para mejorar los modelos. Los usuarios de ChatGPT gratis, Plus y Pro pueden controlar si contribuyen a futuras mejoras en la configuración de los controles de datos. OpenAI no entrena por defecto con los datos de los clientes de ChatGPT Team, Enterprise y Edu.
La próxima vez que sientas la tentación de sumarte a una tendencia impulsada por ChatGPT, como las figuras de acción o las imágenes al estilo Studio Ghibli, es aconsejable que consideres la contrapartida en términos de privacidad. Los riesgos se aplican tanto a ChatGPT como a muchas otras herramientas de edición o generación de imágenes con IA, por lo que es importante leer la política de privacidad antes de subir tus fotos.
También hay medidas que puedes tomar para proteger tus datos. En ChatGPT, la más eficaz es desactivar el historial de chat, lo que ayuda a garantizar que tus datos no se utilicen para entrenamiento. O bien, puedes subir imágenes anónimas o modificadas, por ejemplo, utilizando un filtro o generando un avatar digital en lugar de una foto real.
Conviene eliminar los metadatos de los archivos de imagen antes de subirlos, lo cual es posible con herramientas de edición fotográfica. Vazdar recomienda a los usuarios evitar los mensajes que incluyan información personal sensible y abstenerse de subir fotos de grupo o cualquier imagen con elementos identificables en el fondo.
Vale la pena revisar dos veces la configuración de tu cuenta de OpenAI, especialmente las relacionadas con el uso de datos para entrenamiento. "Ten en cuenta si hay herramientas de terceros implicadas y nunca subas la foto de otra persona sin su consentimiento", añade Hall. Los términos de OpenAI dejan claro que eres responsable de lo que subes, así que la concienciación es clave.
Por su parte, Checchi aconseja desactivar el entrenamiento de modelos en la configuración de OpenAI, evitar las indicaciones con localización y no vincular los contenidos a perfiles sociales: "La privacidad y la creatividad no son mutuamente excluyentes, solo hay que ser un poco más intencional".
Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores.
Posted hace 2 semanas