Adobe está creando una "marca de agua" para las imágenes generadas por IA.

Adobe está creando una "marca de agua" para las imágenes generadas por IA.

El zaguero temazo de Drake y The Weeknd es fenómeno, pero no era de ellos, lo hizo una Inteligencia Artificial IA.

La foto que ganó el Sony World Photography Award es espectacular.

Los jurados se dieron cuenta de que todavía había sido creado con una IA generativa.

No paramos de ver imágenes, música e incluso algún que otro vídeo pasmoso, y eso plantea un problema: diferenciar qué ha sido creado por el ser humano y qué ha sido creado por IA.

Una alianza por la autenticidad del contenido. Adobe lidera la señal Content Authenticity Initiative (CAI), un consorcio de cerca de 1.000 miembros entre los que hay empresas de contenidos, startups tecnológicas o fabricantes de cámaras.

¿Su objetivo? Crear una serie de estándares que permitan confirmar la autenticidad del contenido digital.

Los contenidos falsos según Deepfakes

Deepfakes y contenidos falsos. La empresa creó el montón en 2019, pero es ahora cuando su faena se ha vuelto más importante que nunca en presencia de la avalancha de contenidos generados por IA.

Sobre todo en lo que respecta a los deepfakes que se salen del ámbito de los memes y que pueden ayudar a la desinformación.

Las imágenes del Papa o de Donald Trump que se hicieron virales son una buena demostración del problema.

¿Qué hacer al respecto?

Adobe está creando una "marca de agua" para las imágenes generadas por IA.

Marcas de agua. La alternativa que propone el CAI es usar un "hash criptográfico de bienes para proporcionar firmas verificables y a prueba de manipulaciones", que luego se modificarían para reverberar cualquier inquietud.

El montón compara la norma con una "protocolo nutricional" para los contenidos digitales.

En esencia sería poco similar a una marca de agua invisible que se aplicaría a todo contenido generado por IA para poder confirmar si está o no generado por este tipo de sistemas.

Contenidos con historial médico. Esas marcas de agua criptográficas hacen que al crear un contenido el autor pueda designar si preservar la atribución o permanecer en el anonimato.

Incluso al editar por ejemplo imágenes con Photoshop se pueden capturar metadatos y se va creando una especie de "historial de alteraciones" al contenido para conocer cómo y cuándo ha sido modificado.

Ese contenido luego se puede consultar, historial incluido, con herramientas como Verify.

Pero hay un desafío anciano. La alternativa tecnológica existe, pero la medida solo será efectiva si se aplica de forma masiva.

Eso significa que este "etiquetado" funcionará solo si un gran número de empresas lo aplican.

Ahí es donde Adobe, referente en el mercado, puede ayudar.

Fabricantes como Nikon o Leica ya han accedido a integrar la tecnología en algunas de sus cámaras, y la CAI retraso que miembros como Associated Press o el Washington Post implementen este unificado.

Open Source e interoperable. El trabajo de la CAI es adicionalmente un explicación Open Source que permite usar herramientas interoperables.

Su propuesta se ajusta a las especificaciones que en 2022 emitió la Coalition for Content Provenance and Authenticity (C2PA), un organismo que precisamente trabaja en esta misma dirección.

En él que están integrados empresas como la propia Adobe, la BBC, Intel, Microsoft o Sony, y hace ya dos abriles que la aclaración está acondicionado en GitHub.

Como en el caso de la CAI, el objetivo es "proporcionar a editores, creadores y consumidores la posibilidad de rastrear el origen de distintos tipos de soportes".

No todo es de color de rosa. Neal Krawetz, perito en ciberseguridad, daba una visión poco distinta de estas iniciativas en Hacker Autor.

Según él la CAI no hacía mucho más que encargar su web, y criticaba que tanto CAI como C2PA son consorcios cerrados a la billete independiente.

Para él hay otra opción.

JPEG-FM.El JPEG Working Group que desarrolla este conocido unificado creó un montón de trabajo llamado JPEG-FM (por Fake Media, "contenidos falsos").

El proceso es mucho más rajado y manifiesto, y el objetivo es el mismo: dar soluciones a la desinformación, alteraciones o representaciones erróneas en contenidos.

TinyEye y los hashes perceptuales. Krawezt aludía adicionalmente a otra posible alternativa al problema.

Se prostitución de los llamados hashes perceptivos, de los qu ehabló en una charla flamante y que son distintos a los hashes criptográficos que pretende usar Adobe.

Esta es la tecnología en la que por ejemplo está basada TinyEye, una plataforma de búsqueda inversa de imágenes que entre otras cosas permite encontrar y demostrar imágenes protegidas por derechos de autor.

¿Funcionará? Lo cierto es que los conceptos técnicos de ambas propuestas parecen sólidos y plantean una potencial alternativa al problema. Hay otras soluciones, desde luego, como el identificador de la propia OpenAI.

El desafío, como decíamos, es el de su aplicación masiva.

Si la industria (y los usuarios) no comienzan a servirse estas soluciones cuando estén efectivamente disponibles, será difícil afrontar una situación previsible.

La de una avalancha de contneidos generados por IA que adicionalmente serán virtualmente indistinguibles de los que puede crear el ser humano.

Adobe está creando una "marca de agua" para las imágenes generadas por IA.

En Xataka | Ya hay una web que promete distinguir las imágenes reales de las generadas por IA. Obviamente, tiene truco

 

Source link

Si quieres conocer otros artículos parecidos a Adobe está creando una "marca de agua" para las imágenes generadas por IA. puedes visitar la categoría Inteligencia Artificial.

Deja un comentario

Subir

Esta web wtiliza cookies Más información