Ofertas en tecnología

Adobe presenta sus herramientas para combatir la ola de deepfakes

Altavoz inteligente Echo Dot

Adobe puede lanzar una función de identificación de autor y autenticación de contenido digital en el futuro para combatir la reciente ola de falsificaciones profundas dañinas. El proyecto se denomina Iniciativa de Autenticidad del Contenido (o Iniciativa de autenticidad de contenido, en inglés) y ha existido durante tres años, centrándose en socios en la industria de los medios y la tecnología. El objetivo es crear un rastro para averiguar quién fue el responsable de producir un video o imagen en particular, así como identificar los cambios realizados.

La premisa es similar a las populares fichas no fungibles (NFT) que existen en la actualidad. Así como NFT tiene un propietario y pertenece a una colección, cada medio creado en un software de edición tendría una huella digital del autor.

Adobe intenta crear mecanismos para identificar a los autores de la imagen y evitar deepfakes (Imagen: Reproducción/Adobe)

Según un informe de la revista Forbes, este es el segmento que más atención ha recibido de Adobe en los últimos años. También fue el área que mostró mayor crecimiento, ya que existe una necesidad real de combatir la situación de alguna manera.

Adobe realizó un esfuerzo por reinventar todos sus productos utilizando inteligencia artificial y técnicas de aprendizaje profundo (profunda inclinación), una iniciativa conocida internamente como «AI First». La idea no es solo crear estas huellas digitales, sino también facilitar las ediciones de Photoshop que requieren mucho tiempo para ayudar con tareas simples como cambiar el fondo o eliminar personas no deseadas de una foto.

La característica ayudaría a identificar el deepfake

Adobe lucha por luchar contra un mal que indirectamente ayudó a crear: el deepfake. El fabricante del software de edición de fotos y videos más popular del mundo enfrenta el dilema de luchar contra las características vistas como una carta de triunfo en un pasado no muy lejano.

Deepfake es una técnica de creación de videos falsos con un realismo que puede confundir a cualquiera. Se pueden recrear rostros, expresiones faciales, cuerpos e incluso voces para que parezcan idénticos a las víctimas. La cosa es tan grave que ni las inteligencias artificiales avanzadas son capaces de identificar montajes muy bien hechos.

La compañía ha estado trabajando para rediseñar su mix de productos utilizando técnicas de inteligencia artificial y aprendizaje profundo, pero sin dejar de lado la seguridad. Photoshop y Premiere Pro serían los focos más importantes, porque son una parte importante de las técnicas de falsificación profunda. Los dos productos, junto con Illustrator y Acrobat, representaron el 73 % de los ingresos de la empresa en 2021, de ahí la necesidad de seguir siendo relevantes sin renunciar a las IA.

Deepfake en aumento

El dilema es que las manipulaciones ya no se usan solo por diversión y comenzaron a usarse con un sesgo político partidista. Las asambleas de personalidades diciendo algo absurdo o contradiciendo sus ideologías son cada vez más comunes, lo que puede tener efectos desastrosos en las democracias, especialmente en periodos electorales.

Recientemente, un claro ejemplo de la práctica: un perfil suplanta a la actriz Margot Robbie en TikTok. Los videos están destinados al entretenimiento y no atacan al artista, pero eventualmente podrían ser utilizados para este fin, dado el realismo del contenido.

@unreal_margot Me gusta el último. ¿Y usted? #margotrobbie #movies #viral #fyp ♬ sonido original – Unreal Margot Robbie

Si bien debe reinventarse para luchar contra rivales como Canva, Adobe debe ser cauteloso en el uso de IA de optimización de imágenes. Según el consejero general y director de confianza de Adobe, Dana Rao, las herramientas pueden hacer que algo falso se vuelva extremadamente real.

Rao dice que se reunió con el director de productos de la compañía, Scott Belsky, hace tres años para abordar este problema. “Estábamos analizando todas las innovaciones que teníamos en la edición con IA y ambos pensamos lo mismo al mismo tiempo: muy pronto, dado que la IA podría ser más poderosa que la edición humana, no podrás distinguir la realidad de la ficción. , realidad de realidad artificial”, explicó en la entrevista con Forbes.

Contenido falso y volverse viral

La herramienta de autenticidad podría minimizar este problema, pero ¿no podrían los delincuentes eludir el sistema? Incluso si eso no sucede, ¿les interesaría a los políticos saber si el video de un candidato rival es falso antes de compartirlo en las redes sociales?

La ola de noticias falsas en España y en el mundo demuestra que no lo es. Es mejor publicar algo falso y luego disculparse, solo si se desenmascara el fraude, que perder la oportunidad de atacar a una persona descontenta. Vale recordar que la legislación mundial ha avanzado para sancionar no solo a los autores de mentiras, sino también a responsabilizar a los consumidores por su difusión en redes sociales o aplicaciones de chat.

A pesar del trabajo periodístico de investigación, al final, la obligación de buscar la verdad debe recaer en el regazo de la gente. Adobe hace su parte, el TecnoBreak hace su parte, pero el usuario también deberá hacer su tarea, de lo contrario, el mundo podría convertirse en una enorme Matrix.

Fuente: Forbes

Tommy Banks
Estaremos encantados de escuchar lo que piensas

Deje una respuesta

TecnoBreak | Ofertas y Reviews
Logo
Enable registration in settings - general
Shopping cart