Tecnología

Datos personalesCómo saber si usaron tus fotos para hacer reconocimiento facial

Exposing.ai detecta si tus imágenes de Flickr forman parte de un entrenamiento para algoritmos de inteligencia artificial.

La inteligencia artificial y el reconocimiento facial avanzan a pasos agigantados. Por esta cuestión, más de una vez podemos quedar en medio de un experimento sin saberlo. Exposing.ai es una herramienta que detecta si las fotos de los usuarios de Flickr forman parte de algún conjunto de datos de entrenamiento para algoritmos de inteligencia artificial.

«Si sos usuario de Flickr y subiste fotos que contengan rostros u otra información biométrica entre 2004 y 2020, tus fotos pueden haber sido utilizadas para entrenar, probar o mejorar tecnologías de vigilancia de inteligencia artificial para su uso en aplicaciones académicas, comerciales o relacionadas con la defensa»: así advierten Adam Harvey y Jules LaPlace una situación que podría ser preocupante para muchos usuarios de la que en su momento fuera una popular página para subir y compartir fotos, Flickr.

El proyecto Exposing.ai está basado en años de investigación sobre conjuntos de datos de entrenamiento de imágenes utilizados para el reconocimiento facial y tecnologías de análisis biométrico.

Tras el rastreo y análisis de cientos de datos se descubrió un patrón que indicaba la descarga de millones de imágenes de Flickr, donde se fomentaban licencias de contenido permisivas y abundan los datos biométricos.

Los creadores de esta herramienta, Adam Harvey y Jules LaPlace, advierten a los usuarios de Flickr que hayan subido fotos en los que se vean rostros u otra información biométrica entre 2004 y 2020 que éstas «pueden haber sido usadas para entrenar, probar o mejorar tecnologías de vigilancia de inteligencia artificial para su uso en aplicaciones académicas, comerciales o relacionadas con la defensa».

Exposing.ai funciona únicamente con conjuntos de datos de acceso público, entre los que se incluyen imágenes de Flickr y metadatos. Al introducir el nombre de usuario de Flickr, la URL de la imagen, el NSID o un hashtag, la herramienta permite buscar qué fotos se utilizaron y en qué datasets.

Sin embargo, los usuarios no pueden eliminar las copias existentes de los conjuntos de datos en los que estén incluidos. «Este es uno de los principales problemas de los datasets de imágenes, que no se pueden controlar después de la distribución inicial», explican.

Desde Exposing.ai aseguran que el proyecto no comparte ni almacena las imágenes ni datos de búsqueda de los usuarios. Exposing.ai está basado en el anterior megapixels.cc, un proyecto similar con soporte de Mozilla.

Eso sí, la herramienta no es infalible. Según explican sus creadores, Exposing.ai sirve para buscar fotos subidas a Flickr entre millones de imágenes, aunque solo funciona con datasets de acceso público que incluyeran:

Imágenes de Flickr
Metadatos, aunque en el futuro pretenden expandir la herramienta para analizar otros orígenes
Además, agregan que «lamentablemente, no es posible eliminarse de las copias existentes de los conjuntos de datos en los que hayas sido incluido. Este es uno de los principales problemas de los conjuntos de datos de imágenes, que no se pueden controlar después de la distribución inicial».

Lo que sí se puede hacer es evitar que nuestras imágenes se muestren en la Exposing.ai. Para ello, simplemente hay que ir a Flickr y esconder, borrarlas o hacer privadas todas las fotos.

Agregue un Comentario

Click aquí para agregar un comentario

CADENA 365 EN TU CELULAR

Descarga nuestra app para Android

Encuestas

¿Que expectativas te generan las medidas propuestas por Javier Milei?

Resultados

Cargando ... Cargando ...

Fotonoticias

En la PunaFuror por un pueblito salteño de 250 habitantes ubicado a 4100 de altura
Ver anteriores