Polémica: Apple ordena las fotos en ropa interior de las usuarias de iPhone

apple-sujetador
El avance de la tecnología favorece a muchos campos: medicina, burocracia, seguridad… pero, a veces, los usuarios no son conscientes de lo que un algoritmo es capaz de hacer. Como, por ejemplo, encontrar y clasificar las fotos en ropa interior que muchos pueden tener almacenadas en su galería del móvil, como hace Apple.

Los iPhones, en sus últimas actualizaciones, disponen de un buscador en forma de lupa en la galería de fotos, situada en la esquina superior derecha. ¿Para qué sirve?

El reconocimiento de objetos y caras lleva presente en los iPhones desde iOS 10

Esencialmente, con este sistema, podemos buscar a través de palabras clave. Con sólo poner una palabra, iOS ofrece una criba de las imágenes que se pueden etiquetar con ese término, lo cual lleva a aceptar que el sistema operativo haya clasificado previamente todas las fotos, incluidas las más sugerentes, vergonzosas o íntimas.

La polémica ha sido muy grande sobre todo en Estados Unidos al descubrir que, en efecto, si se escribe la palabra «sujetador» en el buscador, aparecen las fotografías que se hayan hecho las usuarias en ropa interior o en bikini, por ejemplo. Es una clara muestra del funcionamiento de la Inteligencia Artificial de Apple; aunque la  incorporación de algoritmos viene de iOS 10, ha tenido que pasar algo más de un año para que los usuarios comprobaran cómo funcionan realmente las AI en un dispositivo móvil.

El reconocimiento facial de Apple permite identificar a quienes aparecen en las fotos de manera habitual para crear composiciones con ellos, la localización y el tiempo también sirven para crear un mapa de las fotos tomadas y la clasificación de objetos ayuda a la AI a organizar el contenido de la galería.

De esta forma, al abrir la función de la lupa podemos encontrar categorías ya creadas automáticamente, como «cerca», «hace un año»,»casa» o «julio de 2017». Sin embargo, con unas rápidas búsquedas descubrimos categorías tan bizarras como «manduca» para las fotos de comida, «sombreros de ala ancha», «vestidos de fiesta» y….sí, también «sujetador» y otras palabras.

Las categorías no implican una brecha en la seguridad, ni tampoco que Apple esté haciendo nada con nuestras fotos más allá de poner un poco de orden en el archivo. Sin embargo, llama la atención que entre las palabras clave que Apple otorga a los dispositivos para clasificar las imágenes sí encontremos referencias al atuendo femenino pero no al masculino: es decir, si un usuario intenta buscar sus propias fotos en calzoncillos, el iPhone no devolverá ningún resultado.

Yaiza Ibarra

Periodista multiplataforma, compagina la redacción con el doblaje. Aprendiendo sin parar en TreceBits, escribe artículos sobre Internet y Redes Sociales.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

INFORMACIÓN BÁSICA SOBRE PROTECCIÓN DE DATOS

Responsable: TreceBits S.L. (TreceBits)
Finalidad: Que puedan comentar las noticias publicadas
Legitimación: Consentimiento del interesado. Satisfacción del interés legítimo del Responsable.
Destinatarios: No se cederán a terceros salvo obligación legal.
Derechos: Puedes ejercitar en cualquier momento tus derechos de acceso, rectificación, supresión, limitación, oposición y demás derechos legalmente establecidos a través del siguiente e-mail: [email protected].
Información adicional: Puedes consultar la información adicional y detallada sobre protección de datos aquí.