Polémica: Apple ordena las fotos en ropa interior de las usuarias de iPhone

apple-sujetador
El avance de la tecnología favorece a muchos campos: medicina, burocracia, seguridad… pero, a veces, los usuarios no son conscientes de lo que un algoritmo es capaz de hacer. Como, por ejemplo, encontrar y clasificar las fotos en ropa interior que muchos pueden tener almacenadas en su galería del móvil, como hace Apple.

Los iPhones, en sus últimas actualizaciones, disponen de un buscador en forma de lupa en la galería de fotos, situada en la esquina superior derecha. ¿Para qué sirve?

El reconocimiento de objetos y caras lleva presente en los iPhones desde iOS 10

Esencialmente, con este sistema, podemos buscar a través de palabras clave. Con sólo poner una palabra, iOS ofrece una criba de las imágenes que se pueden etiquetar con ese término, lo cual lleva a aceptar que el sistema operativo haya clasificado previamente todas las fotos, incluidas las más sugerentes, vergonzosas o íntimas.

La polémica ha sido muy grande sobre todo en Estados Unidos al descubrir que, en efecto, si se escribe la palabra «sujetador» en el buscador, aparecen las fotografías que se hayan hecho las usuarias en ropa interior o en bikini, por ejemplo. Es una clara muestra del funcionamiento de la Inteligencia Artificial de Apple; aunque la  incorporación de algoritmos viene de iOS 10, ha tenido que pasar algo más de un año para que los usuarios comprobaran cómo funcionan realmente las AI en un dispositivo móvil.

El reconocimiento facial de Apple permite identificar a quienes aparecen en las fotos de manera habitual para crear composiciones con ellos, la localización y el tiempo también sirven para crear un mapa de las fotos tomadas y la clasificación de objetos ayuda a la AI a organizar el contenido de la galería.

De esta forma, al abrir la función de la lupa podemos encontrar categorías ya creadas automáticamente, como «cerca», «hace un año»,»casa» o «julio de 2017». Sin embargo, con unas rápidas búsquedas descubrimos categorías tan bizarras como «manduca» para las fotos de comida, «sombreros de ala ancha», «vestidos de fiesta» y….sí, también «sujetador» y otras palabras.

Las categorías no implican una brecha en la seguridad, ni tampoco que Apple esté haciendo nada con nuestras fotos más allá de poner un poco de orden en el archivo. Sin embargo, llama la atención que entre las palabras clave que Apple otorga a los dispositivos para clasificar las imágenes sí encontremos referencias al atuendo femenino pero no al masculino: es decir, si un usuario intenta buscar sus propias fotos en calzoncillos, el iPhone no devolverá ningún resultado.

Yaiza Ibarra

Periodista multiplataforma, compagina la redacción con el doblaje. Aprendiendo sin parar en TreceBits, escribe artículos sobre Internet y Redes Sociales.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Información sobre protección de datos

  • TreceBits te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Manuel Moreno Molina (TreceBits) como responsable de esta web.
  • La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para gestionar los comentarios que realizas en este blog.
  • Legitimación: Consentimiento del interesado.
  • Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de HOST EUROPE IBERIA S.L.U. (proveedor de hosting de TreceBits. HOST EUROPE IBERIA S.L.U. está ubicado en UE, en España un país cuyo nivel de protección son adecuados según la Comisión de la UE. Ver política de privacidad de HOST EUROPE IBERIA S.L.U.
  • Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@trecebits.comasí como el derecho a presentar una reclamación ante una autoridad de control.
  • Puedes consultar la información adicional y detallada sobre Protección de Datos en nuestra política de privacidad.