Marta García Aller: «Los algoritmos no están preparados para sortear la estupidez humana»

Periodista Marta García Aller

ENTREVISTA a Marta García Aller, periodista de El Confidencial, Onda Cero y La Sexta. Acaba de publicar el libro «Lo imprevisible» (Editorial Planeta).

 Marta, en la era del big data, de los algoritmos, ¿por qué estos no pudieron prever la pandemia global?

-Cuando empezó la pandemia, los médicos empezaron a pedirnos que nos quedásemos en casa mucho antes que los políticos. Y los epidemiólogos llevaban años alertando de que las inversiones en la prevención de pandemias eran insuficientes, porque el riesgo de que ocurriera algo como la Covid-19 era cada vez mayor. A medida que el mundo se interconectaba más y la destrucción de ecosistemas avanzaban, crecía el riesgo de que un virus zoonótico se convirtiera en una amenaza global. Lo más peligroso de este virus, además de la rapidez de contagio, fue que inicialmente se lo menospreció. ¿Hubiéramos creído a un algoritmo que nos dijera en febrero que lo más sensato sería que 200 millones de personas nos confinásemos durante 15 días? No. Lo imprevisible no es siempre aquello que no se puede prever, es también aquello que, por más que nos avisen, no terminamos de creer que pueda llegar a sucedernos.

China había confiado en su nueva condición de potencia tecnológica para prevenir la próxima pandemia, había desarrollado un sofisticado sistema de alertas para la detección temprana de enfermedades infecciosas, porque tenía la experiencia del SARS y el MERS. Lo tenían todo listo. Obviamente no funcionó. ¿Qué falló? El miedo en Wuhan a enfadar a Pekín. Al final no fue ningún sofisticado mecanismo lo que alertó, sino filtraciones anónimas de médicos chinos espantados de la inacción política ante lo que estaban viviendo. Los algoritmos no siempre están preparados para sortear la manipulación. Tampoco están a prueba del miedo, ni de la ineptitud política o la estupidez humana. Por eso a la estupidez le dedico un capítulo entero en el libro.

Vivimos un momento de enorme incertidumbre en parte por la velocidad de los avances tecnológicos

Es fundamental entender lo irracionales que somos a veces para comprender por qué nunca dejaremos de ser imprevisibles para las máquinas. Cuando se habla del transhumanismo muchos expertos dan por hecho que vivir más conectados a las máquinas o incluso introducirlas en nuestro cerebro para aumentar nuestras capacidades nos volverá más inteligentes y productivos. ¿Y si utilizamos toda esa capacidad para ver más memes absurdos? Por mucho que avance la tecnología, hay cosas que no cambian en los humanos.

-Creíamos que podíamos tenerlo controlado todo… ¿pero no era completamente al revés? ¿Estamos en un mundo “imprevisible”?

-Hay muchas cosas que se pueden prever que antes no se podían. Poder prever nuestros gustos, hace posible prever nuestros miedos. Y si no somos conscientes de ello eso nos hace más manipulables. Decía el sociólogo Pierre Bourdieu que el gusto es aquello por lo que uno se clasifica y por lo que lo clasifican. Saber lo que nos gusta es una forma de descubrir quiénes somos. Por eso es tan importante entender cómo funcionan los algoritmos que anticipan nuestros gustos. Hay una carrera tecnológica para procesar el rastro de datos con el fin de anticipar qué haremos, qué serie veremos, qué pantalón compraremos, qué partido votaremos. Hasta las competiciones deportivas, paradigma del azar, están usando ya inteligencia artificial para afinar en sus entrenamientos y competiciones. Las casas de apuestas también están en la carrera de la IA. ¿Pueden el azar y la competición volverse cada vez más previsibles en un mundo donde el big data está cada vez más presente? ¿Hasta dónde pueden llegar los datos? Todo es cuestión de la cantidad y la calidad de los datos de los que se disponga. El resto depende, claro, de lo imprevisible.

-¿Cómo nos enfrentaremos a este mundo todavía más imprevisible…? ¿Cuáles serían nuestras armas?

-El mundo siempre ha sido imprevisible, pero la sensación de incertidumbre se agudiza según las épocas. En este momento vivimos un momento de enorme incertidumbre en parte por la velocidad de los avances tecnológicos. Y tener tanta tecnología que ha sido capaz de volver previsibles cosas que hasta hace poco no lo eran, nos está desentrenando en gestionar incertidumbre justo cuando más necesitamos esa capacidad. Por eso en ‘Lo Imprevisible’ hablo de cuándo empezamos a predecir el tiempo que va a hacer mañana con relativa certeza y cómo nos cambió eso la capacidad de hacer planes. Es increíble cuántas cosas somos capaces de predecir únicamente mirando la pantalla del móvil (porque el tiempo que hace ya no lo consultamos asomándonos a la ventana, sino preguntándole al teléfono).

El mundo se ha vuelto más previsible gracias a los algoritmos en muchas otras cuestiones que nos hacen más cómoda la vida cotidiana. Por ejemplo, en los desplazamientos. Si no estás en Google Maps, no existes. Y si estás, no sueñes con perderte. ¿Es bueno o malo que ya no nos perdamos? Pues depende de cuánta prisa tengas y cuántas ganas de vivir una aventura en el bosque. En los mapas de hoy en día, además de los lugares, aparecen las personas que los usan. Registran en tiempo real cada paso que damos por el mundo. Y así no hay quien se pierda. Son los algoritmos los que no solo dicen dónde estamos, sino cuántos minutos tardaremos en llegar a nuestro destino. Es un avance tecnológico relativamente reciente que resume perfectamente el poder de la predictibilidad. Pero por más previsibles que se vuelvan los viajes, hay muchos otros aspectos que seguirán siendo imprevisibles.

Así que en cierto sentido, gracias a la Inteligencia Artificial (o por su culpa, según se mire) el mundo cada vez se va volviendo más previsible, pero hay un enorme margen de acción que depende tanto de los humanos como de la naturaleza que está sujeta al caos, al azar, y que jamás se podrá predecir con big data por más datos que tengamos. No está claro, por ejemplo, cómo de vulnerables nos vamos a sentir viajando en coches que se mueven solos, al menos en una primera fase. De hecho, algunos prototipos se están diseñando con un volante de pega para dar sensación de control al pasajero, como en los viejos tiovivos, en los que hacíamos como que conducíamos. Y cuanto más control deleguemos en las máquinas, más nos costará lidiar con la incertidumbre de la vida cotidiana.

-¿Podemos seguir fiándonos de los datos?

-Los datos, como los oráculos, no siempre son de fiar y a menudo les atribuimos más poder del que realmente tienen. No son infalibles, ni tan neutrales como nos puede parecer. Pero no sé si alguna vez nos hemos fiado del todo de los datos, porque desde que existen los libros de cuentas sabemos que existen los márgenes para hacer anotaciones. En ‘Lo Imprevisible’ hablo del lado oscuro de medirlo todo porque hay muchos datos de dudosa utilidad que los humanos estamos acostumbrados a manipular. Las empresas y las administraciones almacenan grandes cantidades de información sobre clientes y empleados. Pero el verdadero problema está en las métricas que sí se usan, pero que conducen a conclusiones erróneas, porque los datos no son inocentes notarios de la realidad. Si los humanos que los recopilan tienen sesgos, los datos, claro, también. Por eso no podemos tener una confianza ciega en los algoritmos, sean los que calculan los pasos que son beneficiosos para nuestra salud en una pulserita o un sofisticado sistema que ayuda a las cámaras de reconocimiento facial a identificar sospechosos al entrar en Mercadona.

Llevamos dependiendo la tecnología desde que inventamos una lasca de sílex

Todos esos cálculos matemáticos que controlan cada vez más aspectos de nuestras vidas no se los inventa una máquina. Son sistemas programados por humanos para procesar una masiva cantidad de información en función de la cual tomar la mejor decisión posible. La mejor, claro, según los datos de los que disponemos. El historiador Jerry Z. Muller ha estudiado casos en los que los datos llevan a conclusiones erróneas, sin que la IA tenga la culpa de nada. Medir la efectividad de la policía en función de las tasas de delincuencia, por ejemplo, incentiva a que los agentes engorden la gravedad de algunos delitos para mejorar sus estadísticas. Evaluar a los médicos por la capacidad de curar a sus pacientes los lleva a priorizar los casos más fáciles, porque así tienen más posibilidades de curarlos; y si se valora a los profesores por el resultado de sus alumnos en los exámenes, en vez de centrarse en motivarlos a aprender, los niños solo aprenderán a aprobar en vez de asimilar verdaderamente los contenidos.

La necesidad de medirlo todo se ha ido filtrando de la gestión empresarial a la vida privada, en la que ya estamos acostumbrados a contar los likes como modo de medir los afectos. Hay dispositivos que lo mismo nos ayudan a monitorizar las horas de sueño que el número de seguidores en redes. La sensación de que podemos cuantificarlo digo en el libro que es como un digestivo. Una especie de Almax para la acidez de la incertidumbre. Cada vez delegamos más decisiones en métrucas supuestamente objetivas para sentir que tenemos el control de lo que va a pasar, pero no es más que un espejismo. Los algoritmos son el nuevo oráculo de Delfos.

-¿De qué manera la Inteligencia Artificial nos ayudará a vivir en un mundo mejor? ¿Dependeremos más de las máquinas?

Llevamos dependiendo la tecnología desde que inventamos una lasca de sílex. Somos dependientes a una enorme cantidad de tecnologías que, como ya estaban aquí cuando nacimos, nos parece normal depender de ellas. ¿Acaso no nos parece normal ser tan dependientes del frigorífico? ¿Y de la cafetera? ¿Y del ascensor? Pues ahora estamos desarrollando una nueva tecnología, que tan nueva no es, que es la inteligencia artificial y que lo está cambiando todo como hace un siglo y pico lo cambió la electricidad. La inteligencia artificial no es un poder infalible, sino solo una herramienta más para hacernos la vida más fácil. Tiene un enorme potencial para lograrlo a niveles desconocidos. Nunca la humanidad ha tenido una tecnología tan poderosa. Hay enormes avances médicos que salvarán millones de vidas gracias a ello. Pero también entraña enormes riesgos. Tener tanto poder, en las manos equivocadas, también puede causar daños desconocidos. Otro problema potencial es el de la desigualdad que se puede producir al expulsar del mercado laboral a millones de personas cuyos puestos son automatizables es uno de ellos en el corto plazo. Por eso es tan importante empezar a formar a la gente en las profesiones del futuro, aunque la mayoría ni siquiera tenga nombre todavía. En el libro le dedico un capítulo entero al empleo porque creo que es de las cosas que más interesan a la hora de entender cómo está cambiando el mundo. Nos jugamos mucho en ello. Las rutinas, que son lo más previsible, tarde o temprano se automatizarán. A los humanos nos quedará gestionar todo lo imprevisible, que es mucho. Pero no es a la inteligencia artificial a lo que hay que temer, sino a la falta de preparación para adaptarse a ella.

-¿Qué papel jugará en esta nueva realidad Internet y las redes sociales?

-La verdad se ha convertido en arenas movedizas y reconocerla va a ser uno de los grandes desafíos del siglo XXI. No solo por lo fácil que es diseminar noticias falsas como estrategia política. Los deepfakes abren una nueva dimensión de incertidumbre. El único antídoto para desactivar las sofisticadas mentiras creadas por la inteligencia artificial es la propia inteligencia artificial. Los gigantes tecnológicos trabajan ya con varias universidades para investigar nuevas maneras de detectar deepfakes y prevenir a los medios de la distribución de vídeos secretamente manipulados. Es actualmente una de las mayores amenazas para la geopolítica. Y no es solo un problema que se agudiza en campañas electorales. El deepfake también amenaza a empresas y particulares, porque a medida que se abarata es más fácil engañar a la gente, porque todavía creemos lo que vemos. Y puede que este sea el último siglo, mejor dicho, la última década, en la que eso pase. El deepfake está a punto de arruinar uno de los mejores gags de la historia del cine: «¿A quién va usted a creer? ¿A mí o a sus propios ojos?»

Manuel Moreno

Periodista y fundador de TreceBits. Consultor y formador en Social Media. Ponente y conferenciante. Profesor de redes sociales y periodismo 2.0. Colaborador en prensa, radio y TV. Autor de cuatro libros de Social Media. Más información en manuelmoreno.es

Un comentario sobre “Marta García Aller: «Los algoritmos no están preparados para sortear la estupidez humana»

  • el 20/07/2020 a las 22:04
    Permalink

    Wuao!!! Esto si es un excelente tema…..magnifico…Como hacen falta personas así…con este tipo de temas. INTELIGENTE!!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Información sobre protección de datos

  • TreceBits te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Manuel Moreno Molina (TreceBits) como responsable de esta web.
  • La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para gestionar los comentarios que realizas en este blog.
  • Legitimación: Consentimiento del interesado.
  • Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de HOST EUROPE IBERIA S.L.U. (proveedor de hosting de TreceBits. HOST EUROPE IBERIA S.L.U. está ubicado en UE, en España un país cuyo nivel de protección son adecuados según la Comisión de la UE. Ver política de privacidad de HOST EUROPE IBERIA S.L.U.
  • Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@trecebits.comasí como el derecho a presentar una reclamación ante una autoridad de control.
  • Puedes consultar la información adicional y detallada sobre Protección de Datos en nuestra política de privacidad.