Marta García Aller: “Los algoritmos no están preparados para sortear la estupidez humana”

Marta García Aller: “Los algoritmos no están preparados para sortear la estupidez humana”

Marta García Aller | Foto TreceBits

 

ENTREVISTA realizada por Manuel Moreno de TreceBits a Marta García Aller, periodista de El Confidencial, Onda Cero y La Sexta en España. Acaba de publicar el libro «Lo imprevisible» (Editorial Planeta). 

 Marta, en la era del big data, de los algoritmos, ¿por qué estos no pudieron prever la pandemia global?





-Cuando empezó la pandemia, los médicos empezaron a pedirnos que nos quedásemos en casa mucho antes que los políticos. Y los epidemiólogos llevaban años alertando de que las inversiones en la prevención de pandemias eran insuficientes, porque el riesgo de que ocurriera algo como la Covid-19 era cada vez mayor. A medida que el mundo se interconectaba más y la destrucción de ecosistemas avanzaban, crecía el riesgo de que un virus zoonótico se convirtiera en una amenaza global. Lo más peligroso de este virus, además de la rapidez de contagio, fue que inicialmente se lo menospreció. ¿Hubiéramos creído a un algoritmo que nos dijera en febrero que lo más sensato sería que 200 millones de personas nos confinásemos durante 15 días? No. Lo imprevisible no es siempre aquello que no se puede prever, es también aquello que, por más que nos avisen, no terminamos de creer que pueda llegar a sucedernos.

China había confiado en su nueva condición de potencia tecnológica para prevenir la próxima pandemia, había desarrollado un sofisticado sistema de alertas para la detección temprana de enfermedades infecciosas, porque tenía la experiencia del SARS y el MERS. Lo tenían todo listo. Obviamente no funcionó. ¿Qué falló? El miedo en Wuhan a enfadar a Pekín. Al final no fue ningún sofisticado mecanismo lo que alertó, sino filtraciones anónimas de médicos chinos espantados de la inacción política ante lo que estaban viviendo. Los algoritmos no siempre están preparados para sortear la manipulación. Tampoco están a prueba del miedo, ni de la ineptitud política o la estupidez humana. Por eso a la estupidez le dedico un capítulo entero en el libro.

Es fundamental entender lo irracionales que somos a veces para comprender por qué nunca dejaremos de ser imprevisibles para las máquinas. Cuando se habla del transhumanismo muchos expertos dan por hecho que vivir más conectados a las máquinas o incluso introducirlas en nuestro cerebro para aumentar nuestras capacidades nos volverá más inteligentes y productivos. ¿Y si utilizamos toda esa capacidad para ver más memes absurdos? Por mucho que avance la tecnología, hay cosas que no cambian en los humanos.

-Creíamos que podíamos tenerlo controlado todo… ¿pero no era completamente al revés? ¿Estamos en un mundo “imprevisible”?

-Hay muchas cosas que se pueden prever que antes no se podían. Poder prever nuestros gustos, hace posible prever nuestros miedos. Y si no somos conscientes de ello eso nos hace más manipulables. Decía el sociólogo Pierre Bourdieu que el gusto es aquello por lo que uno se clasifica y por lo que lo clasifican. Saber lo que nos gusta es una forma de descubrir quiénes somos. Por eso es tan importante entender cómo funcionan los algoritmos que anticipan nuestros gustos. Hay una carrera tecnológica para procesar el rastro de datos con el fin de anticipar qué haremos, qué serie veremos, qué pantalón compraremos, qué partido votaremos. Hasta las competiciones deportivas, paradigma del azar, están usando ya inteligencia artificial para afinar en sus entrenamientos y competiciones. Las casas de apuestas también están en la carrera de la IA. ¿Pueden el azar y la competición volverse cada vez más previsibles en un mundo donde el big data está cada vez más presente? ¿Hasta dónde pueden llegar los datos? Todo es cuestión de la cantidad y la calidad de los datos de los que se disponga. El resto depende, claro, de lo imprevisible.

-¿Cómo nos enfrentaremos a este mundo todavía más imprevisible…? ¿Cuáles serían nuestras armas?

-El mundo siempre ha sido imprevisible, pero la sensación de incertidumbre se agudiza según las épocas. En este momento vivimos un momento de enorme incertidumbre en parte por la velocidad de los avances tecnológicos. Y tener tanta tecnología que ha sido capaz de volver previsibles cosas que hasta hace poco no lo eran, nos está desentrenando en gestionar incertidumbre justo cuando más necesitamos esa capacidad. Por eso en ‘Lo Imprevisible’ hablo de cuándo empezamos a predecir el tiempo que va a hacer mañana con relativa certeza y cómo nos cambió eso la capacidad de hacer planes. Es increíble cuántas cosas somos capaces de predecir únicamente mirando la pantalla del móvil (porque el tiempo que hace ya no lo consultamos asomándonos a la ventana, sino preguntándole al teléfono).

El mundo se ha vuelto más previsible gracias a los algoritmos en muchas otras cuestiones que nos hacen más cómoda la vida cotidiana. Por ejemplo, en los desplazamientos. Si no estás en Google Maps, no existes. Y si estás, no sueñes con perderte. ¿Es bueno o malo que ya no nos perdamos? Pues depende de cuánta prisa tengas y cuántas ganas de vivir una aventura en el bosque. En los mapas de hoy en día, además de los lugares, aparecen las personas que los usan. Registran en tiempo real cada paso que damos por el mundo. Y así no hay quien se pierda. Son los algoritmos los que no solo dicen dónde estamos, sino cuántos minutos tardaremos en llegar a nuestro destino. Es un avance tecnológico relativamente reciente que resume perfectamente el poder de la predictibilidad. Pero por más previsibles que se vuelvan los viajes, hay muchos otros aspectos que seguirán siendo imprevisibles.

Así que en cierto sentido, gracias a la Inteligencia Artificial (o por su culpa, según se mire) el mundo cada vez se va volviendo más previsible, pero hay un enorme margen de acción que depende tanto de los humanos como de la naturaleza que está sujeta al caos, al azar, y que jamás se podrá predecir con big data por más datos que tengamos. No está claro, por ejemplo, cómo de vulnerables nos vamos a sentir viajando en coches que se mueven solos, al menos en una primera fase. De hecho, algunos prototipos se están diseñando con un volante de pega para dar sensación de control al pasajero, como en los viejos tiovivos, en los que hacíamos como que conducíamos. Y cuanto más control deleguemos en las máquinas, más nos costará lidiar con la incertidumbre de la vida cotidiana.

-¿Podemos seguir fiándonos de los datos?

-Los datos, como los oráculos, no siempre son de fiar y a menudo les atribuimos más poder del que realmente tienen. No son infalibles, ni tan neutrales como nos puede parecer. Pero no sé si alguna vez nos hemos fiado del todo de los datos, porque desde que existen los libros de cuentas sabemos que existen los márgenes para hacer anotaciones. En ‘Lo Imprevisible’ hablo del lado oscuro de medirlo todo porque hay muchos datos de dudosa utilidad que los humanos estamos acostumbrados a manipular. Las empresas y las administraciones almacenan grandes cantidades de información sobre clientes y empleados. Pero el verdadero problema está en las métricas que sí se usan, pero que conducen a conclusiones erróneas, porque los datos no son inocentes notarios de la realidad. Si los humanos que los recopilan tienen sesgos, los datos, claro, también. Por eso no podemos tener una confianza ciega en los algoritmos, sean los que calculan los pasos que son beneficiosos para nuestra salud en una pulserita o un sofisticado sistema que ayuda a las cámaras de reconocimiento facial a identificar sospechosos al entrar en Mercadona.

Todos esos cálculos matemáticos que controlan cada vez más aspectos de nuestras vidas no se los inventa una máquina. Son sistemas programados por humanos para procesar una masiva cantidad de información en función de la cual tomar la mejor decisión posible. La mejor, claro, según los datos de los que disponemos. El historiador Jerry Z. Muller ha estudiado casos en los que los datos llevan a conclusiones erróneas, sin que la IA tenga la culpa de nada. Medir la efectividad de la policía en función de las tasas de delincuencia, por ejemplo, incentiva a que los agentes engorden la gravedad de algunos delitos para mejorar sus estadísticas. Evaluar a los médicos por la capacidad de curar a sus pacientes los lleva a priorizar los casos más fáciles, porque así tienen más posibilidades de curarlos; y si se valora a los profesores por el resultado de sus alumnos en los exámenes, en vez de centrarse en motivarlos a aprender, los niños solo aprenderán a aprobar en vez de asimilar verdaderamente los contenidos.

La necesidad de medirlo todo se ha ido filtrando de la gestión empresarial a la vida privada, en la que ya estamos acostumbrados a contar los likes como modo de medir los afectos. Hay dispositivos que lo mismo nos ayudan a monitorizar las horas de sueño que el número de seguidores en redes. La sensación de que podemos cuantificarlo digo en el libro que es como un digestivo. Una especie de Almax para la acidez de la incertidumbre. Cada vez delegamos más decisiones en métricas supuestamente objetivas para sentir que tenemos el control de lo que va a pasar, pero no es más que un espejismo. Los algoritmos son el nuevo oráculo de Delfos.

Continúe leyendo la entrevista en TreceBits