La revista profesional sobre tecnología y transformación digital

Tribuna

teresapascual

Teresa Pascual Ogueta

Ingeniera de Telecomunicación

Algoritmos. Motivo de controversia

 

 

 

Aunque los algoritmos resuelven de forma brillante numerosas cuestiones, no son la panacea para todo tipo de problemas.

Steve Wozniak, uno de los fundadores de Apple, se quejó airadamente este otoño por los criterios que sigue el algoritmo que utiliza esta empresa para decidir la cantidad de dinero que presta a los clientes de su tarjeta de crédito. Argumenta Wozniak que, aunque su mujer y él tienen idénticos datos financieros, el crédito concedido a su mujer es diez veces inferior. No es el único que ha reclamado por la misma razón. Parejas que comparten por igual todo su patrimonio, ven cómo a ellas se les ha concedido un crédito varias veces inferior al de ellos. La respuesta de Goldman Sachs, que trabaja para Apple en este asunto, es que su algoritmo, que determina el importe a prestar, no discrimina por sexo.

Un algoritmo es sólo un conjunto definido de reglas que permiten resolver un problema concreto. Nada más y nada menos. Esa es su gran fuerza y también su mayor limitación. Hay problemas cuya solución no responde a reglas fijas o a protocolos conocidos, y ahí un algoritmo no tiene capacidad para resolver con eficacia, pero sobre todo con rigor.

Los algoritmos son viejos conocidos que manejamos en su forma más simple desde nuestra más tierna infancia. Con ellos aprendimos las operaciones más sencillas, que ahora es capaz de hacerlas hasta nuestro reloj. Ése fue un gran paso, poder codificar (programar) esas reglas, para que un procesador pueda ejecutarlas y obtener el resultado.

Hay una campaña propagandística que promociona el algoritmo con unos poderes de los que carece. Si hasta ahora la respuesta favorita de las empresas a los clientes insatisfechos era :“Es cosa del ordenador”, a partir de ahora será: “Es el algoritmo”. Se le hace responsable de las decisiones controvertidas, de las que no son justas ni
transparentes. Pero un algoritmo no tiene vida propia, sino que opera con las instrucciones que le programan para que resuelva con los datos que le suministran quienes lo diseñan.

El ansia por monetizar a la menor oportunidad y la falta de control por parte de entidades reguladoras está poniendo en el mercado sistemas algorítmicos para aplicaciones críticas sin garantía de fiabilidad.

El sesgo de los datos

Una empresa estadounidense ha hecho público, que el algoritmo para selección de personal que han desarrollado, ya lo están utilizando varias empresas americanas y europeas. Esta empresa, según anuncia en su página web, aspira a ser el equivalente de Netflix en el ámbito de la selección de personal.

Su método se basa en el análisis del rostro y en la manera de hablar de la persona que es entrevistada a través de vídeo. Este programa analiza su lenguaje, su tono de voz, el tipo de palabras y si son cortas o largas, las expresiones que utiliza, la velocidad a la que habla, manera en la que mira y los gestos que hace. Después, compara todos esos
datos adquiridos durante la entrevista, con 25000 piezas de información facial y  lingüística, recopiladas en entrevistas anteriores a quienes han demostrado ser útiles para ese trabajo.

Aunque la selección no automatizada no es justa per se, la calidad de la elección hecha por personas es contrastable. Quien hace la selección puede explicar, a quien le contrata y a quien entrevista, el porqué de su decisión y el proceso que ha seguido para elegir o rechazar a una persona.

Los sistemas para elegir a trabajadores basados en algoritmos buscan la mejor solución basándose en criterios seguidos en otros momentos, normalmente años de recopilación de datos (“soluciones”), por tanto, tienen desde su génesis todos los sesgos del pasado. También tienen los condicionantes de quienes los diseñan y los programan para que actúen según lo que consideran más adecuado para el objetivo.

Esta compañía americana dice que no hace reconocimiento facial, sino que su algoritmo analiza expresiones faciales como fruncir el ceño, levantar las cejas, abrir o cerrar los ojos, apretar los labios, levantar la barbilla y sonreír.

De todo ello surgen numerosas incógnitas. ¿Quién ha validado las reacciones de las personas consideradas adecuadas? ¿Quién garantiza que los datos almacenados como deseables no tienen sesgos? Expresiones verbales y gestos varían según las distintas culturas, el país e incluso la región; también según la moda del momento o incluso del estado de ánimo puntual de quien aspira al puesto de trabajo ¿Quién garantiza una adecuada actualización de los patrones modelo para que se consideren válidos?

¿Cómo y quién realimenta el sistema? Pero si el sistema no está dotado de la posibilidad de explicar las razones de su elección, no es fiable.

Fiabilidad de datos y de máquinas

La Medicina es el paradigma de la máxima necesidad de fiabilidad de sistemas y equipos. Un investigador estadounidense en Inteligencia Artificial, estadístico de formación, publicó en un artículo reciente cómo recibió la noticia de que el bebé que esperaba su mujer tenía una altísima probabilidad de padecer Síndrome de Down.

Cuando investigó, se dio cuenta de que los criterios para esa decisión provenían de datos estadísticos de una máquina de otro país, que era más antigua y menos precisa que la que había utilizado la ginecóloga. “Esos puntos en la pantalla” no eran predictores del síndrome, eran ruido. La doctora entendió porqué desde que tenían el nuevo equipo había habido un repunte en las diagnosis del síndrome.

No hay que frenar la innovación, pero al igual que en otras industrias, la aeronáutica o la farmacológica por ejemplo, los sistemas de Inteligencia Artificial necesitan que un organismo regulador controle, audite y certifique su fiabilidad antes de su comercialización.

Comparte