La IA, la privacidad en Internet y el uso ético de nuestros datos son temas en el punto de mira de muchos investigadores y usuarios de Internet. Hay muchos problemas asociados a nuestra pérdida de privacidad en la red, y hoy vamos a hablar de uno de los que personalmente creo que son más importantes (y que habitualmente se pasan por alto): el teorema de Bayes. Voy a hablar de por qué implementar un sistema de vigilancia automatizada es una locura a nivel técnico -que al final lleva a planteamientos poco éticos.

Si no tengo nada que ocultar, ¿por qué importa que usen mis datos?

Este es un argumento que mucha gente utiliza cuando se discute sobre privacidad en Internet: yo no estoy haciendo nada ilegal, así que no pasa nada porque me vigilen. Dejando aparte el hecho de que filosóficamente no es ético (porque si no estás haciendo nada malo, ¿qué motivo tienen para meterse en tu vida?) sí que pasan cosas porque te vigilen, incluso si es con algoritmos automáticos.

Lo que empresas como Google y compañía dicen es que tus datos siempre son procesados por algoritmos, nunca por personas. Por tanto, no debes preocuparte de que alguien los vea y los utilice con fines malvados. Algunos gobiernos, como el chino, empiezan a usar esa excusa: si ponemos un montón de cámaras de seguridad en todas partes, hasta en los baños, pero ninguna persona ve las grabaciones, ¿cuál es el problema?

El problema viene de la estadística, pura y dura. Vamos a desmenuzar con calma por qué.

Analizando sangre

Para ilustrar el problema al que nos enfrentamos usaré un ejemplo clásico que he sacado de la Wikipedia inglesa. Supongamos que somos analistas de laboratorio y hacemos un test para detectar un virus en sangre. El test que utilizamos se ha estudiado muy bien, y sabemos que tiene una probabilidad de acertar del 99%. ¡Es decir, va a acertar casi siempre! Además, supongamos que sabemos de entrada que el virus va a afectar a un 0.5% de la población.

Muy bien, entonces nosotros estamos en un hospital enorme. Supongamos que tenemos 20.000 frasquitos de sangre por analizar. El 0.5% estarán infectados, es decir, solamente 100 de esos frascos tienen la enfermedad. Cuando los analicemos todos, 99 de esos frascos darán positivo, porque nuestro test funciona al 99%. ¡Hemos acertado con casi todos los enfermos! Tal y como esperábamos. Pero la historia no acaba aquí: aparte de los 100 frascos infectados, nos quedan 19.900 frascos sanos. ** Como el test se equivoca con un 1% de probabilidad, obtendremos 199 resultados positivos. ¡Hay un montón de pacientes sanos que darán positivo en el test!**

¿Veis cuál es el problema? Como la enfermedad afecta a poca gente, aunque acertemos casi todos los frascos infectados, hay tanta gente sana que al final tenemos un montón de falsos positivos. En resumen, nosotros tenemos al final 298 frascos positivos, de los cuales 99 estarán infectados, pero… ¿quién es quién?

Los matemáticos suelen tratar este problema de una manera un poco más formal, a través del teorema de Bayes. En resumidas cuentas, nos dice que la probabilidad de que el test dé positivo, sabiendo que estás enfermo, no es la misma que de estar enfermo, sabiendo que el test dio positivo, como hemos podido comprobar aquí.

Vigilancia automática

Supongo que después del ejemplo anterior, os podéis hacer una idea de por donde van los tiros. Dejemos aparte los dilemas éticos, de momento, y vamos a darle vueltas a la viabilidad técnica del Big Brother.

Pues resulta que instalar cámaras de seguridad y detectar criminales mediante una IA de reconocimiento facial no solo es mala idea, es una malísima idea. El porcentaje de gente buscada por la justicia es bastante bajo. Estamos en las mismas de antes: aunque tu algoritmo tenga una eficacia del 99%, la cantidad de falsos positivos va a ser enorme.

Eso quiere decir que aunque no hayas hecho nada y no tengas nada que ocultar, el algoritmo va a acusar a un montón de inocentes de ser criminales. Si lo único que se hace es mandar a una patrulla a controlar que no eres un criminal de verdad, el mayor problema puede ser que de vez en cuando la policía te importune un poco…

…pero por el otro lado, el algoritmo estará todo el tiempo lanzando alertas, la mayor parte de ellas falsos positivos. ¿Creéis que la policía será capaz de atender todas las alertas de encuentros lanzados por la IA? En muchas de nuestras ciudades ni siquiera dan abasto únicamente para las llamadas de los ciudadanos.

Para que os hagáis una idea: En España vivimos unos 46 millones de personas, y según esta fuente debe haber unas 60.000 personas en la cárcel. Esto hace que la probabilidad de que una persona sea “delincuente” es aproximadamente del 0.13%. Hagamos el siguiente experimento mental: instalamos cámaras de seguridad que graban en alta definición, y pasamos algún algoritmo de reconocimiento facial para detectar criminales. La tabla de abajo os muestra el número de falsos positivos estimados, según el porcentaje de acierto del algoritmo y la cantidad de personas a analizar:

Personas / Acierto 97.53% (DeepFace) 98.52% (GaussianFace) 99% 99.99%
110.000 (Viajeros en Atocha en un día) 2400 1400 960 10
300.000 (Asistentes al Arenal Sound 2018) 6500 3900 2610 26
3 millones (población de Madrid) 65000 39000 26100 261

(Los porcentajes para las aplicaciones reales se obtuvieron de aquí). Observad que con los porcentajes que manejan actualmente las mejores aplicaciones de reconocimiento facial, en un evento como el Areal Sound tendríamos varios miles de falsos positivos. Y eso que ese porcentaje de acierto está calculado para fotografías del rostro de las personas, las típicas selfies donde se nos ve de cerca y claramente.

Por otro lado, esto además ocurre “cada vez” que se lanza el algoritmo. En una grabación con cámara, esto pasa continuamente. Podríamos estar hablando de una cantidad desorbitada de falsos positivos a la hora. O incluso a la misma persona varias veces, si pasa por distintos sitios vigilados y por desgracia tiene algún rasgo particular. ¿Realmente es ético tener un sistema que acusa a muchos más inocentes que a culpables? Tendríamos no solo el hecho de lo poco ético que es eliminar la privacidad de las personas, sino que encima sería más que debatible dónde queda la presunción de inocencia si en cualquier momento y sin motivo puedes ser declarado criminal y detenido para revisarlo.

Y este es solo un ejemplo. Hay muchos más algoritmos automáticos de consecuencias más que nefastas: ¿qué pasa por ejemplo con los filtros automáticos que quiere imponer la nueva reforma del copyright de la Unión Europea? ¿Cuántas imágenes, canciones, vídeos… va a bloquear únicamente por falsos positivos? ¿De verdad creen que bloquear injustamente los trabajos de miles de artistas realmente va a beneficiar a la creación cultural y a la industria asociada? Yo diría que a los únicos que beneficia son a las macrosociedades que cobran cánones de derechos…

Conclusiones

Los algoritmos automáticos que aprenden con machine learning a hacer una tarea están de moda. Los estamos utilizando para todo, y algunas empresas están empezando a vender esta solución como una alternativa al control supervisado de las personas. Sin embargo, como podéis ver, algunas aplicaciones tienen un problema: si buscamos en un grupo que sea muy minoritario, tenemos un montón de falsos positivos. Es literalmente buscar una aguja en un pajar.

Esto hace que a pesar de que los algoritmos tengan un porcentaje de acierto relativamente alto, no sea suficiente. Incluso porcentajes cercanos al 99% se pueden quedar muy cortos para muchas aplicaciones. Esto indica que nuestros algoritmos, aunque pueden ser de ayuda (por ejemplo, para detectar algunas enfermedades) deben seguir estando cuidadosamente supervisados, y no tomar los resultados del algoritmo “tal cual”. En algunas aplicaciones, como la vigilancia masiva, es éticamente injusto -estamos acusando a personas inocentes de ser criminales de manera sistemática, consciente y repetida, lo cual no es deseable en ninguno de los casos. Y por si eso fuera poco, técnicamente no hay recursos para hacerlo.

Por tanto, tenemos que plantearnos bien dónde y cómo podemos usar los algoritmos de IA, cuándo podemos confiar en su resultado y cuándo este requiere investigación adicional. Y por supuesto, ¡nada de vigilancia automatizada!