Soy un fan incondicional del Big Data, si es que puede decirse tal cosa. Sin duda va a ser (¡está siendo!) una de las grandes revoluciones de nuestro tiempo. Yendo un paso más allá que su primo el Business Intelligence, las técnicas de Big Data van a permitir explorar lo inexplorado. Nos llevan al corazón de la información, de los datos. De las relaciones subyacentes entre los mismos, información no necesariamente estructurada que terminará saliendo a la superficie, como una botella con un mensaje dentro que emerge, por fin, de las profundidades del mar. Las aplicaciones son infinitas, empezando por todas aquellas que están revolucionando, el mundo de la medicina. Pero no me detendré aquí en esto.
Recientemente he leído dos noticias que me han hecho recapacitar sobre los límites éticos del Big Data. Porque, igual que la clonación de células tiene unas aplicaciones terapéuticas impresionantes para la curación y prevención de enfermedades, pero al mismo tiempo suscita muchas dudas sobre otras éticamente discutibles, el Big Data también puede plantear algunas dudas éticas. Como apuntaban en el blog de OBS hablando de este tema, y haciendo un guiño a los aficionados a Spiderman, un gran poder conlleva una gran responsabilidad.

¿Se puede prevenir el crimen?
En primer lugar, en el portal de la BBC se hacían eco de una noticia sobre el uso de Big Data para la prevención del crimen, cual Precognitivo de Minority Report. En el artículo London police trial gang violence ‘predicting’ software, nos cuentan cómo la Policía de Londres cuenta con un software experimental para tratar de predecir qué miembros de bandas callejeras tienen mayor probabilidad de cometer crímenes violentos, partiendo del historial delictivo previo y su actividad en las redes sociales. El artículo no da cifras sobre la fiabilidad del método, pero la sola idea del mismo es para poner los pelos de punta. En aras de la eficiencia de recursos policiales y la seguridad ciudadana, se saltan completamente los más mínimos principios de presunción de inocencia, señalando a personas como posibles asesinos o delincuentes. Por cierto que el artículo cita a España como un país en el que la policía madrileña ha llevado experiencias similares en un proyecto denominado iPOL. Y hay muchos más.
Supongamos que aplaudimos estas iniciativas en aras de la seguridad. Supongamos que estamos dispuestos a renunciar a algunos derechos fundamentales, como el de la privacidad de la información y la presunción de inocencia. ¿Aceptaríamos que tuviera valor legal en un juicio? Señor Juez, el Sr Fernández es culpable porque el sistema le da una probabilidad del 95% de que así sea. A la porra la duda razonable. Peor aún, podría ser usado para abortar protestas ciudadanas (legítimas en democracia). Listas negras no solo de posibles delincuentes, sino de gente con ideas que no le interesen a alguien. De hecho ya se está usando para la toma de decisiones en las campañas electorales. En mi opinión, cuando menos, debería estar escrupulosamente regulado. Ahí dejo la reflexión.
La promoción profesional en Google
Hay gente que se toma con mucho celo su trabajo. Demasiado. Cual Pantaleón Pantoja en la famosa novela de Vargas Llosa, el vicepresidente de People Analytics de Google (¡hay gente pa tó!) se tomó su mandato con todo el empeño del mundo: todas las decisiones sobre la gente en Google están basadas en analítica de datos.

El top senior management de Google se reúne dos veces al año para decidir las promociones internas de la empresa, en un proceso que dura varios días. Como nos cuentan en el artículo de Business Insider Google Wrote An Equation For Deciding Which Engineers Should Get Promoted — Here’s Why It Failed, Prasad Setty decidió echar una mano a sus colegas ideando una fórmula que permitiera decidir quiénes debían ser promocionados. Los detalles están en el artículo anterior pero, aunque el algoritmo parecía tener una fiabilidad razonablemente buena, fue rechazado por el management encargado de tal decisión. ¿La razón? Hay decisiones demasiado sensibles que, afortunadamente y a fecha de hoy, todavía preferimos tomar las personas.
Conclusiones
La frontera entre qué decisiones deben ser tomadas por sistemas expertos, basados en Big Data o no, y cuáles por humanos, es muy fina.
- Como pacientes, puede (y solo puede) que queramos toda la artillería de la tecnología a nuestro servicio. Pero un profesional médico puede (y solo puede) tener una visión distinta al respecto: puede ver menospreciado o ninguneado su trabajo y apelar a ese «sexto sentido» que probablemente nunca tendrá una máquina.
- Como ciudadanos, queremos seguridad en las calles, pero el precio puede ser muy alto.
- Como empleados, cada uno preferirá que su promoción profesional se decida como más le convenga (en función del cariño que le profese su jefe). Y como jefes querremos decidir nosotros a quién promocionamos, diga lo que diga una máquina.
¿Es acaso malo el Big Data? Claramente no. La tecnología no es ni buena ni mala en sí, y sólo lo es en función de quién, cómo y para qué las usa. Sea como fuere, las expectativas que se están poniendo en la tecnología son muy altas. En palabras de Nassim Taleb (a quien ya dediqué otro post en este mismo blog)
El siglo XX fue la bancarrota de la utopía social; el XXI será el de la utopía tecnológica.
Así que quizá sólo estemos poniendo demasiadas expectativas sobre lo que podemos conseguir. Y, en cualquier caso, percibo una cierta asimetría en todo esto. Puestos a dejarnos asesorar por las máquinas, podríamos tener un sistema que predijera con antelación políticos corruptos o mentirosos (por falta de datos para entrenar al sistema no iba a ser), y que estos fueran señalados de antemano, impidiéndoles toda actividad política. O que decidiese qué políticos deberían ser ascendidos a, digamos, ministros (y no fuera por los cauces actuales). Aunque conste que yo, como ciudadano, prefiero elegir a mis representantes. Y sospecho que mis representantes son de la misma opinión. Por lo que pueda pasar.
¡Gracias por comentar!
Hola. En primer lugar gracias por enlazar mi artículo. Yo voy a plantear lo que dices de otra manera: Desde el momento en el que los sistemas de información sean más autónomos para tomar decisiones (léase por ejemplo este caso de decidir sobre promociones), siempre habrá personas con interés y conocimientos para cambiar el modelo de decisiones o modificar los datos de entrada, aunque se alejen de la realidad. Por explicarlo mejor, si uno se compromete a adelgazar un kilo semanal, y sus ingresos económicos dependen de ello, llega un momento en el que es más fácil trucar la báscula (o pesarse en el ecuador) que hacer ejercicio.
A lo que voy, en conclusión, es que nunca nos vamos a fiar de un sistema de toma de decisiones automatizado, más de lo que nos fiamos de las personas. ¿Acaso no hemos decidido alguna vez cambiar de médico porque no nos parece acertado, aunque no sepamos nada de medicina? Si la decisión es de una máquina, ocurrirá con mayor motivo.
Un saludo,
Muchas gracias José Julio. El artículo de tu blog me parece muy didáctico y esclarecedor para entender la diferencia entre BI y Big Data. Seguro que enlazaré muchos más artículos de tu estupendo blog 🙂
Realmente has hecho un resumen excelente del mensaje del artículo, o al menos de cuáles deberían ser nuestras expectativas con la tecnología y la toma de decisiones. Está claro que se pueden cocinar los números, o verlos bajo la lupa que uno quiera (que se lo digan a los políticos). Lo peligroso del tema es que, cuando interese, algunos se aferrarán a «no lo digo yo, lo dice un sistema experto».
Creo que la cita de Taleb se refiere precisamente a eso: tenemos unas expectativas desmedidas en la tecnología, y creemos que en el siglo XXI nos traerá la respuesta a todos los problemas. Pero tiene pinta de que no será así. Cuando menos, tenemos que contar con el factor humano.
¡Gracias por comentar!
Me ha hecho pensar la frase: «El siglo XX fue la bancarrota de la utopía social; el XXI será el de la utopía tecnológica.»
¿Estamos poniendo demasiadas esperanzas en la tecnología?
Gracias Paco.
Me parece tan importante la frase, que pensaba dedicarle un post entero (cosa que todavía no descarto).
Es una opinión, por supuesto, y solo el tiempo lo dirá. Pero el fracaso de la utopía social en el siglo XX sí puede ser un buen indicador de lo que puede pasar con nuestras expectativas con la utopía tecnológica.
No sé si leiste el artículo de Nassim Taleb al que enlazo, pero desde luego es alguien hay quien hay que escuchar y reflexionar sobre sus opiniones.
¡Gracias por comentar!
Personalmente estoy muy contento de vivir en una época donde por ejemplo existe internet y el telegrama está obsoleto, y pensemos que esto es relativamente reciente. Ahora bien, se trata de herramientas como se dice hacia el final del artículo, que se pueden usar en beneficio de unos y en perjuicio de otros. Encontrar el win win es bastante difícil.
Algo de bueno debe tener, y algo que no gusta a algunos, cuando ya se están planteando dos Internet (una «fetén lorito» de pago y otra gratis y con acceso limitado). Lo importante es que nadie trate de justificar la desaparición de la tecnología por el mal uso que algunos hacen de ella.
No sé si será Big Data; pero estás describiendo a la coloquialmente llamada #LeyMordaza.
Una cosa es la tecnología y otra las leyes (o sus proyectos). Y otra, como digo, cómo se hace uso de la tecnología para dar cobertura a algunas leyes. Y ese es uno de los problemas.
¡Gracias por comentar #Jerby!