Big Data y V-irtud

Javier Jurado

A partir de un artículo publicado en la revista A nosa rede de la AETG, julio de 2018

Jamás como hasta ahora hemos dispuesto de un volumen tan grande de datos, tan variado y generado a semejante velocidad, lo que nos obliga más que nunca a su tratamiento y análisis para obtener información relevante, útil y veraz. Aunque el prolífico marketing sigue añadiendo Vs (vulnerabilidad, volatilidad, visualización,…) estas son las cuatro Vs con las que suele identificarse al manido Big Data, reto y oportunidad, que comienza ya a ofrecer resultados espectaculares y apunta a transformar nuestras vidas.

Pero asimilar el impacto del Big Data requiere que reflexionemos sobre otros efectos colaterales o deliberadamente buscados, adheridos también al desarrollo de estas técnicas, y que quizá podamos considerar no tan deseables. Por eso cada vez son más las voces exigen una nueva V: el tratamiento masivo de datos es un arma tan poderosa que sería preciso exigir que fuera virtuosa.

datamanagement_article_020

Son tantos los datos, tan variados y efímeros, que, a pesar de las oportunidades para informarnos, la cizaña siempre supera al trigo, comprometiendo la veracidad y requiriéndonos un esfuerzo especial para desbrozar entre tanto ruido. Pero, además,  si la información es poder, este volumen desestructurado e ingente de datos es una enorme oportunidad para desarrollar soluciones analíticas y explotar y mejorar viejas técnicas de data mining para extraer aún más valor, añadiendo nuevas uves…

Los casos prometedores empiezan a arrojar resultados, y volvemos a soñar como con otras promesas tecnológicas del pasado: Watson procesa enormes fuentes de datos médicos y es capaz de sugerir diagnósticos según probabilidad que harían palidecer los careos del Dr. House. El coche autónomo, capaz de controlar cada vez mejor que nosotros los imprevistos y variables de la conducción, acelera su llegada. La Internet de las cosas (IoT) va permeando nuestros núcleos urbanos transformándolos cada vez más en las famosas smartcities, con la optimización energética, iluminación, soluciones de aparcamiento, redirección del tráfico, etc. Son varios los autores que encuentran en estos nuevos desarrollos tecnológicos la oportunidad para construir una sociedad más capaz de evitar crisis económicas, conflictos violentos étnicos y religiosos, estancamientos políticos, dispersión de la corrupción, ataques terroristas o peligrosas concentraciones de poder.

agfa-healthcare-joins-watson-health-medical-imaging-collaborative

Sin embargo, como decía Ortega y Gasset, toda realidad ignorada prepara su venganza. Por eso parece imprescindible una reflexión ética y política, filosófica en general incluso, sobre este fenómeno. Algunos autores como M. Swan o E. Bencivenga han hecho importantes contribuciones a este tipo de reflexión filosófica, destacando entre nosotros el de R. Colmenarejo. Esta reflexión puede ser muy extensa, pues ya decía Strawson que en el estanque de la filosofía no hay lugar donde no cubra. Pero quizá cabría hacer una primera aproximación a una filosofía del Big Data orientada, en primer lugar, hacia un nivel interno al campo como articulación generalizada de los conceptos, la teoría y los sistemas que componen la conducta general de la ciencia de los grandes datos. Y, en segundo lugar hacia otro nivel externo al campo, como una consideración del impacto de Big Data en general sobre las personas, la sociedad y el mundo. Tanto en uno como en otro, podríamos hallar reflexiones en tres categorías filosóficas clásicas:

  • La ontológica, que por ejemplo llega hasta reinterpretar el universo entero, a través de la mecánica cuántica, en términos de información, como viene proponiendo el físico V. Vedral.
  • La epistemológica, que reflexiona sobre la relación entre información y conocimiento, ruido epistémico, y el hecho contrastado de que cuanta más información o más compleja no necesariamente obtenemos mejor información.
  • Y la ética, que es desde la que de forma breve quiero plantear algunas cuestiones.

Los reclamos por esta reflexión ética sobre Big Data regresan inopinadamente para muchos, toda vez que nuestras sociedades abiertas han ido relegando a un rincón privado las preferencias éticas particulares. Esta extrañeza es comprensible, ya que la progresiva optimización tecnocientífica lleva siglos expandiéndose, colonizando y explotando cada vez más nuestra realidad sin preguntarse realmente si debe. Por eso Habermas nos advertía, hace ahora 50 años, que la revolución tecnocientífica de la burguesía habría catapultado la compresión técnica de la realidad, y de tanto afilar la herramienta con la que someter a la naturaleza estaríamos acabando por someter al hombre, tal y como la Escuela de Frankfurt tanto reseñó.

Sorprendidas o conscientes de esta deriva, algunas voces en la sociedad de consumo globalizada e hiperconectada estarían reclamando un retorno a algún tipo de virtud que modere esta insaciable voracidad por la maximización del beneficio y el poder. Especialmente porque estas tecnologías al servicio de esta voracidad podrían estar aumentando peligrosamente un riesgo biológicamente inasumible.

Pero la Virtud es como aquella vieja anciana desahuciada en un asilo y a la que sólo visitamos cuando nos interesa, nos pilla de paso o la necesitamos verdaderamente arrepentidos por su abandono. No es que históricamente antes le hayamos hecho especial caso, pero al menos disimulábamos teniéndola en casa. Ahora, encontrar el camino nos dará, además de jaquecas, agujetas.

Las técnicas de Big Data nos están devolviendo alguna bofetada que estremece, y que podría poner en peligro incluso nuestro propio sistema liberal-democrático. Este sistema se apuntala fundamentalmente en dos principios: la innegociable inviolabilidad del individuo y el respeto máximo por su libertad (de voto, de compra, de emprendimiento, de asociación política,…). De todos los malos sistemas políticos que tenemos, como decía W. Churchill, en buena parte del globo se ha impuesto el menos malo de la democracia, consciente de sus carencias y posibles degeneraciones hacia la demagogia, como tantos pensadores han cuestionado a lo largo de la historia. Aceptamos, resignados, que con el objeto de conseguir el poder (para fines buenos o no, es otra discusión) los políticos pueden engañar a los votantes y ser juzgados después por el balance conocido de sus actos. ¿Pero qué sucede cuando la manipulación de la opinión pública es optimizada hasta niveles insospechados?

web_ling_ca_art-e1525920108775

El caso de Cambridge Analytica es un nuevo hito en ese proceso de optimización de la propaganda política basado en Big Data, Facebook mediante. Los algoritmos de Mi personality presumen de ser capaces de caracterizarnos a partir de un puñado de nuestros “likes” en redes sociales mejor que nuestros compañeros de piso (70), nuestra familia (150) o incluso nuestra esposa (300). Con la Escala Ocean son capaces de realizar un perfil psicológico en distintos vectores (Extraversión, Apertura al cambio, Responsabilidad, Amabilidad, Inestabilidad emocional) que permiten el microtargeting, la microsegmentación de la propaganda. Basta con que Facebook haya facilitado datos privados de decenas de millones de usuarios como para que las campañas de Trump o el Brexit hayan sido adecuadamente orquestadas para variar los votos imprescindibles, alterando, en opinión de Christopher Wylie, exdirector de investigación de Cambridge Analytica, los procesos electorales. La correcta noticia (fakenews incluidas) colocada en el lugar adecuado puede haber variado el puñado de votos necesarios para decantar el número de delegados de estados clave. ¿Podemos seguir considerándonos libres y debidamente respetados para legitimar el sistema?

Zuckerberg recorre comisiones en el Senado y en la Eurocámara pidiendo disculpas y prometiendo enmiendas, y las clásicas medidas antimonopolísticas vuelven a resonar. ¿Pero sería viable romper Facebook cuando el mercado global encuentra su atractivo precisamente en compartir una misma plataforma en la que encontrarnos? La política alicorta centrada en los obsoletos aunque todavía atractivos estados-nación no tiene capacidad de regular y equilibrar la iniciativa multinacional privada a nivel global.

La incertidumbre es además enorme en este indefinido “mercado de los datos”, donde ni el perímetro, ni los agentes, ni las plusvalías están claras. Y la política nos deja desprotegidos, teniendo que aceptar en un one-to-one extensísimos términos y condiciones de servicios ciertamente gratuitos que, en realidad, nos están exprimiendo mucho más de lo que sospechamos. ¿A cuento de qué la aplicación de un aparentemente inocuo juego, o de una linterna, para mi dispositivo móvil requiere acceso a mis contactos, mis fotos y mi localización? Ciertamente algunos acceden a entregar sus datos en contraprestación por un servicio que, gracias a ellos, puede orientar anuncios que de verdad les interesen, pero ¿cómo marcar el límite de la privacidad para que, por ejemplo, las aseguradoras no hagan perfilados demasiado predictivos de sus clientes? ¿o acaso esa transparencia no sería deseable contractualmente hablando?

Por otro lado, no obstante, ¿podemos cargar sobre la espalda de papá-Estado esa asimétrica negociación entre el usuario digital y el gigante tecnológico privado que nos enfrenta a un dilema capcioso entre la rendición incondicional o el “ostracismo digital”? ¿De verdad confiamos más en la supervisión política de nuestros datos? ¿Es que acaso la negociación individuo-Estado no es también harto asimétrica y para muchos sospechosa?

contratos-banca-redes_sociales-la_jungla_263736705_54884279_1024x576

Algunos segmentos sociales reclaman transparencia en las black boxes de los algoritmos ocultos que tratan el Big Data. La GDPR trata de enfrentar algunos de estos riesgos, aunque a su vez también funcione como medida proteccionista europea. En ciertos círculos se cuecen iniciativas para forjar sellos de calidad ética (como los de la banca ética, el comercio justo, el material reciclado,…) para discriminar el servicio digital virtuoso. Pero ¿hasta qué punto sería confiable un sistema autorregulado que está concebido en su naturaleza para maximizar nuestra adicción al consumo digital? ¿qué presunta imparcialidad técnica se puede esperar de los desarrollos hacia la Inteligencia Artificial que pueda emerger a partir del Big Data? Nuestras experiencias revelan el sesgo racista y xenófobo que rápidamente adquieren, aprendiendo de nuestro comportamiento en las redes, desarrollos como el de FaceApp o de Tay. En el mundo postmoderno del politeísmo moral en el que vivimos, ¿qué V de virtud seríamos capaces de consensuar e imprimir en nuestros principios de diseño de Big Data?

No soy amigo de luditas y tecnófobos. Las diatribas contra la tecnología de los Heidegger y Byung-Chul Han me parecen excesivas, pero la pura neutralidad de la tecnología es un mito, como sabemos al menos desde Adorno. El equilibrio se encuentra en ese cuchillo que sirve tanto para partir el pan como para matar, y deja en nuestras manos el uso que queramos darle. ¿Pero qué podemos esperar que suceda si le damos un kalashnikov cargado a un niño? Como decía E. O. Wilson, el problema de la humanidad probablemente radica en que tenemos emociones del Paleolítico, instituciones medievales y tecnología de dioses. Esta extraña V es, desde luego, un desafío complejo.

Puntos de apoyo

R. Colmenarejo, Una ética para Big Data. Introducción a la gestión ética de datos masivos

M. Swan, Philosophy of Big Data: Expanding the Human-Data Relation with Big Data Science Services

2 comentarios en “Big Data y V-irtud

  1. Pingback: La crisis del Coronavirus: riesgo y oportunidad (II) | La galería de los perplejos

  2. Abel Sainz

    Hola, Javier:

    Muy interesante tu artículo. Creo que es una buena introducción para invitar a la reflexión sobre la situación actual de la tecnología.

    Los científicos no son capaces de gestionar tanta información generada por las sofisticadas instalaciones actuales. Poder extraer conclusiones científicas es harto complicado en esa procelosa mar de datos. Un ejemplo, tras dos años, la NASA hace públicos sus datos astronómicos para que grupos de investigación de todo el mundo los usen esperando que puedan extraerse nuevos descubrimientos.

    ¿Incluimos también esto en Big-Data? Creo que en este ejemplo la V de virtud encaja muy bien pero no se cómo podría hacerlo en una matriz de datos que persiguen conocerme mejor para que compre una marca de gel determinada o saber cual será mi tendencia de voto (el papá estado que citabas puede tornarse como un padre que habría que matar, en términos freudianos). La V de virtud tornaría más bien en la V de Vendetta.

    Creo que hay una información que es V-irtuosa y otra de V-endetta porque tienen un fin en sí mismo. Tal como has señalado, la tecnología no es neutra como no lo es la información que generan. Siguiendo a Ortega, que has citado, podríamos hacer un análisis ‘intensional’ de Big-Data porque el conocer a un ser humano a través de ‘Likes’, en principio, no es preocupante.

    Para finalizar, normalmente no se cita, pero creo que uno de los análisis filosóficos sobre la naturaleza humana y el desarrollo industrial más clarividentes es el de Marx. Vivimos en la industria 4.0 y retomar su análisis (Manuscritos de Economía y Filosofía) del impacto que produjo la industria en nuestras vidas puede ayudar a desvelar donde nos situamos hoy día. Si en su día fue el éxodo del campo, la vida automatizada, el situar al hombre como un engranaje más, hoy nos veríamos como un bit más en una gran matriz, una imagen digital de nosotros mismos fuera del campo y de la fábrica. Quizá el análisis de Hans va en esta dirección.

    Saludos

    Abel

    Le gusta a 1 persona

Deja un comentario