viernes, 28 de diciembre de 2012

2012 (3): Big Data y la necesidad de interpretación

Cada vez hay más datos. Se los genera a partir de las interacciones digitales, y también porque hay demanda por ellos. Desde el periodismo encuesteril que se practica en el Perú, hasta la agresiva búsqueda de un uso monetizable de todos los datos que tiene Facebook, la abundancia de datos se está convirtiendo en un problema, por dos razones.

Primero, porque la abundancia es en muchos casos pareja de la granularidad. Los datos son precisos, pero es difícil agregarlos en un conjunto que cobre sentido; esto debido a que la recopilación de datos es cada vez más una actividad privada con fines precisos, y por lo tanto se la usa para eso, para los fines precisos, pero es sugerente tenerlos y se busca manera de sacarles el jugo. Desde campañas políticas como las de EEUU hasta seguimiento y rankeo de retuiteos con Klout, cada pedacito parece ofrecer una historia chiquita, pero la suma de pequeñas historias no da una gran narrativa. Un buen ranking en Klout no es lo mismo que muchos likes en Facebook, así coincidan. ¿Qué quiere decir cada uno? Y peor todavía, ¿qué quieren decir en conjunto?

Es posible que nunca lo sepamos, pero la ignorancia no siempre nace de la falta de teoría sino de la vocación por prescindir de cualquier marco interpretativo, o incluso de un mínimo de prevención respecto a la fragilidad inductiva que nace de la fragmentación de los datos. Dos encuestas dicen algo ligeramente distinto, y dos personas optan por leerlas de maneras opuestas. Terminamos discutiendo no sobre la realidad sino sobre dos construcciones sesgadas, metodológicamente incontrastables, de un fragmento de la realidad, pero con la convicción que antes se reservaba a las verdades reveladas.

Una lección poderosa del 2012 es que un mínimo de claridad epistemológica es mejor que la ausencia de teoría, o que su opuesto, la abundancia de teorías pret-a-porter propias de estos tiempos de meta-ultra-pos-modernidad líquida. Nate Silver, el nerd del año, lo demostró al ser riguroso para crear un marco interpretativo a partir de las abundantes encuestas electorales en los EEUU, y su consistencia le permitió llegar a buen puerto cuando todos parecían empeñados en lecturas parcializadas y caóticas de pedacitos; la búsqueda de patrones a partir de un mínimo de rigor y algo de escepticismo sigue funcionando.

Esa es la lección sobre la big data: seguimos necesitando rigor epistemológico para aplicarlo a los datos que asumimos han sido recogidos con rigor metodológico pero poca vocación de interpretación clara; los pedazos mismos no sirven, necesitamos el conjunto.

No hay comentarios: