We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Cómo aprendemos a partir de los datos? Si confirman una teoría, creemos más en ella, y si la contradicen, la rechazamos. Parece de sentido sentido común, y una versión ligeramente más refinada es lo que se conoce como método científico. Esta forma de aprender tiene varios aspectos sorprendentes y detalles tremendamente interesantes. Sin embargo, también puede subvertirse para hacernos “aprender” cosas que tienen poco que ver con la realidad.
En realidad, los datos por sí solos nunca confirman ni rechazan del todo un punto de partida. Si por ejemplo miramos las temperaturas máximas en España durante los últimos cien años, los valores registrados (los “datos”), podrían ocurrir tanto si hay cambio climático como si no lo hay. ¿Eso significa que no nos dicen nada sobre si lo hay? No, porque las probabilidades de que ocurran no son las mismas. Si no hay cambio climático, esperaríamos que las temperaturas se distribuyan completamente al azar. Sería muy sorprendente que las más altas se dieran en años recientes, aunque no imposible (la probabilidad sería muy baja aunque no cero, porque nunca lo es). Si hay cambio climático sí tendrían una probabilidad muy alta.
Vamos a centrarnos en cómo se utilizan en ciencia los métodos para obtener unas conclusiones a partir de unos datos. La forma en que, a partir de un punto de partida, se llega a saber con qué probabilidad pueden ocurrir esos datos es lo que se conoce como cálculo de probabilidades. Al punto de partida, por cierto, también se le llama “hipótesis” o “modelo”. La probabilidad es un campo muy estudiado, que se entiende bastante bien y sobre el que hay poca controversia. Normalmente la parte más importante es la de crear/imaginar —pñor algo decía Einstein que “la imaginación es más importante que el conocimiento”— buenos modelos que describan lo que ocurre y a partir de ahí existen múltiples técnicas para calcular las probabilidades que queremos saber sobre los datos.
Sin embargo en lo que normalmente estamos interesados es en lo contrario: saber hasta qué punto creer un modelo u otro en base a los datos que tenemos. Es decir, el proceso inverso al de calcular la probabilidad de los datos. La disciplina que estudia esta especie de trabajo detectivesco se conoce como inferencia estadística (a veces simplemente, estadística). Es a la vez más interesante y mucho más controvertida que el mero cálculo de probabilidades, en el cual está basada.
Piense como una científica
La forma de encontrar la probabilidad inversa, es decir, la probabilidad de algo a partir de los datos, es relativamente sencilla. En realidad el cerebro humano ya la utiliza de forma natural sin darnos cuenta. “Estas huellas podrían ser de pantera o de gato, ¿cuánto se parecen realmente a unas u otras?, ¿cuántas panteras y gatos hay por estos parajes?, y a raíz de esto, ¿cuánto tengo que preocuparme entonces?”. Sin hacer cálculos de forma consciente, por lo general estimamos bien, tal y como lo haríamos si usáramos lo que se llama “estadística Bayesiana”. En ella, calcularíamos la probabilidad del modelo como proporcional al producto de la probabilidad inicial veces la probabilidad de los datos según el modelo.A nivel de individuos interesados en conocer cómo es la realidad, es bueno ser consciente de que hay múltiples formas de engañar “con estadística”
Laplace, científico pionero en el cálculo de probabilidades, ya utilizaba a principios del siglo XIX esta forma para hacer inferencia estadística. Con ella pudo estimar entre otras cosas la masa del planeta Saturno con tan solo un 0,4% de error, una precisión asombrosamente buena para la época.
En realidad con esta estadística lo que hacemos es actualizar una estimación a partir de unos datos. Es decir, necesitamos tener una estimación inicial (comúnmente llamada probabilidad a priori, o prior) antes de usarla. El resultado de la estimación depende mucho de ese prior. ¿Y qué prior utilizar? La falta de consenso en ese último punto llevó a la estadística por un largo desvío durante muchos años.
Probabilidad, ¿frecuencia o medida de la incertidumbre?
Donde sí estaban las cosas más claras era en, dado un modelo, saber la probabilidad de que salgan unos datos, en el sentido siguiente: si repetimos el mismo experimento muchas veces ¿cuántas veces ocurre cada resultado? Por ejemplo, si tiramos un dado muchas veces, ¿cuántas veces saldrá el 6?Interpretando la probabilidad como esa frecuencia para muchas repeticiones, en lugar de como una medida de la incertidumbre, se desarrolló todo un grupo de técnicas “estadísticas” para analizar los datos. Es lo que se conoce como “estadística frecuentista”, y es la otra corriente principal en ciencia sobre cómo interpretar los datos.
Los distintos conceptos y tests estadísticos que se crearon son muy potentes y ayudan tanto a entender los datos como a tomar decisiones en base a ellos. Sin embargo, utilizarlos correctamente requiere estar atentos a sutilezas y en realidad no responden a las preguntas que uno se suele plantear. Por ejemplo, en lugar de decir que la masa de Saturno está entre ciertos valores con una cierta la probabilidad, lo que dicen son cosas como que si repetimos muchas veces el tomar los datos, se construiría un intervalo en el que su masa caería dentro un cierto número de veces. Algo que está relacionado, pero que ni es lo mismo ni tampoco muy intuitivo.
Sorprendentemente a día de hoy la estadística frecuentista sigue siendo el estándar que se enseña en la universidad. Sin embargo en las últimas décadas vuelve a haber más científicos que se toman en serio la estadística Bayesiana, en la que se han desarrollado técnicas más potentes, que no son solo más generales que las frecuentistas, sino que las pueden justificar cuando estas tienen sentido, y dar una respuesta mejor cuando no.
Entre científicos, la controversia sobre qué estadística es la “correcta” sigue a día de hoy. Cuál se usa en distintos campos tiene mucho que ver con la costumbre. En campos como la física de partículas se utiliza mucho la versión frecuentista, mientras que en otros como la astrofísica o más modernamente en inteligencia artificial normalmente se tiene una visión Bayesiana.
Este es el panorama actual en ciencia en cuanto a estadística. A pesar de sus diferencias, en la práctica con ambas formas, Bayesiana y frecuentista, podemos aprender bien en base a los datos y entender mejor el mundo. Es solo en ciertos casos límite que la distinción se vuelve importante (y en esos casos, nuestra opinión sobre cuál es la adecuada habrá quedado clara).
Mentiras, malditas mentiras, y estadística
La inferencia estadística es una herramienta con la que podemos conocer el mundo cada vez mejor a partir de los datos que tenemos. No solo en ciencia, sino en cualquier aspecto de la vida.Así que para ir siendo más sabios, basta con tomar cada vez más datos. ¿No?
La razón de que no sea tan fácil es que normalmente los datos que nos llegan no son independientes, suelen estar sesgados. Si nos quieren hacer creer alguna mentira, qué mejor que hacernos llegar unos datos y no otros, tal vez incluso sacarlos de contexto o hasta distorsionarlos un poco, y para recubrirlo todo añadir un análisis estadístico en base a ellos y que dé apariencia de verdad inescapable a la conclusión.
Aquí lo que está en cuestión no es la metodología científica para plantear experimentos y obtener información, ni las interpretaciones varias de la “inferencia estadística”. A nivel de individuos interesados en conocer cómo es la realidad, es bueno ser consciente de que hay múltiples formas de engañar “con estadística”. Esto no se les pasa por alto a quienes quieren manipular las opiniones, ni es algo nuevo. Sobre las formas en que se hace, y qué podemos hacer al respecto, esperamos hablar en un próximo artículo.
Relacionadas
Dana
Mazón Dimissió Apoyo mutuo y País Valenciano
Ciencia
Ciencia ¡No más genios! Por una ciencia colectiva
Ciencia
Por una ciencia colectiva Por una ciencia colectiva
Gracias por el artículo.
Sigo creyendo que la era del Big Data está fundamentada en el síndrome de Diógenes del dato, generando silos tóxicos. Aquí, la Teoría de Muestreo ha sido relejada por un discurso marquetiniano basado en una columna que se tambalea sin sesar: la Ley de los Pequeños Números.
Que barbaridades ve uno en las empresas, buscando el número dorado, sea o no real.
Un saludo, Compañero