Cuando el otro día estaba aclarándole a mi hijo algunos conceptos estadísticos para un examen que tiene esta misma semana, me vino a la mente un artículo que Manuel Conthe (sí, el de la CNMV) escribió en Expansión hace ya algunos años. Por aquel entonces tenía una columna semanal muy interesante sobre asuntos que mezclaban hábilmente cuestiones matemáticas, sociales, económicas o políticas. Me las leí casi todas y guardé las que me parecieron más interesantes.
Me he puesto a husmear por mi disco duro y he encontrado el artículo en cuestión que data del ¡10 de julio de 2.001! Mucho debió impactarme su contenido para que me viniera a la memoria seis años después. Seguramente tenga algo que ver el hecho de que leyera hace unos días que acaba de publicar su segundo libro, "La paradoja del bronce: espejismos y sorpresas en el mundo de la economía y la política". En cuanto salga en edición de bolsillo, que será pronto porque se venderá poco, me lo compro.
Resulta que a finales del XIX, un matemático y astrónomo estadounidense llamado Simon Newcomb, observó que las tablas de logaritmos estaban más deterioradas y manoseadas por el principio que por el final. Los que ya tienen cierta edad y hayan tenido la suerte de poder cursar el bachillerato, recordarán que para el cálculo de los logaritmos se utilizaban unos libritos que contenían multitud de tablas. No recuerdo si por aquellos años ya existían calculadoras que permitieran calcularlos directamente, pero sí recuerdo que yo no la tuve hasta que comencé en la Universidad. Lo que es seguro es que en la época del amigo Simon no las había. Y tampoco parece que el jabón fuese muy popular.
Como en las tablas los números están ordenados de menor a mayor, nuestro avispado astrónomo concluyó que en la vida real abundan más los números cuya primera cifra significativa es el 1. Vamos, que son más frecuentes números como 0,13 ó 113 que números como 0,97 ó 932. Sacando su vena de matemático, quiso afinar su cálculo y estimar la probabilidad de que un número comience por un determinado dígito, llamémosle "d". Y lo consiguió. En 1.881 enunció una ley que estableció que dicha probabilidad era igual al logaritmo decimal de (1+1/d).
Pero parece que nadie le hizo mucho caso y su hallazgo pasó desapercibido, hasta que en 1.938 un ingeniero llamado Frank Benford descubrió de nuevo, de forma independiente, la misma ley tras recopilar gran cantidad de datos de diversas fuentes (apunte contables, pesos atómicos, números aparecidos en publicaciones.....). Según la Ley de Benford, como se la conoce actualmente, la probabilidad de que la primera cifra significativa de un número sea 1 es del 30,1%, de que sea 2 es del 17,6% y así sucesivamente (para el resto de dígitos será 12,5%, 9,7%, 7,9%, 6,7%, 5,8%, 5,1% y 4,6% respectivamente). Prueben, prueben.
Es importante subrayar que la Ley de Benford no es aplicable a números generados al azar, sino a aquellos que están sometidos a múltiples influencias como la población de ciudades, los números que aparecen en las páginas de un periódico, las cotizaciones bursátiles o ¡los datos de ingresos y gastos en una declaración de impuestos, a menos que alguien se los haya inventado!.
Esta ley tiene actualmente muchas aplicaciones, entre las que se encuentra la detección de fraudes fiscales o contables. Si están interesados, busquen por la red y se asombrarán.
Espero que en la nota del examen de mi hijo no se cumpla la Ley de Benford, salvo que se trate de un número natural de dos cifras.