Однажды американский астроном и математик Саймон Ньюкомб
обратил внимание, что в книге логарифмов первые страницы книги намного
более потрепаны, нежели конечные. Ему показалось это странным и он
подумал: а нет ли здесь какой-либо закономерности? То есть, почему люди
чаще работают с числами, у которых первая цифра от 1 до 4, нежели от 5
до 9? Однако потребовалось почти 60 лет что бы облечь это наблюдение в
закон поучивший имя Бенфорда.
Бенфорд исследовал около 20 таблиц, среди которых были данные о площади
поверхности 335 рек, удельной теплоемкости и молекулярном весе тысяч
химических соединений и даже номера домов первых 342 лиц, указанных в
биографическом справочнике американских ученных. Проанализировав около
20 тысяч содержавшихся в таблицах чисел, Бенфорд установил удивительную
закономерность. Казалось бы, все девять цифр 1, 2, 3, 4, 5, 6, 7, 8, 9
(из которых состоит любое мыслимое число) равноправны, и вероятность
появления каждой из них в качестве первой значащей цифры должна
составлять 1 ⁄ 9 = 0,111... (при равновероятном распределении первой
значащей цифры). Однако, закон Бенфорда гласит, что в реальных данных
чем больше цифра, тем меньше вероятности, что она будет стоять на первом
месте в числе и подчиняется эта зависимость логарифмическому закону. То
есть вероятность того, что на первом месте будет стоять 1 более 30%, а
вероятность того что это будет 9 всего 4,6%.
Кстати,
проверьте сколько будет найдено результатов Гуглем, если искать числа,
например 156, 256... 956. Сейчас этот закон применяют для выявления
поддельных данных, например в отчетности, поскольку поддельные данные
обычно выпадают из этого закона.
via Yosha


