1948年のアメリカの大統領選挙では、H.S.トルーマンが、T.E.デューイを破って当選した。このときの、選挙前の予想ではマスコミや民間調査機関などすべての予想が、「デューイ絶対有利」だった。ところが、いざふたを開けてみると、まったく逆の結果になった。
この選挙予想は調査を元に行っているのだから、当たってあたりまえで、はずれるのはどこかに欠陥があるとして、当時の関係者はその理由を深刻に考えた。
そこで、問題視され、取りあげられたのは、調査の標本(サンプル)を選ぶときの基準であった。この件以前は、ベテランの調査員が「今回はこのサンプルでいこう」などと、偏ったサンプル抽出を行っていたのである。
そこで、近代統計学の父といわれるR.A.フィッシャーが、この「トルーマンの奇跡」の20年以上も前から主張していた、ランダム・サンプリング(random sampling 無作為抽出)が取り入れられることになった。これは、サンプル全体をかたちづくる母集団について算出されている確率分布を計算に反映させ、サンプリングした一部から全体の情報を把握するものである。現在ではさらに、層(年齢の層とか、職業の層など)ごとに無作為抽出する、層化無作為抽出法(stratified random sampling)を用いている。