For example, it required the genius of a great mathematician (Bernoulli 1713) to discover and prove that, if you estimate the probability of a certain characteristic’s incidence in a population from its frequency in a sample, then the probability of your estimate’s being correct, within a specific interval of approximation, will vary with the size of the sample. So it is easily understandable that psychological experiments find a tendency among ordinary people, untutored in statistical theory, to be ignorant of this principle and its applications.
|
Tableau 1 : Probabilités d’une bonne estimation à partir d’échantillons d’une population de 150 millions d’individus.
Nombre d’éléments de l’échantillon
|
Probabilité d’une bonne estimation
|
0
|
0
|
1
|
nulle ou presque
|
2
|
nulle ou presque
|
10 000
|
beaucoup mieux
|
10 millions
|
presque la certitude
|
150 millions
|
1
|
Signalons tout d’abord que les présentations usuelles et les preuves du résultat sont très abstraites dans le sens qu’elles font appel, d’une manière fondamentale, à des concepts et résultats très généraux 8 . Cela rend difficile une compréhension juste du théorème et surtout son interprétation relativement à l’univers des processus aléatoires. Afin de surmonter cette difficulté nous allons utiliser des exemples.
Pour cela, considérons l’ensemble An de toutes les suites de longueur n pouvant être formées à l’aide des symboles 0 et 1. Des exemples d’éléments de A10 seraient : 0110001000, 1011011110, 1010101010. Pour chaque valeur fixe de n, certains des éléments de An auront un faible pourcentage de ‘0’, d’autres un fort pourcentage de ‘0’ et d’autres à peu près le même pourcentage de ‘0’ que de ‘1’.
Posons-nous alors la question suivante : dans l’ensemble An, quel est le pourcentage de suites (qu’on pourrait appeler S-équilibrées) qui ont un pourcentage de ‘0’ compris entre (50 – S) % et (50 + S) % pour un nombre positif S fixé ?
Considérez le tableau suivant :
Tableau 2 : Pourcentage de suites 2-équilibrées selon leurs longueurs
longueur des suites
|
Pourcentage des suites ayant entre 48 et 52 % de ‘0’
|
1,000
|
80.5%
|
2,000
|
92.9%
|
3,000
|
97.2%
|
4,000
|
98.9%
|
5,000
|
99.5%
|
10,000
|
99.99%
|
Tableau 3 : Pourcentage de suites (0.1)-équilibrées selon leurs longueurs
longueur des suites
|
Pourcentage des suites ayant entre 49.9% et 50.1 % de ‘0’
|
10,000
|
16.6%
|
50,000
|
34.8%
|
100,000
|
47.8%
|
200,000
|
63.0%
|
500,000
|
84.5%
|
1,000,000
|
95.4%
|
2,000,000
|
99.5%
|
4. Conclusion
Le présent article a illustré l’importance qu’il y a à s’intéresser au problème des conceptions erronées sur le hasard mais il n’a pas indiqué de méthodes qui permettraient aux étudiants de se construire des modèles du hasard davantage conformes à cette réalité. Ce serait là l’objet principal d’un prochain article où l’on illustrerait l’intérêt des simulations sur ordinateur en relation avec ce problème didactique. Cet article, en présentant l’histoire du développement de la théorie mathématique des probabilités jusqu’à nos jours, pourrait aussi permettre de mieux comprendre que les conceptions erronées ne sont aucunement liées à la théorie mathématique des probabilités mais plutôt aux modèles que l’on construit afin de pouvoir l’exploiter en relation avec des réalités de notre monde.
Remerciement
Je tiens à remercier le comité de rédaction du bulletin AMQ, ainsi que les deux arbitres, de m’avoir fait de nombreuses suggestions pertinentes qui auront permis d’améliorer grandement la lisibilité du texte.
8. Ainsi, par exemple, la preuve usuelle de ce qu’on appelle la Loi faible des Grands Nombres est basée sur un résultat très général appelé l’Inégalité de Tchébycheff.9. Signalons que le résultat prouvé par Bernoulli concerne des séquences plus générales que celles que nous avons considérées. Par exemple, le résultat serait le même si nous considérions des séquences formées avec les symboles 1,2,3,4,5,6: lorsque n croît, presque toutes les séquences comprendraient approximativement le même pourcentage de chacun des six symboles 1,2,3,4,5 et 6.