Rampe de chargement

Une  rampe aluminium sert à charger un véhicule comme une moto par exemple dans un camion ou sur une remorque, sans avoir à faire beaucoup d’efforts, puisqu’il suffit de guider et de pousser le véhicule le long de la rampe, en prenant un peu d’élan au départ, cela se passe très bien.

Vous trouverez des rampes en aluminium de très bonne qualité sur un site internet en particulier, celui de France Tractor, voir rubrique et source : rampe de chargement.

Mise à jour des rampes et des prix.

La loi des grands nombres

3.2 La loi des grands nombres
Le premier théorème important sur les probabilités à avoir été établi est la loi des grands nombres. L’histoire raconte que Jacob Bernoulli a pris une vingtaine d’années pour construire une preuve satisfaisante de ce théorème. Dès cette époque, fin du XVIIe siècle, cette loi a été interprétée comme établissant un lien fondamental entre la théorie des probabilités et la réalité des processus aléatoires. Dans les recherches sur la cognition humaine, la loi des grands nombres est l’un des résultats les plus souvent invoqués car ce résultat est vu comme un des fondements important de règles normatives pour les jugements en probabilité. Par ailleurs, pour le monde ordinaire, il existe aussi une forme de loi des grands nombresqui est souvent invoquée. Dans tous ces cas, cette loi est perçue comme permettant de prédire quelque chose de précis sur le comportement de phénomènes par ailleurs aléatoires.Dans la présente section, nous allons voir que ce résultat mathématique a le même statut, en relation avec les recherches sur la cognition humaine, que les autres résultats de ce type?il ne peut être utilisé pour définir des règles normatives pour évaluer les jugements humains car, en lui-même, il ne dit rien sur les phénomènes aléatoires.Mais avant de considérer cette question, voyons certaines des interprétations qui sont données de cette loi des grands nombres. Étant donné que la signification de ce résultat mathématique, de même que sa relation à l’univers des expériences aléatoires, n’est pas facile à cerner, il n’est pas surprenant de rencontrer des interprétations qui soient invalides. Ci-dessous nous fournissons deux exemples de telles interprétations :

La loi des grands nombres : une loi d’équitéImaginons que deux équipes de force égale, A et B, se rencontrent aujourd’hui. Dans leurs cinq dernières rencontres, l’équipe A a gagné. Certains pourraient alors invoquer la loi des grands nombres pour prédire une victoire de l’équipe B dans la rencontre d’aujourd’hui.Dans cette interprétation, la loi des grands nombres est vue comme une loi d’équité prédisant un rapide retour à l’équilibre pour des événements par ailleurs aléatoires ! Bien entendu une telle interprétation n’est donnée que par des personnes qui n’ont pas étudié, comme tel, le théorème de Bernoulli. Mais, dans la littérature scientifique, on trouve des interprétations toutes aussi incorrectes de ce théorème. L’interprétation qui suit fut donnée par J. Cohen (1981).

La loi des grands nombres : une loi se rapportant à l’échantillonnage de populations finies
 For example, it required the genius of a great mathematician (Bernoulli 1713) to discover and prove that, if you estimate the probability of a certain characteristic’s incidence in a population from its frequency in a sample, then the probability of your estimate’s being correct, within a specific interval of approximation, will vary with the size of the sample. So it is easily understandable that psychological experiments find a tendency among ordinary people, untutored in statistical theory, to be ignorant of this principle and its applications.

 

Que dire de cette interprétation ? Ce résultat fait probablement partie du bagage conceptuel de la majorité des humains car ce qu’il affirme c’est tout simplement que plus nous choisissons un échantillon qui est grand et plus nous augmentons nos chances d’obtenir un portrait adéquat de la population entière sur une caractéristique donnée ! Nous croyons qu’une majorité de personnes seraient en accord avec les données du tableau ci-dessous lesquelles représentent une instance de la loi de Cohen.

Tableau 1 : Probabilités d’une bonne estimation à partir d’échantillons d’une population de 150 millions d’individus.
Nombre d’éléments de l’échantillon
Probabilité d’une bonne estimation
0
0
1
nulle ou presque
2
nulle ou presque
10 000
beaucoup mieux
10 millions
presque la certitude
150 millions
1
La population pourrait, par exemple, être la population des adultes américains et la caractéristique étudiée être le fait de posséder une voiture ou non.L’interprétation de Cohen correspond à une proposition que l’on pourrait vérifier sur une base expérimentale mais elle n’est pas équivalente à la loi des grands nombres, obtenue par Bernoulli, qui concerne plutôt la répétition potentiellement infinie d’expériences indépendantes.Dans les paragraphes qui suivent nous allons montrer que cette loi des grands nombres est essentiellement un résultat arithmétique, qui ne peut, comme tel, être interprété comme prédisant quoi que ce soit sur les phénomènes aléatoires.

Signalons tout d’abord que les présentations usuelles et les preuves du résultat sont très abstraites dans le sens qu’elles font appel, d’une manière fondamentale, à des concepts et résultats très généraux 8 . Cela rend difficile une compréhension juste du théorème et surtout son interprétation relativement à l’univers des processus aléatoires. Afin de surmonter cette difficulté nous allons utiliser des exemples.

Pour cela, considérons l’ensemble An de toutes les suites de longueur n pouvant être formées à l’aide des symboles 0 et 1. Des exemples d’éléments de A10 seraient : 0110001000, 1011011110, 1010101010. Pour chaque valeur fixe de n, certains des éléments de An auront un faible pourcentage de ‘0’, d’autres un fort pourcentage de ‘0’ et d’autres à peu près le même pourcentage de ‘0’ que de ‘1’.

Posons-nous alors la question suivante : dans l’ensemble An, quel est le pourcentage de suites (qu’on pourrait appeler S-équilibrées) qui ont un pourcentage de ‘0’ compris entre (50 – S) % et (50 + S) % pour un nombre positif S fixé ?

Considérez le tableau suivant :


Tableau 2 : Pourcentage de suites 2-équilibrées selon leurs longueurs
longueur des suites
Pourcentage des suites ayant entre 48 et 52 % de ‘0’
1,000
80.5%
2,000
92.9%
3,000
97.2%
4,000
98.9%
5,000
99.5%
10,000
99.99%
Qu’est ce qui ressort de ce tableau ? Il semble que plus la valeur de n augmente, plus le pourcentage de suites, dans l’ensemble An, ayant entre 48% et 52% de ‘0’ se rapproche de 100%.La loi des grands nombresest une généralisation majeure de cette observation arithmétique. On peut donner à S une valeur aussi petite que désirée et il sera toujours vrai que plus n augmente et plus le pourcentage de suites ayant entre (50-S)% et (50+S)% de ‘0’ se rapprochera de 100%.Examinons le tableau qui suit où S= 0.1.


Tableau 3 : Pourcentage de suites (0.1)-équilibrées selon leurs longueurs
longueur des suites
Pourcentage des suites ayant entre 49.9% et 50.1 % de ‘0’
10,000
16.6%
50,000
34.8%
100,000
47.8%
200,000
63.0%
500,000
84.5%
1,000,000
95.4%
2,000,000
99.5%
Ainsi, en faisant croître n, le pourcentage des suites ayant entre 49.9% et 50.1% de ‘0’ se rapproche de plus en plus de 100%. Cela veut dire que, lorsque n est très grand, presque toutes les suites ont approximativement le même pourcentage de ‘0’ et de ‘1’ !À l’époque de Bernoulli il aurait été impossible de faire les calculs nécessaires pour compléter cette table. Et même aujourd’hui, cela n’est pas simple étant donné que de tels calculs portent sur des nombres extrêmement grands. Aidé d’un assistant de recherche, Eric Bleicher, nous avons développé une méthode qui permet, à l’aide d’un ordinateur, d’effectuer les calculs requis. Fait intéressant à souligner, il aurait été possible d’obtenir les valeurs des tableaux 2 et 3 en utilisant un résultat de la théorie des probabilités (approximation de la distribution binomiale par la distribution normale). Mais, nous voulions montrer que le résultat peut se situer, aujourd’hui, dans le cadre de l’arithmétique combinatoire !Ce remarquable résultat arithmétique est au cŒur de la loi des grands nombres mais il ne concerne pas directement les phénomènes aléatoires 9 . Il est possible, par ailleurs, d’établir un lien entre ce résultat arithmétique et des expériences aléatoires comme celle de lancer une pièce de monnaie. On peut, en effet, penser que chaque suite est générée par le lancer d’une pièce de monnaie : ‘0’ étant un symbole pour face et ‘1’ pour pile. Que signifie alors le résultat arithmétique en regard de cette interprétation ? Si n est suffisamment grand, presque toutes les suites pouvant être formées avec les symboles face et pile comprendront approximativement le même pourcentage de faces et de piles.

Mais avant de pouvoir affirmer que si on lançait effectivement une pièce de monnaie, disons 2,000,000 de fois, la probabilité serait très forte que les pourcentages de piles et de faces soient à peu près équivalents, il faut construire un modèle probabiliste sur l’ensemble des séquences de longueur 2,000,000. La seule façon simple est de poser que chaque suite de longueur 2,000,000 a la même probabilité d’être produite, si on lance une pièce de monnaie 2,000,000 de fois. Cela implique, par exemple, qu’une suite formée de deux millions de ‘0’ a la même probabilité (½) 2 000 000 que toute autre suite comme 00101… 01001 de même longueur. Maintenant, comme presque toutes les suites ont approximativement le même pourcentage de faces et de piles et comme, par hypothèse, chaque suite a la même probabilité d’être produite, on voit que la probabilité d’obtenir une suite qui comprendra à peu près le même pourcentage de faces que de piles, si on lançait une pièce 2,000,000 de fois, est très forte.Le passage d’un résultat arithmétique à un résultat probabiliste dépend toutefois d’une modélisation dans laquelle chaque suite reçoit la même probabilité que toute autre. Mais, comme de nombreuses investigations l’ont montré, des suites de même longueur ne sont généralement pas perçues comme ayant la même chance de survenir : par exemple, une suite de longueur 10 comme 0000000000 est souvent perçue comme ayant moins de chances de survenir qu’une autre telle 0100101101 (Wagenaar, 1970 ; Falk, 1981 ; Kahneman et Tversky, 1972a ; Teigen, 1983).Cette conception erronée semble relié à la difficulté que les humains ont de voir les lancers successifs d’une pièce comme indépendants. Si on perçoit une suite formée de dix 0 consécutifs comme pratiquement impossible c’est que l’on attend un pile, après quelques faces consécutives, et si ce pile ne survient pas, la suite apparaîtra irréaliste. Par contre, la seconde suite, ci-dessus, est davantage en accord avec la perception intuitive que l’on a du hasard.


4. Conclusion
De nombreux résultats de la théorie des probabilités dépendent directement de l’hypothèse d’indépendance. Dans le cas de la loi des grands nombres, on a vu que sans hypothèse sur la probabilité des suites, la loi est uniquement un résultat de la mathématique combinatoire qui ne peut être interprété d’une façon univoque dans l’univers des expériences aléatoires. L’exemple considéré est typique : pour celui ou celle qui ne perçoit pas l’hypothèse d’indépendance comme vraie, aucun résultat mathématique qui en dépend ne peut être interprété comme signifiant quoi que ce soit en relation avec la réalité des phénomènes aléatoires.Dans la première section de cet article, nous avons donné quelques exemples de règles normatives pour le jeu de la roulette américaine. La raison pour laquelle ces règles ne peuvent être justifiées en se basant uniquement sur le raisonnement devrait maintenant être apparente. Si on ne peut, par exemple, prouver qu’il n’y a pas de façons utiles d’utiliser l’information provenant des tours passés à la roulette, c’est qu’une telle preuve utiliserait, de manière essentielle, l’hypothèse d’indépendance entre les différents tours de la roulette. Mais, pour celui ou celle qui croit que ces résultats passés fournissent de l’information utile, une telle hypothèse est tout à fait absurde ! La situation est semblable pour la troisième règle : «Si on joue suffisamment longtemps, on est certain de perdre». Afin de prouver cette proposition, on argumenterait que l’espérance mathématique d’un pari à ce jeu est négative. Mais, pour évaluer cette espérance mathématique on doit supposer l’indépendance des tours de roulette. Pour celui ou celle qui croit, par exemple, qu’après cinq rouges consécutifs la probabilité de noir devient plus grande que celle de rouge, l’utilisation de la probabilité comme un nombre fixe, est inappropriée. Ainsi, si on considère que la probabilité d’un événement est, d’une certaine façon, une variable dépendante des résultats passés il n’est pas impératif de croire que l’on sortira perdant, éventuellement, en jouant à un jeu dont l’espérance mathématique est négative !Que peut-on retirer de ce qui précède ? Si l’on croît que par le raisonnement il y a une façon de justifier les règles normatives des jugements sur la probabilité, on utilisera des arguments pour convaincre les sceptiques. Par ailleurs, si on comprend que les règles normatives ne peuvent être justifiées par des arguments, cela peut vraiment changer l’approche didactique du problème des conceptions erronées.

Le présent article a illustré l’importance qu’il y a à s’intéresser au problème des conceptions erronées sur le hasard mais il n’a pas indiqué de méthodes qui permettraient aux étudiants de se construire des modèles du hasard davantage conformes à cette réalité. Ce serait là l’objet principal d’un prochain article où l’on illustrerait l’intérêt des simulations sur ordinateur en relation avec ce problème didactique. Cet article, en présentant l’histoire du développement de la théorie mathématique des probabilités jusqu’à nos jours, pourrait aussi permettre de mieux comprendre que les conceptions erronées ne sont aucunement liées à la théorie mathématique des probabilités mais plutôt aux modèles que l’on construit afin de pouvoir l’exploiter en relation avec des réalités de notre monde.

Remerciement

Je tiens à remercier le comité de rédaction du bulletin AMQ, ainsi que les deux arbitres, de m’avoir fait de nombreuses suggestions pertinentes qui auront permis d’améliorer grandement la lisibilité du texte.


8. Ainsi, par exemple, la preuve usuelle de ce qu’on appelle la Loi faible des Grands Nombres est basée sur un résultat très général appelé l’Inégalité de Tchébycheff.
9. Signalons que le résultat prouvé par Bernoulli concerne des séquences plus générales que celles que nous avons considérées. Par exemple, le résultat serait le même si nous considérions des séquences formées avec les symboles 1,2,3,4,5,6: lorsque n croît, presque toutes les séquences comprendraient approximativement le même pourcentage de chacun des six symboles 1,2,3,4,5 et 6.

Regards sur les probabilités et leurs relations à la réalité

3. Regards sur les probabilités et leurs relations à la réalité
3.1 Les débuts de la théorie mathématique des probabilités
Bien que Blaise Pascal et Pierre de Fermat ne furent pas les premiers à s’intéresser à des questions de probabilité, l’évolution scientifique du concept de probabilité n’a débuté véritablement qu’en 1652 à l’occasion d’un échange de lettres entre ces deux mathématiciens. Leur démarche les mena tout d’abord à donner une définition opérationnelle de la probabilité qui, bien qu’ambiguë et d’application limitée, associe un nombre, qu’ils appellent la probabilité, à un événement aléatoire. Ils définirent la probabilité d’un événement comme suit :
 Si des n résultats équipossibles d’une expérience aléatoire m d’entre eux amènent l’événement A alors la probabilité de A est m/n.

 

Une conséquence intéressante de cette définition est qu’en l’utilisant Pascal put facilement fournir une solution à un des problèmes que lui avait soumis le Chevalier de Méré, un joueur invétéré. Ce problème est le suivant :
 On lance un dé normal jusqu’à 4 fois. Si on obtient au moins un six on gagne un certain montant, si aucun six n’apparaît en 4 lancers on perd ce même montant. Est-ce que ce jeu est équitable ?

 

Au moyen d’un raisonnement qui nous est inconnu, De Méré s’était convaincu que ce jeu était équitable. Pourtant au jeu lui-même, pour lequel il tenait des statistiques, il semblait qu’il y avait un très léger avantage pour celui qui préférait parier sur l’occurrence d’au moins un six en 4 lancers.

On peut utiliser la définition de Pascal pour évaluer la probabilité d’au moins un six. Tout d’abord, nous évaluons la probabilité d’aucun six en 4 lancers.

Il y a 64 = 1296 résultats différents et
54 = 625 où aucun six ne survient.
La probabilité d’aucun six en 4 lancers est donc égale à 625/1296 = 0.4823. La probabilité d’au moins un six est donc égale à 1 ? 0.4823 = 0.5177.

De Méré parut satisfait de cette solution car elle était compatible avec ses données expérimentales. Les calculs de probabilité ci-dessus sont normalement considérés comme apportant une solution mathématique au problème posé. Mais est-ce que les choses sont aussi simples ?

Posons-nous la question suivante : qu’est-ce que Pascal a vraiment prouvé par son calcul? Il s’agissait du fait arithmétique suivant : parmi les 1296 résultats possibles de quatre lancers d’un dé, il y en a 671 pour lesquels au moins un six est présent et dans les 625 autres il n’y a pas de six. Maintenant, pour quiconque pense que les 1296 résultats possibles ont la même chance de survenir, il devrait être évident que la solution rationnelle consiste à parier sur le fait qu’un six surviendra, au moins une fois, en quatre lancers. Mais l’hypothèse que tous les cas sont également probables ne peut être démontrée à l’intérieur du calcul des probabilités de Pascal ni par aucun autre moyen purement théorique. Par contre, cette hypothèse pourrait être testée statistiquement sur la base de données provenant, disons, de la répétition, un million de fois, de l’expérience consistant à lancer un dé quatre fois !

Nous examinons, ci-dessous, plus en détails, le concept d’équiprobabilité car il s’agit du concept clé de cette section. Pour Pascal et ses successeurs, l’équiprobabilité des résultats n’était même pas une hypothèse car cela correspondait à une vérité qui allait de soi dans notre univers. Pascal ne pouvait en effet voir aucune raison pour laquelle on pouvait imaginer qu’un résultat tel <5,5,5,5> avait moins de chances de survenir qu’un autre tel <6,3,4,5>.

Pour Pascal, l’équiprobabilité était une conséquence de l’indépendance entre les lancers du dé. Cette indépendance signifiait que le résultat de tout lancer n’est aucunement influencé par le résultat d’un lancer précédent. Par exemple, si les deux premiers lancers ont amené le quatre alors le quatre a encore la même chance, une sur six, de survenir au prochain lancer. Ainsi pour quiconque croit à l’indépendance des lancers, tous les résultats possibles ont même chance de survenir.

Cette perspective sur l’équiprobabilité montre cependant qu’il s’agit d’une hypothèse qui porte sur la réalité et non d’un principe purement logique. Pour plusieurs joueurs (Wagenaar, 1982 ; Henslin, 1967), de même que pour une forte proportion d’humains, une telle hypothèse est implicitement fausse car ils utilisent des heuristiques qui reposent sur la croyance que les résultats passés ont une influence sur les résultats futurs.

L’exemple du problème du chevalier de Méré fournit un indice d’un point très important qui sera développé plus loin : le raisonnement mathématique ne permet pas d’aller au-delà de certaines limites : lorsqu’elles sont atteintes, on doit se baser sur des hypothèses pour obtenir des résultats qui seront interprétables dans le monde des processus aléatoires.

Dans son ouvrage, Calcul des probabilités, Poincaré (1912) avait déjà signalé cette difficulté de la théorie des probabilités :

 Comment pouvons-nous déterminer, a priori, que tous les cas sont équiprobables ? La détermination par la mathématique est impossible. Dans chaque situation, on doit poser des hypothèses et spécifier que les différents cas seront considérés comme équiprobables. Ces hypothèses ne sont pas complètement arbitraires mais nous ne devons jamais oublier que ce sont uniquement des hypothèses.

 

Le prochain exemple illustre que les conceptions erronées, dans le domaine des probabilités, peuvent être liées à des aspects de la modélisation pour lesquels la mathématique des probabilités n’offre aucun support. L’exemple illustrera aussi la difficulté de justifier les règles normatives en ce domaine.

Au jeu de LOTO 6/49, six boules sont choisies au hasard à partir d’un boulier qui en contient 49. Avant le tirage, les parieurs auront sélectionné une ou plusieurs combinaisons de 6 numéros. Pour gagner un prix, le nombre de coïncidences entre nos choix et les numéros tirés doit être de 3 ou plus ; on gagne le gros lot si on a sélectionné les 6 bons numéros.

Posons-nous la question suivante :

 Au LOTO 6/49, quelle est la probabilité de gagner le gros lot si on choisit la seule combinaison suivante : {1,2,3,4,5,6} ? (rappelons qu’il s’agit d’un tirage sans remise)

 

Pour un mathématicien, un tel problème est trivial. Utilisant un résultat bien connu de la combinatoire, on dénombre le nombre de résultats possibles à ce jeu (13, 983, 816). La probabilité d’une quelconque combinaison est alors 1 sur 13, 983, 816. En faisant ce calcul, le mathématicien a implicitement utilisé l’hypothèse que deux combinaisons quelconques avaient les mêmes chances de survenir. Mais, pour le monde ordinaire, cette hypothèse n’a aucun sens car les différentes combinaisons ne sont pas perçues comme ayant les mêmes chances. Si on demande à des sujets de choisir une des deux combinaisons suivantes {1,2,3,4,5,6} ou {7,13,22,34,41,47}, pratiquement tout le monde choisit la seconde

Ce qui est intéressant, en relation avec cet exemple, c’est la règle normative qui affirme que deux combinaisons quelconques ont les mêmes chances de survenir. Comment savons-nous que cette règle est vraie ? En premier lieu il est impossible de démontrer un tel résultat en se situant à l’intérieur de la théorie des probabilités. Même si on accepte que chaque boule a la même chance que toute autre de survenir, il ne s’ensuit pas que deux combinaisons de 6 chiffres ont la même chance. De plus, en raison du nombre faramineux de combinaisons possibles, il serait impossible de définir une expérience dont les résultats fourniraient un appui à cette hypothèse. Ceci fournit un très bel exemple d’une règle normative qui ne peut être justifiée ni par la mathématique ni par des expériences concrètes.

Voici une autre illustration du fait que les conceptions erronées sont liées à la modélisation et non à la mathématique des probabilités. Supposons qu’une personne croit qu’après cinq rouges consécutifs à la roulette le noir a plus de chance que le rouge de survenir au prochain tour. Une telle croyance n’est pas en opposition avec la mathématique des probabilités. Lorsque nous construisons un modèle pour la roulette en associant au rouge une probabilité de ½ (supposant qu’il n’y a pas de 0), il s’agit en fait d’une hypothèse et non d’un résultat. Mais cette hypothèse n’est pas suffisante pour, par exemple, calculer la probabilité d’obtenir, disons, trois fois le rouge et trois fois le noir lors des 6 prochains tours de la roulette. Avant de faire quelques calculs, on doit postuler une mesure de probabilité sur l’ensemble des 64 séquences possibles et le choix naturel est la mesure uniforme. Ce postulat implique, par exemple, que les séquences RRRRRR et RRRRRN ont la même probabilité. Pour celui ou celle qui pense que le noir a plus de chances que le rouge après 5 rouges de suite ce modèle sera perçu comme inapproprié. En bout de piste, la validité de tels modèles de base ne pourrait être établie que par des expériences systématiques.

En examinant des exemples simples, nous avons voulu illustrer la difficulté de justifier les règles normatives. Dans la section suivante nous considérons une règle normative plus fondamentale qui est souvent utilisée pour évaluer les conceptions humaines en matière de probabilité 7 .

7. Si les deux combinaisons étaient perçues comme équiprobables, on comprendrait que la chance de gagner le gros lot est infinitésimale.