Hasard et probabilités.
Auteur : Rittaud Benoît
Résumé
Partant de quelques jeux de hasard et du modèle équiprobable (le favorable face au possible, les combinaisons), l’ouvrage introduit ensuite les variables aléatoires et l’espérance mathématique, puis l’indépendance et le conditionnement et pose les bases de la théorie de l’information. Les deux derniers chapitres (l’invasion de l’infini, des probabilités aux mesures) montrent les difficultés du passage d’un univers fini au cas général et la nécessité d’introduire les tribus.
Notes
Ce livre fait l’objet d’une recension sous la rubrique « matériaux pour une documentation » du Bulletin de l’APMEP n° 441.
Données de publication
Éditeur Le Pommier Paris , 2002 Collection Quatre à Quatre Format 13,4 cm x 20 cm, 148 p. Index Index p. 143-147, Bibliogr. p. 137
ISBN 2-7465-0092-2 EAN 9782746500921 ISSN 1297-8612
Public visé tout public
Type monographie, polycopié, vulgarisation, popularisation Langue français Support papier
Classification
Mots-clés
- arrangement
- cardinal d'un ensemble
- combinaison – sans répétition –
- combinatoire et probabilités
- concept de probabilité
- entropie – théorie de l'information –
- espérance conditionnelle
- espérance mathématique
- événement élémentaire
- événements incompatibles
- événements indépendants
- factorielle d'un entier
- formule de Bayes
- formule du crible de Poincaré
- indépendance en probabilité
- inégalité de Markov
- inégalité de Tchebychev
- jeu de hasard
- jeu de pile ou face
- loi binomiale
- loi de Bernoulli
- loi de Poisson
- loi des grands nombres
- loi géométrique
- loi hypergéométrique
- notion de hasard
- probabilité conditionnelle
- problème de dénombrement
- problème de dés
- situation d'équiprobabilité
- théorème de Koenig-Huygens
- théorie de l'information
- théorie de la mesure
- théorie des probabilités
- tirage aléatoire
- tribu de Borel
- tribu de Lebesgue
- variable aléatoire
- variance d'une variable aléatoire