Théorie de l'information
théorie mathématique du domaine de la théorie des probabilités et statistiques / De Wikipedia, l'encyclopédie encyclopedia
Cher Wikiwand IA, Faisons court en répondant simplement à ces questions clés :
Pouvez-vous énumérer les principaux faits et statistiques sur Théorie de l'information?
Résumez cet article pour un enfant de 10 ans
Ne doit pas être confondu avec Science de l'information.
Pour l’article homonyme, voir La Théorie de l'information (roman).
La théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer :
- le codage de l'information ;
- la mesure quantitative de redondance d'un texte ;
- la compression de données ;
- la cryptographie.
Dans un sens plus général, une théorie de l'information vise à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données dans un certain contexte. Elle est à distinguer de la théorie algorithmique de l'information, créée par Kolmogorov, Solomonoff et Chaitin au début des années 1960.