Vue normale Vue MARC vue ISBD

Théorie de l'information : trois théorèmes de Claude Shannon / Antoine Chambert-Loir

Auteur principal: Chambert-Loir, Antoine, AuteurLangue : français.Pays : France.Publication : Paris : Calvage et Mounet, 2022Description : 1 vol. (xvi-261 p.) : couv. en coul. ; 20 cmISBN : 9782493230003.Collection: Nano, 110Résumé : "La théorie mathématique de la communication se donne pour objectif de formaliser les processus de transmission d'informations dans un canal de communication possiblement soumis à des perturbations. Dans un article publié en 1948 et dont on considère qu'il a donné naissance à cette théorie, le mathématicien américain Claude Shannon propose un modèle mathématique de ce processus qui repose sur la théorie des probabilités. Il introduit le concept fondamental d'entropie d'une variable aléatoire qui représente la quantité d'information qu'en fournit l'observation. L'entropie intervient également dans la définition de la capacité de transmission d'un canal de communication, et Shannon démontre que cette capacité est exactement la quantité d'information que ce canal permet de véhiculer avec un risque d'erreur aussi petit que voulu. Un autre aspect de la théorie mathématique de la communication est l'échantillonnage, c'est-à-dire la mesure, à intervalles réguliers, d'un signal. Un théorème de la théorie des séries de Fourier, souvent attribué à Shannon et Nyquist, établit la possibilité de reproduire le signal sur la base de ces observations ponctuelles, pourvu que la fréquence d'échantillonnage soit assez élevée. En fin de volume, on explore quelques aspects du théorème d'incertitude de Heisenberg pour la théorie de la communication. Le présent volume de la collection Nano est issu d'un cours fait par l'auteur au sein du master « Mathématiques et informatique » de l'université Paris Cité. Il vise à présenter ces résultats fondateurs et fondamentaux d'une façon précise et rigoureuse, et néanmoins accessible dès les premières années d'université. Le livre devrait pouvoir être lu avec une compréhension intuitive de la notion de probabilité, et une partie préliminaire en rappelle d'ailleurs les définitions et résultats de base. Chaque chapitre est accompagné de nombreux exercices, dont les corrections sont données en fin de volume. Au delà des étudiants en faculté ou en école d'ingénieurs, ce livre pourrait attirer les personnes curieuses d'aborder de façon mathématique une question qui se situe à l'interaction de l'ingénierie, de l'informatique et de la technologie, et peut-être même les thanatocrates de tout poil.".Sujet - Nom commun: Information, Théorie de l'
Tags de cette bibliothèque : Pas de tags pour ce titre. Connectez-vous pour ajouter des tags.
Evaluations
    Classement moyen : 0.0 (0 votes)
Exemplaires
Type de document Site actuel Cote Statut Date de retour prévue Code à barres
Monographie IREM P7 Salle de lecture 03.57 CHA 22 (Parcourir l'étagère(Ouvrir ci-dessous)) Disponible 13466

"La théorie mathématique de la communication se donne pour objectif de formaliser les processus de transmission d'informations dans un canal de communication possiblement soumis à des perturbations. Dans un article publié en 1948 et dont on considère qu'il a donné naissance à cette théorie, le mathématicien américain Claude Shannon propose un modèle mathématique de ce processus qui repose sur la théorie des probabilités. Il introduit le concept fondamental d'entropie d'une variable aléatoire qui représente la quantité d'information qu'en fournit l'observation. L'entropie intervient également dans la définition de la capacité de transmission d'un canal de communication, et Shannon démontre que cette capacité est exactement la quantité d'information que ce canal permet de véhiculer avec un risque d'erreur aussi petit que voulu. Un autre aspect de la théorie mathématique de la communication est l'échantillonnage, c'est-à-dire la mesure, à intervalles réguliers, d'un signal. Un théorème de la théorie des séries de Fourier, souvent attribué à Shannon et Nyquist, établit la possibilité de reproduire le signal sur la base de ces observations ponctuelles, pourvu que la fréquence d'échantillonnage soit assez élevée. En fin de volume, on explore quelques aspects du théorème d'incertitude de Heisenberg pour la théorie de la communication. Le présent volume de la collection Nano est issu d'un cours fait par l'auteur au sein du master « Mathématiques et informatique » de l'université Paris Cité. Il vise à présenter ces résultats fondateurs et fondamentaux d'une façon précise et rigoureuse, et néanmoins accessible dès les premières années d'université. Le livre devrait pouvoir être lu avec une compréhension intuitive de la notion de probabilité, et une partie préliminaire en rappelle d'ailleurs les définitions et résultats de base. Chaque chapitre est accompagné de nombreux exercices, dont les corrections sont données en fin de volume. Au delà des étudiants en faculté ou en école d'ingénieurs, ce livre pourrait attirer les personnes curieuses d'aborder de façon mathématique une question qui se situe à l'interaction de l'ingénierie, de l'informatique et de la technologie, et peut-être même les thanatocrates de tout poil."

Il n'y a pas de commentaire pour ce titre.

pour proposer un commentaire.

Propulsé par Koha