Le résultat du développement de la théorie de la communication de Shannon. La théorie de l'information de Claude Shannon

La brève biographie de Claude Shannon et des faits intéressants sur la vie de l'ingénieur, cryptanalyste et mathématicien américain, père de l'ère de l'information, sont présentés dans cet article.

Courte biographie de Claude Shannon

Claude Elwood Shannon est né le 30 avril 1916 dans la ville de Petocki, Michigan. Son père était avocat et sa mère enseignait les langues étrangères. En 1932, le jeune homme obtient son diplôme d'études secondaires et suit simultanément ses études à la maison. Le père de Claude achetait constamment à son fils des kits radioamateurs et des jeux de construction, favorisant ainsi sa créativité technique. Et sa sœur aînée lui a donné des cours approfondis de mathématiques. L’amour pour la technologie et les mathématiques était donc évident.

En 1932, le futur scientifique entre à l'Université du Michigan. Il est diplômé de l'établissement d'enseignement en 1936 avec un baccalauréat en mathématiques et en génie électrique. À l'université, il a lu les ouvrages « Calculus logique » et « Analyse mathématique de la logique » de l'auteur George Boole, qui ont largement déterminé ses futurs intérêts scientifiques.

Bientôt, il fut invité à travailler au Massachusetts Institute of Technology en tant qu'assistant de recherche dans le laboratoire de génie électrique. Shannon a travaillé sur la mise à niveau d'un ordinateur analogique, l'analyseur différentiel de Vannevar Bush.

En 1936, Claude décide de s'inscrire à un programme de maîtrise et, un an plus tard, il rédige son mémoire. Sur cette base, il produit un article intitulé « Symbolic Analysis of Relays and Switching Circuits », publié en 1938 dans le Journal of the American Institute of Electrical Engineers. Son article a suscité l'intérêt de la communauté scientifique du génie électrique et en 1939, il a reçu le prix. Alfred Nobel. Sans terminer son mémoire de maîtrise, Shannon a commencé à travailler sur son doctorat en mathématiques, abordant des problèmes de génétique. Cela s’appelait « Algèbre pour la génétique théorique ».

En 1941, à l'âge de 25 ans, il commence à travailler au département de mathématiques du centre de recherche des Laboratoires Bell. A cette époque, les hostilités commencent en Europe. L'Amérique a financé les recherches de Shannon dans le domaine de la cryptographie. Il est l'auteur de l'analyse de textes cryptés à l'aide de méthodes théoriques de l'information. En 1945, le scientifique a rédigé un important rapport secret intitulé « La théorie mathématique de la cryptographie ».

Quelles contributions Claude Shannon a-t-il apporté à l'informatique ?

Dans ses recherches, le scientifique a préparé des concepts sur la théorie de l'information. En 1948, Shannon publie l’ouvrage « Mathematical Theory of Communication », dans lequel la théorie mathématique apparaît comme un récepteur d’informations et un canal de communication pour sa transmission. Il ne reste plus qu'à tout traduire dans un langage plus simple et à transmettre nos réalisations à l'humanité. Claude Shannon a introduit le concept d'entropie de l'information, qui désigne une quantité, une unité d'information. Le scientifique raconte qu'un mathématicien lui a conseillé d'utiliser ce terme. Claude Shannon a créé 6 théorèmes conceptuels qui sont à la base de sa théorie de l'information :

  • Théorème d'évaluation quantitative de l'information.
  • Théorème pour l'emballage rationnel des symboles lors du codage primaire.
  • Théorème pour faire correspondre le flux d'informations avec la capacité d'un canal de communication sans interférence.
  • Théorème pour faire correspondre le flux d'informations avec la capacité d'un canal de communication binaire avec du bruit.
  • Théorème d'estimation de la capacité d'un canal de communication continu.
  • Théorème pour la reconstruction sans erreur d'un signal continu.

En 1956, le scientifique cesse de travailler aux Laboratoires Bell et occupe le poste de professeur dans deux facultés du Massachusetts Institute of Technology : génie électrique et mathématiques.

À 50 ans, il arrête d’enseigner et se consacre entièrement à ses passe-temps favoris. Il a créé un monocycle avec 2 selles, des robots qui résolvent un Rubik's cube et jonglent avec des balles, ainsi qu'un couteau pliant à plusieurs lames. En 1965, il visite l'URSS. Et récemment, Claude Shannon était très malade et est décédée en février 2001 des suites de la maladie d'Alzheimer dans une maison de retraite du Massachusetts.

Claude Shannon faits intéressants

Shannon a reçu l'amour de la science grâce à son grand-père. Le grand-père de Shannon était inventeur et agriculteur. Il a inventé la machine à laver ainsi que de nombreux autres équipements agricoles utiles

Adolescent, il travaillé comme messager chez Western Union.

Il aimait jouer de la clarinette, écouté de la musique et lu de la poésie.

Shannon a épousé Mary Elizabeth Moore Shannon, qu'il a rencontrée aux Bell Labs, le 27 mars 1949. Elle y a travaillé comme analyste. Le couple a eu trois enfants : Andrew Moore, Robert James et Margarita Katerina.

Claude Shannon aimait aller à Las Vegas le week-end avec sa femme Betty et un collègue pour jouer au blackjack. Shannon et son ami ont même conçu le premier ordinateur portable au monde « à compter les cartes ».

Il a participé au développement de dispositifs permettant de détecter les avions ennemis et de pointer sur eux des canons anti-aériens. Il a également créé un système cryptographique pour le gouvernement américain, garantissant le secret des négociations entre Roosevelt et Churchill.

Il aimait jouer aux échecs et jongler. Des témoins de sa jeunesse aux Laboratoires Bell ont rappelé comment il parcourait les couloirs de l'entreprise en monocycle, tout en jonglant avec des balles.

Il a créé un monocycle à deux selles, un couteau pliant à cent lames, des robots qui résolvent un Rubik's cube et un robot qui jongle avec des balles.

Shannon, selon ses propres mots, était une personne apolitique et athée.

Domaine scientifique : Lieu de travail : Alma mater: Connu sous le nom de : Prix ​​et récompenses


  • Prix ​​nommé d'après A. Nobel AIEE (1940);
  • Prix ​​à la mémoire de M. Libman (Anglais) russe IRE (1949);
  • Médaille d'honneur IEEE (1966);
  • Médaille nationale des sciences (1966);
  • Prix ​​Harvey (1972);
  • Prix ​​Kyoto (1985).

Biographie

En 1985, Claude Shannon et son épouse Betty participent au Symposium international sur la théorie de l'information à Brighton. Shannon n'a pas assisté aux conférences internationales pendant assez longtemps et, au début, ils ne l'ont même pas reconnu. Lors du banquet, Claude Shannon a prononcé un bref discours, n'a jonglé qu'avec trois balles, puis a donné des centaines et des centaines d'autographes aux scientifiques et ingénieurs émerveillés qui faisaient la queue, ressentant des sentiments de respect envers le grand scientifique, le comparant à Sir Isaac Newton.

Il a été le développeur du premier jouet industriel radiocommandé, produit dans les années 50 au Japon (photo). Il a également développé un appareil capable de plier un Rubik's cube (photo), un mini-ordinateur pour le jeu de société Hex, qui battait toujours l'adversaire (photo), une souris mécanique capable de trouver la sortie d'un labyrinthe (photo). Il a également réalisé l'idée de la machine à bandes dessinées « Ultimate Machine » (photo).

Théorie de la communication dans les systèmes secrets

L'ouvrage de Shannon « La théorie de la communication dans les systèmes secrets » (1945), classé « secret », qui n'a été déclassifié et publié qu'en 1949, a servi de point de départ à des recherches approfondies sur la théorie du codage et de la transmission de l'information et, en l’opinion générale, a donné à la cryptographie le statut de science. C'est Claude Shannon qui a commencé à étudier la cryptographie en utilisant une approche scientifique. Dans cet article, Shannon définit les concepts fondamentaux de la théorie de la cryptographie, sans lesquels la cryptographie n'est plus concevable. Le mérite important de Shannon réside dans la recherche de systèmes absolument sécurisés et de la preuve de leur existence, ainsi que de l'existence de chiffres cryptographiquement forts et des conditions requises pour cela. Shannon a également formulé les exigences de base pour les chiffrements forts. Il a introduit les concepts désormais familiers de diffusion et de mélange, ainsi que des méthodes permettant de créer des systèmes de cryptage cryptographiquement forts basés sur des opérations simples. Cet article est le point de départ pour étudier la science de la cryptographie.

Article "Théorie mathématique de la communication"

  • Le théorème de Nyquist-Shannon (dans la littérature russe - le théorème de Kotelnikov) concerne la reconstruction sans ambiguïté d'un signal à partir de ses échantillons discrets.
  • (ou théorème du chiffrement silencieux) fixe une limite pour la compression maximale des données et une valeur numérique pour l'entropie de Shannon.
  • Théorème de Shannon-Hartley

Voir aussi

  • Formule d'interpolation de Whittaker-Shannon

Remarques

Littérature

  • Shannon C.E. Une théorie mathématique de la communication // Journal technique du système Bell. - 1948. - T. 27. - P. 379-423, 623-656.
  • Shannon C.E. Communication en présence de bruit // Proc. Institut des ingénieurs radio. - Jan. 1949. - T. 37. - N° 1. - P. 10-21.
  • Shannon K. Travaux sur la théorie de l'information et la cybernétique. - M. : Maison d'édition de littérature étrangère, 1963. - 830 p.

Links

  • Bibliographie (anglais)

Catégories :

  • Personnalités par ordre alphabétique
  • Scientifiques par alphabet
  • Né le 30 avril
  • Né en 1916
  • Né dans le Michigan
  • Décédé le 24 février
  • Décédé en 2001
  • Décès dans le Massachusetts
  • Mathématiciens américains
  • Théorie de l'information
  • Cryptographes
  • Cybernétique
  • Pionniers de la technologie informatique
  • Chercheurs en intelligence artificielle
  • Scientifiques dans le domaine de la science des systèmes
  • Anciens élèves du MIT
  • Anciens élèves de l'Université du Michigan
  • Faculté du MIT
  • Membres et membres correspondants de l'Académie nationale des sciences des États-Unis
  • Fellows étrangers de la Royal Society de Londres
  • Mathématiciens du 20e siècle
  • Lauréats du prix Harvey
  • Récipiendaires de la Médaille nationale américaine de la science
  • Récipiendaires de la médaille d'honneur de l'IEEE
  • Personnes : échecs informatiques
  • Ingénieurs électriciens américains

Fondation Wikimédia.

2010. Claude Elwood Shannon -éminent scientifique américain

dans le domaine des mathématiques, de l'ingénierie, de la cryptanalyse. Il a acquis une renommée mondiale grâce à ses découvertes dans le domaine des technologies de l'information et invention du « mors » (1948),

comme la plus petite unité d’information. Il est considéré comme le fondateur de la théorie de l'information, dont les principales dispositions sont toujours d'actualité dans le domaine des communications de haute technologie et des communications modernes. Shannon était aussi le concept d’« entropie » a été introduit pour la première fois

, ce qui indique une quantité indéfinie d'informations transmises.

Ce scientifique a été le premier à appliquer une approche scientifique aux idées d'information et aux lois de la cryptographie, étayant ses réflexions dans des travaux sur la théorie mathématique de la communication, ainsi que sur la théorie de la communication dans les systèmes secrets.

Il a également apporté une grande contribution au développement de la cybernétique, en étayant des points clés tels que le schéma probabiliste, le concept scientifique du jeu, ainsi que des réflexions sur la création d'automates et de systèmes de gestion.

Enfance et adolescence Claude Shannon est né à Petoskey, Michigan, États-Unis. Cet événement joyeux s'est produit

30/04/1916.

Le père du futur scientifique exerçait des activités dans le domaine du plaidoyer, puis fut nommé juge. La mère a enseigné les langues étrangères et a finalement obtenu le poste de directrice d'école à Gaylord.

Shannon Sr. avait des penchants pour les mathématiques. Son grand-père, agriculteur et inventeur, a joué un rôle clé dans la formation de l’inclination de son petit-fils vers l’activité scientifique. Dans son arsenal création d'une machine à laver

et certains types de machines agricoles appliquées. Il est à noter qu'Edison a des liens familiaux avec cette famille. À l'âge de 16 ans, Claude obtient son diplôme d'études secondaires, où sa mère enseignait. j'ai réussi à travailler courrier vers Western Union,

engagé dans la conception de divers appareils.

Il s'intéressait au modélisme aérien et aux équipements radio, ainsi qu'à la réparation de petites stations de radio. De ses propres mains, il a fabriqué un bateau radiocommandé et un télégraphe pour communiquer avec un ami.

Comme Claude lui-même l'assure, il ne s'intéressait absolument pas seulement à la politique et à la foi en Dieu.

Années étudiantes

Son premier emploi était celui d'assistant de recherche au Massachusetts Institute of Technology. Claude a mené ses activités scientifiques en tant qu'opérateur d'un appareil informatique mécanique créé par son professeur V. Bush.

Après avoir approfondi les développements scientifiques conceptuels de Boole, Shannon a réalisé la possibilité de leur application pratique. Protéger mémoire de maîtrise en 1937, qui était supervisé par Frank L. Hitchcock, il a rejoint les célèbres Bell Telephone Laboratories, où il a produit du matériel sur l'analyse symbolique dans les circuits de commutation et l'utilisation de relais.

Il a été publié dans les pages d'un magazine spécial de l'Institute of Electrical Engineers des États-Unis (1938).

Les principales dispositions de l'article ont été révélées amélioration du routage des appels téléphoniques, grâce au remplacement des relais de type électromécanique par un circuit de commutation. Le jeune scientifique a étayé le concept de la possibilité de résoudre tous les problèmes d'algèbre booléenne à l'aide de schémas.

Cette œuvre de Shannon a reçu Prix ​​Nobel de génie électrique (1940) et est devenu la base pour créer des circuits numériques logiques dans les circuits électriques. Les travaux de ce master sont devenus une véritable avancée scientifique du XXe siècle, jetant les bases de la création de la technologie informatique électronique de la génération moderne.

Bush a recommandé à Shannon de poursuivre une thèse de doctorat en mathématiques. Ils ont accordé une attention particulière aux recherches mathématiques en lien étroit avec les lois génétiques de l'héritage du célèbre Mendel. Mais ce travail n’a jamais reçu la reconnaissance voulue et n’a été publié qu’en 1993.

Les scientifiques ont consacré beaucoup d’efforts à la construction d’une base mathématique pour diverses disciplines, notamment les technologies de l’information. Cela a été facilité par sa communication avec un éminent mathématicien G. Weyl, ainsi que J. von Neumann, Einstein, Gödel.

Période de guerre

Du printemps 1941 à 1956 Claude Shannon travaille pour la défense américaine, développer le contrôle de tir et la détection de l'ennemi lors de la défense aérienne. Il a créé une relation intergouvernementale stable entre le président américain et le Premier ministre britannique.

Il a reçu le National Research Award pour son article sur la conception de circuits de commutation bipolaires (1942).

Le scientifique s'est intéressé aux idées de l'Anglais Turing sur le cryptage de la parole (1943) et déjà en 1945, il a publié un ouvrage sur la moyenne et la prévision des données pour les systèmes de conduite de tir. Ses co-auteurs étaient Ralph B. Blackman et H. Bode. Après avoir modélisé un système spécial qui traite les informations et les signaux spéciaux, ils a marqué le début de l’ère de l’information.

Mémorandum secret de K. Shannon sur le terrain théorie mathématique de la cryptographie(1945) ont prouvé que la cryptographie et la théorie de la communication sont indissociables.

Période d'après-guerre

Cette époque est marquée par son mémorandum sur la théorie de la communication d'un point de vue mathématique (1948) concernant l'encodage des textes transmis.

Les travaux ultérieurs de Shannon étaient étroitement liés à la théorie de l'information dans le domaine du développement de jeux, en particulier la roulette, la machine à lire dans les pensées et le sur la résolution d'un Rubik's cube.

Le scientifique a mis en œuvre une idée qui permet de compresser les informations, ce qui évite leur perte lors du déballage.

Le scientifique a créé une école où il organisait périodiquement des séminaires, où il enseignait aux étudiants à trouver de nouvelles approches pour résoudre certains problèmes.

Ses recherches scientifiques sont célèbres en mathématiques financières. Parmi eux, le circuit électrique du flux d’argent dans les fonds de pension américains et la justification du choix d’un portefeuille d’investissement lors de l’allocation des actifs monétaires.

Beaucoup comparent la popularité de Claude Shannon avec Isaac Newton.

Après 1978, à la retraite, il s'initie à la théorie de la jonglerie et conçoit une machine spéciale.

Claude Shannon a publié un recueil de ses articles en 1993, où comprenait 127 de ses travaux scientifiques.

La dernière étape de la vie

Il a passé ses dernières années à la pension du Massachusetts à cause de la maladie d'Alzheimer. Ici, selon son épouse Mary Elizabeth, Claude a participé à des recherches pour étudier les méthodes de traitement.

Toute la famille était constamment avec lui. Le décès est survenu le 24 février 2001.

Shannon laisse dans le deuil sa seule épouse, avec qui son mariage dura depuis mars 1949. Ils eurent des enfants trois enfants Robert, André, Marguerite.

Claude Elwood Shannon(Anglais : Claude Elwood Shannon ; 30 avril 1916, Petocki, Michigan, USA - 24 février 2001, Medford, Massachusetts, USA) - Ingénieur, cryptanalyste et mathématicien américain. Considéré comme le « père de l’ère de l’information ».

Il est le fondateur de la théorie de l’information, qui a trouvé des applications dans les systèmes de communication modernes de haute technologie. Fourni des concepts fondamentaux, des idées et leurs formulations mathématiques qui constituent actuellement la base des technologies de communication modernes. En 1948, il propose d'utiliser le mot « bit » pour désigner la plus petite unité d'information (dans l'article « Théorie mathématique de la communication »). De plus, le concept d’entropie était un élément important de la théorie de Shannon. Il a démontré que l'entropie qu'il a introduite équivaut à une mesure de l'incertitude de l'information contenue dans le message transmis. Les articles de Shannon « Une théorie mathématique des communications » et « La théorie des communications dans les systèmes secrets » sont considérés comme fondamentaux pour la théorie de l'information et la cryptographie. Claude Shannon fut l'un des premiers à aborder la cryptographie d'un point de vue scientifique ; il fut le premier à en formuler les fondements théoriques et à introduire de nombreux concepts de base. Shannon a apporté des contributions clés à la théorie des circuits probabilistes ; théorie des jeux; la théorie des automates et la théorie des systèmes de contrôle sont des domaines scientifiques inclus dans le concept de « cybernétique ».

Biographie

Enfance et jeunesse

Claude Shannon est né le 30 avril 1916 à Petocki, Michigan, États-Unis. Son père, Claude Sr. (1862-1934), était un homme d'affaires autodidacte, avocat et pendant quelque temps juge. La mère de Shannon, Maybelle Woolf Shannon (1890-1945), était une professeure de langues étrangères qui devint plus tard directrice du lycée Gaylord. Le père de Shannon avait un esprit mathématique et était conscient de ses paroles. Shannon a reçu l'amour de la science grâce à son grand-père. Le grand-père de Shannon était inventeur et agriculteur. Il a inventé la machine à laver ainsi que de nombreux autres équipements utiles en agriculture. Thomas Edison était un parent éloigné des Shannon.

Claude a passé les seize premières années de sa vie à Gaylord, dans le Michigan, où il est diplômé de la Gaylord Comprehensive High School en 1932. Dans sa jeunesse, il a travaillé comme coursier pour Western Union. Le jeune Claude s'intéressait à la conception d'appareils mécaniques et automatiques. Il collectionne des modèles réduits d'avions et des circuits radio, crée un bateau radiocommandé et un système télégraphique entre la maison d'un ami et la sienne. Parfois, il devait réparer des radios pour un grand magasin local.

Shannon, selon ses propres mots, était une personne apolitique et athée.

Années universitaires

En 1932, Shannon est inscrit à l'Université du Michigan, où, dans l'un de ses cours, il se familiarise avec le travail de George Boole. En 1936, Claude est diplômé de l'Université du Michigan avec une double spécialisation en mathématiques et en génie électrique et entre au Massachusetts Institute of Technology (MIT), où il travaille comme assistant de recherche. Il a effectué des tâches d'opérateur sur un dispositif informatique mécanique, un ordinateur analogique appelé « analyseur différentiel », développé par son superviseur Vanevar Bush. En étudiant les circuits électriques complexes et hautement spécialisés d'un analyseur différentiel, Shannon a compris que les concepts de Boole pouvaient être utilisés à bon escient. Après avoir travaillé l'été 1937 aux Bell Telephone Laboratories, il rédigea un article basé sur son mémoire de maîtrise cette année-là, "Analyse symbolique des circuits de relais et de commutation". Il convient de noter que Frank Lauren Hitchcock a supervisé le mémoire de maîtrise et a fourni des critiques et des conseils utiles. L'article lui-même a été publié en 1938 dans la publication de l'American Institute of Electrical Engineers (AIEE). Dans ces travaux, il a montré que les circuits de commutation pouvaient être utilisés pour remplacer les circuits relais électromécaniques alors utilisés pour acheminer les appels téléphoniques. Il a ensuite étendu ce concept en montrant que ces circuits pouvaient résoudre tous les problèmes que l'algèbre booléenne pouvait résoudre. Aussi, dans le dernier chapitre, il présente les prototypes de plusieurs circuits, par exemple un additionneur 4 bits. Pour cet article, Shannon a reçu le prix Alfred Nobel de l'American Institute of Electrical Engineers en 1940. La capacité éprouvée à mettre en œuvre des calculs logiques dans des circuits électriques a constitué la base de la conception de circuits numériques. Et les circuits numériques sont, comme nous le savons, la base de la technologie informatique moderne. Les résultats de ses travaux sont donc l'un des résultats scientifiques les plus importants du XXe siècle. Howard Gardner de l'Université Harvard a qualifié le travail de Shannon de "peut-être le mémoire de maîtrise le plus important et le plus célèbre du siècle".

L'ouvrage retrace l'histoire et l'évolution du monde informatique, qui peut être divisée en plusieurs périodes : la période précédant l'ère informatique ; la période de la création des premiers ordinateurs et de l'apparition des premiers langages de programmation ; la période de formation et de développement de l'industrie informatique, l'émergence des systèmes et réseaux informatiques ; la période de création des langages de programmation orientés objet et des nouvelles technologies informatiques. Chacun des chapitres du livre est consacré à une période distincte, inventeurs, concepteurs et programmeurs - les architectes du monde informatique.

Pour un large éventail de lecteurs

Livre:

De nos jours, les idées de Shannon jouent un rôle important dans presque tous les systèmes qui stockent, traitent ou transmettent des informations sous forme numérique, des disques laser aux ordinateurs, des voitures aux stations spatiales automatiques...

J.Horgan

Claude Shannon

À la fin des années 1930, Shannon fut le premier à associer l’algèbre booléenne aux circuits de commutation qui font partie des ordinateurs modernes. Grâce à cette découverte, l'algèbre booléenne pourrait être utilisée comme un moyen d'organiser les opérations internes d'un ordinateur, un moyen d'organiser la structure logique d'un ordinateur. Ainsi, l’industrie informatique doit beaucoup à cet homme, même si ses intérêts étaient parfois éloignés de l’informatique.

Son père était avocat et pendant quelque temps juge. Sa mère enseignait les langues étrangères et devint directrice du lycée Eylord. Le jeune Claude aimait beaucoup concevoir des appareils automatiques. Il a assemblé des modèles réduits d'avions et des circuits radio, et a également créé un bateau radiocommandé et un système télégraphique entre sa maison et celle d'un ami. Il a réparé les stations de radio d'un grand magasin local. Thomas Edison était à la fois son héros d'enfance et un cousin éloigné, même s'ils ne se sont jamais rencontrés. Shannon a ensuite ajouté Isaac Newton, Charles Darwin, Albert Einstein et John von Neumann à sa liste de héros. En 1932, Shannon était inscrite à l'Université du Michigan. Claude Shannon s'est spécialisé en génie électrique. Mais les mathématiques le fascinaient aussi et il essayait de suivre le plus de cours possible. L'un de ces cours de mathématiques, en logique symbolique, a joué un grand rôle dans sa carrière. Il a obtenu un baccalauréat en génie électrique et en mathématiques. «C'est l'histoire de ma vie», dit Shannon. «L'interaction entre les mathématiques et le génie électrique.»

En 1936, Claude Shannon devient étudiant diplômé au Massachusetts Institute of Technology (MIT). Son superviseur Vannevar Bush, le créateur de l'analyseur différentiel (ordinateur analogique), a proposé de décrire l'organisation logique de l'analyseur comme sujet de sa thèse.

Alors qu'il travaillait sur sa thèse, Shannon est arrivé à la conclusion que l'algèbre booléenne pouvait être utilisée avec succès pour analyser et synthétiser les interrupteurs et les relais dans les circuits électriques. Shannon a écrit : « Des opérations mathématiques complexes peuvent être effectuées à l'aide de circuits à relais. Les nombres peuvent être représentés par des positions de relais et des commutateurs pas à pas. En connectant des ensembles de relais d'une certaine manière, diverses opérations mathématiques peuvent être effectuées. De cette manière, explique Shannon, il est possible de construire un circuit relais qui effectue les opérations logiques ET, OU et NON. Vous pouvez également mettre en œuvre des comparaisons. Avec l’aide de tels circuits, il est facile de mettre en œuvre la construction « Si… alors… ».

En 1937, Shannon a rédigé une thèse intitulée « Analyse symbolique des circuits de relais et de commutation ». Il s’agissait d’une thèse inhabituelle et considérée comme l’une des plus importantes de toute la science à l’époque : ce que Shannon a fait a ouvert la voie au développement des ordinateurs numériques.

Le travail de Shannon était très important : désormais, les ingénieurs utilisent constamment l'algèbre booléenne dans leur pratique quotidienne, créant du matériel et des programmes pour les ordinateurs, les réseaux téléphoniques et d'autres systèmes. Shannon a minimisé sa contribution à cette découverte. "Il se trouve que personne d'autre ne connaissait ces deux domaines (mathématiques et génie électrique. - A. Ch.) en même temps », a-t-il déclaré. Et puis il a déclaré : « J'ai toujours aimé ce mot – booléen. »

Pour être honnête, il convient de noter qu'avant Shannon, l'établissement d'un lien entre l'algèbre booléenne et les circuits de commutation a été réalisé en Amérique par C. Pierce, en Russie par P. S. Ehrenfest, V. I. Shestakov et d'autres.

Sur les conseils de Bush, Shannon a décidé de poursuivre un doctorat en mathématiques au MIT. L’idée de sa future thèse lui vient à l’été 1939, alors qu’il travaille à Cold Spring Habor à New York. Bush a été nommé président de la Carnegie Institution dans le comté de Washington et a suggéré à Shannon d'y passer du temps : les travaux que Barbara Burks effectuait sur la génétique pourraient servir de sujet auquel Shannon appliquerait sa théorie algébrique. Si Shannon pouvait faire de la commutation de circuits, pourquoi ne pourrait-il pas faire de même en génétique ? La thèse de doctorat de Shannon, intitulée « Algèbre pour la génétique théorique », fut achevée au printemps 1940. Shannon poursuit un doctorat en mathématiques et une maîtrise en génie électrique. T. Fry, directeur des mathématiques aux Laboratoires Bell, a été impressionné par les travaux de Shannon en logique symbolique et par sa pensée mathématique. À l'été 1940, il invite Shannon à travailler chez Bell. Là, Shannon, lors de ses recherches sur les circuits de commutation, a découvert une nouvelle méthode pour les organiser qui pourrait réduire le nombre de contacts de relais nécessaires à la mise en œuvre de toute fonction logique complexe. Il a publié un article intitulé « Organisation des circuits de commutation bipolaire ». Fin 1940, Shannon reçut le National Research Award. Au printemps 1941, il retourne aux Laboratoires Bell. Avec le déclenchement de la guerre, T. Fry a dirigé les travaux sur un programme de systèmes de conduite de tir pour la défense aérienne. Shannon a rejoint ce groupe et a travaillé sur des dispositifs permettant de détecter les avions ennemis et de cibler les canons anti-aériens.

AT&T, propriétaire des Laboratoires Bell, était la première entreprise de communications au monde et, bien entendu, les Laboratoires Bell effectuaient également des travaux sur les systèmes de communications. Cette fois, Shannon s'est intéressée à la messagerie électronique. Il ne comprenait pas grand-chose dans ce domaine, mais il pensait que les mathématiques détenaient les réponses à la plupart des questions.

Au début, Shannon s'est fixé un objectif simple : améliorer le processus de transmission d'informations sur un canal télégraphique ou téléphonique sous l'influence de perturbations électriques ou de bruit. Il a conclu que la meilleure solution ne résidait pas dans des améliorations techniques des lignes de communication, mais dans un conditionnement plus efficace de l'information.

Qu'est-ce que l'information ? Laissant de côté la question du contenu de ce concept, Shannon a montré qu'il s'agit d'une quantité mesurable : la quantité d'informations contenues dans un message donné est fonction de la probabilité que, parmi tous les messages possibles, celui-ci soit sélectionné. Il a appelé le potentiel total de l'information dans un système de messagerie son « entropie ». En thermodynamique, ce concept désigne le degré de caractère aléatoire (ou, si vous préférez, de « mixité ») d'un système. (Shannon a dit un jour que le mathématicien John von Neumann lui avait conseillé d'utiliser le concept d'entropie, qui a souligné que puisque personne ne sait de quoi il s'agit, Shannon aura toujours l'avantage dans les différends concernant sa théorie.)

Shannon a défini l'unité d'information de base, appelée plus tard bit, comme un message représentant l'une des deux options suivantes : par exemple, « tête » - « queue » ou « oui » - « non ». Un bit peut être représenté par un 1 ou un 0, ou par la présence ou l'absence de courant dans un circuit.

Sur ce fondement mathématique, Shannon a ensuite montré que tout canal de communication a sa capacité maximale pour la transmission fiable d’informations. En fait, il a prouvé que même s’il est possible d’approcher ce maximum grâce à un codage habile, il est impossible de l’atteindre. Ce maximum est devenu connu sous le nom de limite de Shannon.

Comment approcher la limite de Shannon ? La première étape consiste à tirer parti de la redondance du code. Tout comme un amoureux peut écrire succinctement « Je t'aime » dans sa note d'amour, grâce à un codage efficace, vous pouvez compresser les informations sous la forme la plus compacte possible. En utilisant des techniques de codage spéciales permettant la correction des erreurs, vous pouvez vous assurer que le message n'est pas déformé par le bruit.

Les idées de Shannon étaient trop visionnaires pour avoir un effet pratique immédiat. Les circuits à tubes à vide ne pouvaient tout simplement pas encore calculer les codes complexes nécessaires pour approcher la limite de Shannon. En fait, ce n’est qu’au début des années 1970, avec l’avènement des circuits intégrés à grande vitesse, que les ingénieurs ont commencé à tirer pleinement parti de la théorie de l’information.

Claude Shannon a exposé toutes ses pensées et idées liées à la nouvelle science de la théorie de l'information dans la monographie « Mathematical Theory of Communications », publiée en 1948.

La théorie de l’information, outre les communications, a également pénétré d’autres domaines, notamment la linguistique, la psychologie, l’économie, la biologie et même l’art. Pour étayer cela, citons par exemple un fait : au début des années 70, un éditorial intitulé « Théorie de l’information, photosynthèse et religion » a été publié dans la revue « IEEE Transactions on Information Theory ». Du point de vue de Shannon, l'application de la théorie de l'information aux systèmes biologiques n'est pas du tout inappropriée, puisque, selon lui, les systèmes mécaniques et vivants reposent sur des principes communs. Lorsqu'on lui demande si une machine peut penser, il répond : « Bien sûr, oui. Je suis une machine et vous êtes une machine, et nous réfléchissons tous les deux, n'est-ce pas ?

En fait, Shannon a été l’un des premiers ingénieurs à suggérer que les machines pouvaient être programmées pour jouer aux cartes et résoudre d’autres problèmes complexes.

En 1948, il publie l'ouvrage « Programmation d'un ordinateur pour jouer aux échecs ». Auparavant, il n'existait aucune publication similaire sur ce sujet et le programme d'échecs créé par Shannon a constitué la base des développements ultérieurs et de la première réalisation dans le domaine de l'intelligence artificielle. En 1950, il invente la souris mécanique Theseus, qui, contrôlée par un aimant et un circuit électrique complexe caché sous le sol, pouvait sortir d'un labyrinthe.

Il a construit une machine qui « lit dans les pensées » et joue à « pièces », un jeu dans lequel l’un des joueurs essaie de deviner si l’autre joueur a choisi « pile » ou « face ». Le collègue de Shannon, également aux Laboratoires Bell, David W. Hagelbarger a construit un prototype ; la machine mémorisait et analysait la séquence des choix passés de l’adversaire, essayant d’y trouver un modèle et, sur cette base, de prédire le prochain choix.

Claude Shannon fut l'un des organisateurs de la première conférence sur l'intelligence artificielle, tenue en 1956 à Dartmouth. En 1965, il se rend en Union soviétique sur invitation, où il donne une série de conférences sur l'intelligence artificielle.

En 1958, Shannon quitte les laboratoires Bell pour devenir professeur au Massachusetts Institute of Technology. Après avoir officiellement pris sa retraite en 1978, son plus grand passe-temps est devenu la jonglerie. Il a construit plusieurs machines à jongler et a développé ce que l'on pourrait appeler une théorie des champs unifiés pour la jonglerie.

Depuis la fin des années 1950, Shannon a publié très peu d’ouvrages sur la théorie de l’information. Certains de ses anciens collègues ont déclaré que Shannon était « épuisé » et fatigué de sa propre théorie, mais Shannon a nié cela. « La plupart des grands mathématiciens ont écrit leurs meilleurs travaux quand ils étaient encore jeunes », a-t-il déclaré.

En 1985, Shannon et sa femme ont soudainement décidé d'assister au Symposium international sur la théorie de l'information, organisé dans la ville anglaise de Brighton. Pendant de nombreuses années, il n'a pas participé à des conférences et, au début, personne ne l'a remarqué. Puis les participants au symposium ont commencé à chuchoter entre eux : le modeste monsieur aux cheveux gris qui allait et venait des salles où étaient entendus les rapports était Claude Shannon. Lors du banquet, Shannon a prononcé quelques mots, jonglé un peu avec trois balles et signé de nombreux autographes pour les ingénieurs alignés dans une longue file. Comme l’a rappelé un participant, « c’était comme si Newton avait participé à une conférence consacrée aux problèmes de physique ».

Début mars 2001, à l'âge de 84 ans, après une longue maladie, Claude Shannon décède. Comme l’ont écrit de nombreux journalistes, l’homme qui a inventé le beat est mort.