SUJETS SCIENTIFIQUES 

        ou/et PHILOSOPHIQUES divers
 
  * * * * S A Y R A C * * 2 0 1 2 * * * *

Mode dictionnaire contextuel Alexandria et Traduction automatique
Liens et informations sur divers sujets scientifiques, technologiques ou philosophiques, en vrac mais par classement alphabétique et en évolution permanente ... (dernière mise à jour le 07/04/2024 avec miassite , nombre de Armstrong , IRM , RMN ).

    ou   RECHERCHE dans la BASE de DONNEES associée

ADN (acide désoxyribonucléique) L'ADN est une molécule très longue, présente dans toutes les cellules vivantes, qui est le support de l'information génétique héréditaire; elles est composée d'une succession de nucléotides (adénosine, cytidine, guanosine, thymidine) accrochés les uns aux autres dans un ordre très précis correspondant à l'information génétique. L'ADN est formé de deux brins complémentaires enroulés en une double hélice.

 

ALEXANDRITE L'alexandrite est une pierre, variété de chrysobéryl, très difficile à trouver (Tanzanie, Brésil, Sri Lanka, Madagascar, ...); elle se compose d'un oxyde de béryllium et d'aluminium et de petites quantités de chrome et de fer. Elle a été découverte en 1850, l'année du sacre du tsar Alexandre II de Russie, d'où son nom. On parle pour cette gemme de polychroïsme, car sa couleur se transforme selon la direction de l'éclairage qu'elle reçoit; verte lorsqu'elle est placée à la lumière du jour ou d'une lampe au mercure, elle devient rouge-violet à la lumière électrique; on nomme quelquefois cette propriété de changement de couleur  l'effet alexandrite. Les alexandrites sont très largement utilisées dans l'industrie : lasers et autres instruments de haute technologie leur font une large place [notamment dans la composition des petites fenêtres de satellites qui doivent neutraliser certains rayons lumineux] ...

 

ALGORITHME  Le mot algorithme vient du nom du grand mathématicien AL KHWARIZMI (780-850) qui introduisit en Occident la numérotation décimale importée d'Inde et les règles de calculs élémentaires correspondantes. L'un des plus anciens est l' algorithme d'Euclide qui calcule le PGCD de deux entiers . De manière générale, un algorithme est une suite finie d'opérations ou d'instructions qui permettent de résoudre un problème. On utilise et on définit des algorithmes dans de nombreuses applications: fonctionnement des ordinateurs et pour tous les codes que l'on y construit, en cryptographie, dans le traitement de l'information, des images, des textes, ...Historiquement les problèmes concernés étaient arithmétiques et on parlait d'algorithmes numériques, mais on définit aussi de nombreux algorithmes non numériques dans de nombreuses autres situations: algorithmes de recherche Google ou Sayrac ou autres, algorithmes pour les prévisions météo, pour diverses recherches en intelligence artificielle (voitures autonomes par exemple), algorithme Microsoft (ou autre) pour la reconnaissance vocale (Siri, Cortana, Now, DeepFace...), reconnaisance faciale, vision par ordinateur, traitement automatisé du langage...Les techniques d'apprentissage profond (deep learning) constituent une classe d'algorithmes d'apprentissage automatique. Naturellement l'algorithmique se développe particulièrement et naturellement en mathématiques et en informatique. Mais dans de nombreuses autres démarches, dès que l'on développe une méthode, un processus systématique pour effectuer quelque chose (tri, classement, recherche de mots, calculs, ...) et de manière générale dès que l'on veut optimiser l'exécution de procédés répétitifs, on sera amené à construire un algorithme.
Dans le cadre de l'intelligence artificielle, on va devoir se préoccuper d'une certaine éthique des algorithmes, en particulier pour ceux qui concernent par exemple, la médecine, la chirurgie ou les traitements des données personnelles.

 

ANAMORPHOSE   L'anamorphose est un phénomène produit à l'aide de miroirs ou de lentilles (de diverses formes) et observé lorsque ce système optique qui fournit l'image d'un objet amplifie différemment les dimensions verticale et horizontale de l'objet. Il s'agit donc d'une déformation réversible d'une image à l'aide d'un certain système optique et qui crée ainsi une illusion d'optique. Ce procédé est très ancien puisque les peintres du XV ème siècle l'utilisaient déjà dans certaines de leurs oeuvres.
On peut facilement décrire le processus physique de l'anamorphose ; l'anamorphose associée à une certaine surface S (représentant un miroir) pour un observateur représenté par un point O, est la transformation (symétrie de centre O) qui à tout point M (de l'objet) fait correspondre son symétrique M' par rapport au miroir (c'est-à-dire son symétrique par rapport au plan tangent au miroir en I point d'intersection de OM et du miroir). Suivant la nature de la surface on parlera d'anamorphose plane, sphérique, conique, cylindrique ...
Trompe-l'oeil et anamorphose font tous deux appel au jeu des illusions comme dans le trompe-l'oeil architectural .
Il existe bien sûr une infinité de méthodes pour déformer une image, l'anamorphose en est une brillament illustrée par, par exemple, Istvan Orosz ou M. C. Escher qui a illustré en particulier le ruban de Möbius , le cube impossible de L.A. Necker ou le triangle impossible de R. Penrose.

 

ANDROID  Android est un système d'exploitation 'open source'(concerne les logiciels en libre distribution avec accès aux codes source) utilisant le noyau Linux, pour les smartphone, PDA et terminaux mobiles, conçu par Android, une startup rachetée en 2007 par Google.
ANTICYTHERE
La machine (ou mécanisme) d'Anticythère est un mécanisme de bronze dont des fragments ont été trouvés en 1901 dans une épave de galère romaine près de l'île grecque Anticythère par des pêcheurs d’éponges.
Cette galère aurait sombré il y a plus de 2000 ans (on parle de 87 avant J.-C.) dans les eaux grecques de la mer Egée au sud-est du Péloponèse, entre l'île de Cythère et la Crète. Bien que l'ensemble récupéré rassemble 82 fragments (rouages, cadrans et engrenages divers), il est largement incomplet et ne représente à peine qu'un tiers du mécanisme; il s'agit d'un calculateur astronomique utilisé pour prédire des éclipses, les phases de la Lune et la position des planètes connues à l'époque (mercure, vénus, mars, jupiter et saturne). On a reconstitué une réplique complète et fonctionnelle d'un tel mécanisme qui pourrait être le premier calculateur analogique construit par l'homme, et certainement la première horloge astronomique ...
Il n'en reste pas moins que cette machine est une énigme , tant sur l'époque réelle de sa conception que sur l'état réel du mécanisme complet au temps de sa création.

 

 
ARN (acide ribonucléique) L'ARN est une molécule présente chez pratiquement tous les êtres vivants. C'est un acide nucléique très proche chimiquement de l' ADN avec quelques différences: il contient du ribose alors que le sucre de l'ADN est du désoxyribose et il est formé d'une hélice à simple brin au lieu de la double hélice de l'ADN. Il est chimiquement moins stable que l'ADN et il est issu de ce dernier par le mécanisme biologique appelé la transcription qui est assurée grâce à l'enzyme ARN polymérase qui réalise une copie d'un segment particulier de l'ADN.
Les bases nucléiques de l'ARN sont l'adénine, la guanine, la cytosine et l'uracile (AGCU), celles de l'ADN étant AGCT.
L' ARN messager (ARNm) est une copie transitoire d'un élément d'ADN et il est utilisé par les cellules pour la synthèse des protéines. Le vaccin de Pfizer contre la COVID-19 est une version récente des vaccins sans agent infectieux, les vaccins à ARN messager .

 

AURORE POLAIRE (aurore boréale dans l'hémisphère nord et aurore australe dans l'hémisphère sud ) Au XVII ° siècle, Galilée (1564 - 1642) aurait été le premier à utiliser l'expression 'aurore boréale' pour nommer ce phénomène. C'est le soleil qui est responsable des aurores polaires par l'intermédiaire des particules chargées (ions positifs, électrons et protons) qu'il projette dans l'espace lors des violentes tempêtes solaires. Ces particules 'solaires' chargées qui arrivent dans la haute atmosphère terrestre (magnétosphère) excitent (ou ionisent) les atomes d'oxygène, d'azote, d'hydrogène de notre atmosphère, qui deviennent alors subitement lumineux (*) et produisent les magnifiques voiles de lumière colorée que sont les aurores polaires. On les nomme polaires parce qu'une fois arrivées dans l'atmosphère terrestre, les particules sont prises au piège par le champ magnétique terrestre qui les oblige à se diriger vers les pôles magnétiques nord (aurore boréale) ou sud (aurore australe). 

(*) Lorsqu'un atome est excité, un ou plusieurs de ses électrons changent de couche en libérant au passage un peu d'énergie et en émettant un photon (particule élémentaire de lumière visible). 

 

AUTOSIMILARITE  Autosimilarité de trafics WEB et FTP  L'autosimilarité est la caractéristique d'un objet qui possède des similarités lorsqu'on l'observe à différentes échelles. On peut encore dire qu'un objet autosimilaire est un objet qui conserve sa forme, quelle que soit l'échelle à laquelle on l'observe. Les objets autosimilaires sont encore appelés objets fractals ou fractales. Le chou romanesco est un exemple d'objet autosimilaire naturel,   

même  s'il ne s'agit que d'une forme fractale 'approximative' comme  de nombreux autres éléments naturels (nuages, arbres, fougères, flocons de neige, brocolis, vaisseaux sanguins, les côtes de Bretagne, ...); il y a en effet dans tous ces cas une structure autosimilaire qui se répète, mais à un nombre fini de niveaux. 

L'ensemble de Mandelbrot possède la propriété d'autosimilarité (parfaite) au voisinage de certains points, un ensemble de Julia est une parfaite fractale aussi; citons encore la courbe de Von Koch et le tapis de Sierpinski  ... Voir les images d'une Galerie de fractales.

 
AXION L'axion est une particule hypothétique qui serait le (ou un) constituant de la matière noire.
Cet axion serait supposé stable, neutre (sans charge électrique), de très faible masse et de type boson; en outre il n'interagirait pas (ou très peu) avec la matière ordinaire. De nombreuses expériences sont en cours pour traquer les axions ...

 
AXOLOTL C'est un petit amphibien de 15 à 30 cm de longueur qui vit dans les lacs de montagne; il ne sort jamais de son milieu car il n'a pas de poumon. L'axolotl, animal strictement aquatique, passe sa vie à l'état larvaire sans jamais devenir adulte mais peut tout de même arriver à maturité sexuelle et se reproduire. La célébrité de cet animal vient du fait qu'il a la capacité de régénérer pratiquement tous ses organes défectueux, aussi bien un membre, un oeil que certaines parties de son cerveau. Sa tolérance aux greffes est également exceptionnelle et il est par ailleurs très résistant même au cancer. Cette espèce en risque de disparition intéresse beaucoup les biologistes et divers laboratoires en élèvent en captivité pour s'inspirer de leurs capacités et étudier leurs diverses particularités. L'axolotl est même devenu un animal répandu dans les animaleries qui les proposent aux aquariophiles (la variété albinos est considérée comme domestique, voir un très beau site sur l' élevage des axolotls ); on peut même dire qu'il a la tête d'un pokemon, en fait c'est lui qui a servi de modèle au personnage axolotl, un pokemon rare et ...réel!

 
BACTERIE C'est un micro-organisme vivant unicellulaire procaryote (c'est-à-dire sans noyau) dont le génome (patrimoine héréditaire d'un individu) est constitué d'ADN (acide désoxyribonucléique); la bactérie contient un seul chromosome (élément microscopique formé de molécules d'ADN) et éventuellement des plasmides (molécules d'ADN surnuméraires distinctes de l'ADN chromosomique). Certaines bactéries sont pathogènes et peuvent provoquer chez l'homme des infections bactériennes que l'on traite avec des antibiotiques (molécules qui détruisent ou bloquent la croissance de ces bactéries). Les symptômes d'une telle infection sont similaires à ceux observés lors d'une infection virale (due à un virus) pour laquelle les antibiotiques ne sont d'aucune utilité. On estime qu'il y a environ 1000 milliards de bactéries variées dans un corps humain ...

 
BASE DE DONNEES  Une base de données (bdd) est un ensemble d'informations stockées dans un dispositif informatique; ces données sont organisées de manière à pouvoir en extraire diverses propriétés ou classifications. Les logiciels qui manipulent ainsi ces bdd sont la plupart du temps formulés dans un langage informatique de requête de type SQL. Les bdd sont utilisées dans un très grand nombre d'applications informatiques (gestion, décision, collecte de renseignements divers, moteurs de recherche,...) et sont extrêmement efficaces, tant par la rapidité de leur traitement que par les grandes quantités de données qu'elles peuvent contenir. 

 
BATTERIE LITHIUM-ION (LI-ION).
Les batteries (ou accumulateurs) lithium-ion (ou li-ion) occupent une place essentielle dans toute l'électronique portable, avec en particulier les tablettes et téléphones portables mais aussi les voitures électriques. C'est un type d' accumulateur lithium , dont la réaction électrochimique est basée sur l'élément lithium .
Ces batteries sont puissantes, rechargeables, peuvent prendre des formes très réduites et variées et peuvent être déposées sur divers supports y compris flexibles; en outre elles ne nécessitent pratiquement pas de maintenance et sont très peu sensibles à l' effet mémoire (pas de problème si elles sont rechargées avant d'être complètement déchargées, ce qui n'est pas vrai pour les précédentes technologies à base de nickel).
Les premières batteries li-ion ont été commercialisées en 1991 et le prix Nobel de chimie 2019 a été attribué aux trois inventeurs de cette découverte que l'on peut qualifier de révolutionnaire (et universelle): Stanley Whittingham , John B. Goodenough (qui avait 97 ans en 2019) et Akira Yoshino .

 
BATX  B.A.T.X. pour Baidu, Alibaba, Tencent, Xiami, désigne les géants du Web chinois, l'équivalent du GAFA

 
Thomas BAYES (1701-1761)
Thoms Bayes est un statisticien et philosophe anglais qui a formulé le théorème de Bayes , résultat célèbre en théorie des probabilités et statistiques qui a fourni, entre autres, une nouvelle inférence statistique (voir la différence entre l'inférence bayésienne et l'inférence fréquentiste ), l' inférence bayésienne ; il est ausssi à l'origine du bayésianisme un courant épistémologique qui utilise l'inférence bayésienne dans le raisonnement scientifique (voir le livre récent La formule du savoir de Lê Nguyên Hoang, 2018) pour proposer une philosophie unifiée du savoir fondée sur la formule de Bayes. Ce théorème est par ailleus largement utilisé en intelligence artificielle, en économie, psychologie et neurosciences.
On peut même parler d'une révolution bayésienne dans les sciences cognitives qui proposent une nouvelle vision de notre insconscient: notre cerveau réaliserait en permanence des prédictions probabilistes sous la forme d'inférences inconscientes qui interfèrent avec nos processus conscients et les modifient plus ou moins pour nous permettre la meilleure analyse de notre environnement ...
Construit et démontré à partir des notions de probabilités conditionnelles, la formule de Bayes est un théorème qui permet d'estimer la probabilité des causes à partir de l'observation et de la connaissance des conséquences. Pour la petite histoire signalons que ce résultat n'a été publié qu'en 1763 (par son ami Richard Price) et donc après la mort de Bayes.
Etant donnés deux évènements A et B, la formule de Bayes nous dit que la probabilité de A sachant B est égale à la probabilité de B sachant A multipliée par la probabilité de A et divisée par celle de B:
P(A|B) = P(B|A) P(A) / P(B)
Pour établir ce résultat on part de la définition des probabilités conditionnelles (P(A ∩ B) définissant la probabilité que A et B aient tous les deux lieu): P(A|B)P(B) = P(A ∩ B) = P(B|A)P(A).
Parmi les multiples applications de cette formule, citons le principe du moinde choix au bridge décrit dans le livre d'Emile Borel.

 

BENFORD. La loi de BENFORDune étonnante loi  dite encore loi des nombres anormaux. Elle concerne dans une quelconque liste de données numériques statistiques résultant d'une mesure (montants de chèques, nombre d'habitants de diverses villes, longueurs de fleuves ...), la répartition de ces données en terme de leur premier chiffre significatif (de 1 à 9); on constate par exemple que le chiffre 1 débute de telles données 6 fois plus souvent que le chiffre 9 !! On peut dire plus proprement que  le premier chiffre significatif d'un nombre tiré de manière aléatoire suit une loi logarithmique  (et non une loi uniforme comme on pourrait le penser!) et la fréquence d'apparition de ce premier chiffre est donnée sur le tableau suivant. 
Premier chiffre C non nul d'un nombre N
1
2
3
4
5
6
7
8
9
Fréquence relative d'apparition
30,1 %
17,6 %
12,5 %
9,7 %
7,9 %
6,7 %
5,8 %
5,1 %
4,6 %
     LOI de BENFORD

Frank Benford publie "The law of  anomalous numbers" en 1938 dans Proceedings of the American Philosophical Society (78, p. 551), mais en réalité c'est Simon Newcomb qui, en 1881, publia le premier cette distribution dans American Journal of Mathematics (4, p. 39; après observations de l'usure préférentielle des premières pages des tables de logarithmes de l'époque !). Ted Hill a démontré cette loi avec "The first digit phenomenon" en 1998 dans American Scientist (86, p. 358).
De manière plus précise, Benford a déterminé, pour divers types de listes de données numériques, que la probabilité qu'un entier n (compris entre 1 et 9 bornes comprises) soit le premier chiffre est égale à log 10 (1 + 1/n). On peut observer que même la suite de Fibonacci (1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, ...) obéit à la loi de Benford.
Notons enfin que la loi de Benford a assez souvent été utilisée pour détecter des fraudes, en particulier dans les déclarations d'impôts sur le revenu, en observant une statistique d'apparition de premiers chiffres non conforme au tableau précédent.

 
BIFURCATION La théorie des bifucations est détaillée dans le fichier Systèmes Dynamiques et Chaos .

 
BIG BANG Terme inventé dans les années 1950 par l'astrophysicien Fred Hoyle pour désigner par ironie le concept d'explosion originelle développé par Georges Lemaitre et Alexander Friedmann dans les années 1920 dans leur modèle cosmologique; le Big Bang est  actuellement le nom d'un modèle cosmologique qui décrit l'origine et l'évolution de l'univers qui est adopté par une grande partie de la communauté scientifique. Cette théorie décrit la naissance de la matière (10-6 seconde après) il y a quelques 14 milliards d'années et son évolution jusqu'à nos jours ....

 
BIOPILE .
Une biopile ou pile à bactéries ou encore pile microbienne, est une pile à combustible (processus qui convertit de l'énergie chimique de combustion de l'hydrogène en énergie électrique) dont la cathode est alimentée en oxygène et dont l'anode est placée dans un biofilm de bactéries, cette biomasse servant à la fois de combustible et de catalyseur.
Uniquement alimentées par des subtances naturelles comme le sucre ( biopiles à glucose), des bactéries ou des plantes, les biopiles sont des piles à biocarburant qui se composent de trois éléments, une anode une cathode et un séparateur; il y a oxydation du combustible (glucose, bactéries ou micro-organismes) avec un comburant qui est le dioxygène; on peut parler de production verte d'électricité.
Les biopiles seront-elles capables de remplacer un jour les piles classiques ? .

 
BITCOIN De l'anglais bit, unité d'information et coin, pièce de monnaie, le bitcoin de symbole BTC est une monnaie cryptographique (ou crypto-monnaie ou monnaie virtuelle ou électronique ou ...), c'est-à-dire un actif numérique pouvant être transféré (mais non copié), entre deux utilisateurs sur internet sans autre intervenant ni autorité centrale.
C'est un système monétaire sans banque très fiable et sécurisé qui fonctionne pratiquement en temps réel. Tout le monde peut participer et créer un compte sans avoir à donner son identité.
Cette monnaie virtuelle a été conçue par Satoshi Nakamato (pseudonyme d'un personnage toujours inconnu...); elle a été mise en fonctionnement en janvier 2009. Elle nécessite un réseau d'ordinateurs de type pair à pair (ou client-serveur, chaque client pouvant jouer aussi le rôle de serveur).
Le système est limité à un nombre invariable de 21 millions de bitcoins.
Ce réseau gère un registre de comptes, la blockchain, énorme base de données qui contient la totalité de l'historique des transactions. A côté du bitcoin il existe plus de 2000 autres cryptomonnaies (ethereum, litecoin, monero, estcoin, primecoin ...).
Le minage est le mécanisme de création effective et de sécurisation des bitcoins. Pour cela les mineurs effectuent avec leur matériel informatique certains calculs mathématiques, des hashs cryptographiques (deux utilisations successives de la fonction SHA-256) sur un entête de bloc de la chaîne ... Bitcoin utilise une technologie pair à pair fonctionnant sans autorité centrale. La gestion des transactions et la création de bitcoins est prise en charge collectivement par le réseau. Bitcoin est libre et ouvert. Sa conception est publique, personne ne possède ni ne contrôle bitcoin et tous peuvent s'y joindre. Grâce à plusieurs de ses propriétés uniques, bitcoin conduit à des utilisations prometteuses qui ne pourraient pas être effectuées par les systèmes de paiement classiques, mais ...quid de son avenir?.

 
BLOB Le blob est formé d'une seule cellule géante (une des plus grandes au monde), ce n'est ni un animal, ni une plante, ni un champignon mais un peu des trois; c'est un myxomycète (mot à mot 'champignon gluant'), il fait partie de la famille des protistes (environ un millier d'espèces) et il vit dans les sous-bois depuis des centaines de millions d'années. Il est immortel, découpable et se régénère alors en quelques minutes et il a une forte croissance. Il n'a bien sûr pas de cervelle et pourtant des chercheurs ont réussi à lui apprendre des comportements qu'il peut transmettre à d'autres blobs ...Le blob est donc un organisme unicellulaire 'capable d'apprendre' sans cerveau . Des chercheurs ont pu vérifier que les blobs transmettent leur apprentissage en fusionnant avec leurs congénères .

 
BLOCKCHAIN Une blockchain est une base de données décentralisée, infalsifiable qui fonctionne quasiment en temps réel et qui ne peut avoir de panne ou bug, elle est de plus accessible à tous et constitue un registre de toutes les transactions, inviolable et visible par tous. La blockchain intervient dans le développement de toutes les cryptomonnaies: bitcoin, ethereum, ...,estcoin et primecoin entre autres (plus de 2000 cryptomonnaies).
La blockchain est une chaîne de blocs de codes informatiques, chaque bloc contenant les attributs relatifs à une (ou plusieurs) transaction (expéditeur, destinataire, montant, date, heure) ainsi que certaines informations sur le bloc prédécesseur, tous ces éléments étant encryptés pour être sécurisés.
C'est une technologie innovante bienvenue qui va révolutionner la finance.

 
 BLU-RAY Le terme Blu-ray désigne le laser bleu utilisé pour ce nouveau format Haute Définition par opposition au laser rouge utilisé pour les DVD (ou les CD) classiques; avec la technologie blu-ray on a une plus grande précision, plus de données stockées (5 fois plus que sur un DVD classique) et plus de qualité qu'avec les CD/DVD standards. On obtient ainsi une image et un son en Haute Définiton. Ce format de disque numérique est breveté et commercialisé par le constructeur japonais SONY, il a été lançé en 2006. Les blu-ray pas forcément de meilleure qualité que les DVD classiques ? En principe les DVD classiques sont parfaitement lisibles sur les platines blu-ray, mais bien sûr on ne peut pas lire des disques blu-ray sur les anciens lecteurs de DVD ....

 
BLUETOOTH Il s'agit d'une technologie de réseau personnel sans fil (WPAN pour wireless personal area network) d'une faible portée (environ une dizaine de mètres, nettement moins qu'avec la technique Wi-Fi) permettant de relier des appareils (imprimante, téléphone, scanner, ordinateur, clavier, souris, ...) entre eux (sans liaison filaire donc !); elle utilise une technique radio courte distance dans une bande de fréquences comprise entre 2400 et 2483,5 MHz (dont l'exploitation ne nécessite pas de licence).

 
BOOLEEN Un booléen en logique et en programmation informatique est un type de variable à deux états (état VRAI ou TRUE ou 1, état FAUX ou FALSE ou 0); on utilisera assez souvent le bit (0 ou 1) pour représenter une telle variable. L'algèbre de Boole est la partie des mathématiques qui concerne les opérations et les fonctions sur ces variables dites encore variables logiques. La logique booléenne est utilisée dans pratiquement tous les langages de programmation.

 
Emile BOREL (1871-1956)
Enfant prodige, passionné des mathématiques, Félix Édouard Justin Emile Borel (1871-1956), mathématicien aveyronnais (il est né à Saint-Affrique, ville dont il fut le maire de 1929 à 1941) a été curieux dans divers domaines et spécialiste essentiellement de la théorie des fonctions, des séries divergentes et du calcul des probabilités ...
Il est l'auteur, en particulier en 1940, en collaboration avec le joueur d'échecs André Chéron (1880-1952), de la Théorie mathématique du bridge à la portée de tous ; il présente dans ce livre une méthode et un grand nombre de résultats numériques pour illustrer la théorie des probabalités au bridge.
Sa femme, Marguerite Appell, était la fille du mathématicien Paul Appell ; romancière sous le pseudonyme de Camille Marbo elle obtint le prix Fémina en 1913 et fonda avec son mari, alors qu'il était président de la Société mathématique de France, la Revue du mois, journal scientifique et littéraire.
Borel comprit très vite l'importance des probabilités qui pouvaient intervenir dans diverses disciplines (physique, chimie, astrophysique, biologie, économie,...), mais aussi dans le quotidien et dans divers jeux comme le bridge par exemple ...Il abandonna d'ailleurs en 1920 la chaire de théorie des fonctions à la Sorbonne pour occuper celle des probabilités et physique mathématique; on peut le considérer comme un des fondateurs de la version moderne de cette discipline mathématique dont il fit une branche de la théorie de la mesure. Il fût aussi à l'origine de la mise en place de l'Institut Statistique Universitaire de Paris en 1922 et de l'Institut Henri Poincaré (à vocation probabilités et physique mathématique) en 1928 dont il fût le premier directeur (et ce jusqu'en 1948). Depuis 2009 c'est Cédric Villani , mathématicien français (né à Brive-la-Gaillarde en 1973) médaille Fields 2010, qui occupe le poste de directeur de l'I.H.P.. Emile Borel a même assez largement participé à la création en 1939 du Centre National de la Recherche Scientifique (CNRS), le plus grand organisme public français de recherche scientifique (dont le président depuis 2010 est le chimiste Alain Fuchs). Dans l'un de ses livres sur les probabilités, il formule en 1909 sa célèbre expérience de pensée (méthode initiée par Galilée qui en faisait la clé de ses recherches scientifiques) sur le paradoxe du singe savant (ou théorème du singe infini): un singe qui tape indéfiniment sur un clavier (d'ordinateur de nos jours mais d'une machine à écrire à l'époque!) de manière aléatoire pourra 'presque sûrement' écrire un texte donné fini (comme Hamlet, la Bible ou l'annuaire téléphonique de l'Aveyron): la probabilité correspondante est bien sûr extrêmement faible (même si l'on considère que le singe tape pendant une durée de l'ordre de l'âge de l'univers) mais elle n'est 'pas nulle'! (les probabilistes préfèrent dire presque sûrement vrai plutôt que presque partout vrai au sens de la mesure de Lebesgue , c'est-à-dire vrai sauf sur un ensemble dit négligeable, c'est-à-dire de mesure nulle au sens de Lebesgue - mathématicien dont Borel fût le directeur de thèse -)
D'après Borel, "la théorie des probabilités constitue un outil mathématique indispensable pour une forme d’accès intuitif au réel (y compris le réel mathématique) en fournissant sur lui des renseignements de type statistique sur lequel fonder le raisonnement et l’action".
On peut consulter les travaux essentiels de Borel dans la bibliothèque bibm@th.net .

 
BOSON DE HIGGS Les particules élémentaires de la physique se classent en deux catégories: les fermions ou particules de matière [quarks et leptons (électron, neutrinos, muon et tau)] et les bosons (de jauge) qui sont les supports des quatre forces fondamentales, l'électromagnétisme, les intéractions forte et faible et la gravitation (respectivement photons, gluons, bosons W+, W- et Z, et peut-être l'hypothétique graviton). Les fermions possèdent un spin demi entier et les bosons un spin entier; le spin est une propriété quantique intrinsèque de chaque particule, au même tire que sa charge électrique ou sa masse. Notons bien que les nucléons (protons et neutrons) ne sont pas des particules élémentaires mais sont constitués de 3 quarks en interaction. Le boson de Higgs, qui est une particule hypothétique non encore découverte expérimentalement (en 2010), est de spin 0; cette particule a été prédite en 1964 par Peter Higgs pour expliquer pourquoi certaines particules sont dotées d'une masse et d'autres pas. Le plus grand accelérateur de particules du monde (LHC, ou grand collisionneur de hadrons, de Genève) traque les particules insaisissables ou rares et en particulier  le boson de Higgs, pièce manquante de la théorie 'standard' des particules élémentaires (voir  Le boson manquant associé au champ de Higgs ).
Mise à jour 04/07/2012: découverte effective du boson de Higgs !

 
BRACHISTOCHRONE   La détermination analytique des mouvements pose souvent un problème particulier d'extrémum: la recherche de la valeur stationnaire (ou extrémum local relatif) d'une intégrale définie. La branche des mathématiques qui concerne de tels sujets est le calcul des variations (on parle encore de problèmes variationnels).
Un problème typique et historique de telle sorte est celui de la BRACHISTOCHRONE (ou courbe de plus rapide descente, du grec brakhistos qui signifie 'le plus court') formulé pour la première fois et résolu (probablement en 1696) par le mathématicien et physicien suisse Jean 1er BERNOULLI (1657-1748), frère de Jacques 1er (1654-1705) et l'un des 7 membres de la famille Bernoulli qui s'est largement illustrée dans les mathématiques et la physique au cours des XVII et XVIII ème siècles.
Il s'agit de trouver dans un plan vertical la courbe joignant deux points A et B, non situés sur une même verticale, le long de laquelle un point matériel soumis à la seule gravitation terrestre mettra le MINIMUM de temps pour aller de A à B.
En 1696, le calcul des variations n'étant pas encore connu, Jean Bernoulli a résolu le problème de très belle manière en se servant du principe de Fermat en optique et a assez facilement obtenu l'équation différentielle de la courbe solution qui est l'opposée d'un arc de cycloïde à tangente verticale à l'origine, et non un arc de cercle comme le pensait Galilée en 1633.
Décrivons la démarche en utilisant le calcul des variations , qui a d'ailleurs trouvé ses origines dans ce travail de Jean Bernoulli, mais qui ne s'est parfaitement installé qu'en 1744 avec Leonhard Euler (1707-1783) et précisé en 1760 avec Joseph-Louis Lagrange (1736-1813).
Choisissons un système d'axes Ox,Oy où Oy est la verticale descendante, A (a, 0) , B (b, β), et notons y = f(x) l'équation de la courbe cherchée. Appelons s l'abcisse curviligne sur cette courbe et v = ds/dt la vitesse du point et rappelons que ds2 = dx2 + dy2 = (1 + y'2) dx2.
Il nous faut donc minimiser l'intégrale définie
tA-B = ∫A B ds/v
Avec les conditions initiales y(0) = 0, v(0) = 0, l'intégrale première de l'énergie s'écrit
1/2 mv2 = mgy
d'où
v(y) = √ 2gy
Par conséquent l'intégrale que l'on cherche à minimiser se note
tA-B = ∫a b √ 1 + y'2 / √ 2gy dx
avec yA = f(a) = 0, yB = f(b) = β.
On montre que la courbe solution de ce problème variationnel est bien l'opposée d'un arc de cycloïde droite à tangente verticale à l'origine. On rappelle que la cycloïde droite (ou roue d'Aristote ou roulette de Pascal) est une courbe plane engendrée par la trajectoire d'un point fixé à un cercle de rayon R qui roule sans glisser sur une droite; par ailleurs la demi-arche de cycloïde est tautochrone (tout point matériel lâché avec une vitesse initiale nulle en un point quelconque de l'arche, sauf au point B le plus bas, met le même temps pour atteindre B, T = π√R/g) et aussi isochrone (tout point matériel se déplaçant sans frottement sur la courbe sous la seule action de la pesanteur a un mouvemnent périodique indépendant de la postion initiale, de période T = 4π√R/g).
La formulation générale d'un tel problème variationnel concerne une intégrale définie de la forme
I = ∫a b F(x, y, y') dx
où F est une fonction donnée des trois variables x, y = f(x), y' = dy/dx ,
la fonction inconnue y prenant des valeurs données en a et b, f(a) = α, f(b) = β .
On démontre que la condition nécessaire et suffisante de stationnarité (ou extrémum local relatif ) de l'intégrale I est qu'elle vérifie l'équation d'Euler-Lagrange suivante:

∂F/∂y - d/dx ∂F/∂y' = 0 , ∀ x ∈ ] a, b [
Observons bien que cette équation n'est qu'une condition nécessaire (seulement!) pour assurer un extrémum local strict (ou minimum) de I.
Les équations d'Euler-Lagrange jouent un rôle fondamental dans le calcul des variations et dans la mécanique analytique et en particulier dans de nombreux problèmes de géodésiques.

 
CAPTCHA   Le terme captcha est un acronyme (Completely Automated Public Turing test to tell Computers and Humans Apart) qui désigne une marque commerciale et qui correspond à une famille de tests de type Turing permettant de différencier automatiquement un utilisateur humain d'un ordinateur ou robot aspirateur de données. Concrètement il s'agit d'un code à insérer sur internet pour vérifier que ce n'est pas un robot (un autre code plus ou moins néfaste ou pirate) qui tente d'utiliser un lien en répondant à un formulaire ou en envoyant un message à une adresse mail. Le Test de Turing a été publié en 1950 par son auteur Alan Turing. Le captcha le plus courant est un test visuel basé sur l'identification des diverses lettres (plus ou moins torturées) dans un texte ou une image. On peut aussi proposer un nombre aléatoire dont on devra déduire divers éléments (2 premiers, 3 derniers chiffres ...).

 

 
CARTE à PUCE  La carte à puce est une invention française, brevetée par Roland Moreno en 1974. L'innovation consiste à loger dans l'épaisseur d'une carte, la "puce" d'un circuit intégré et un connecteur extra-plat permettant de le raccorder facilement à des circuits extérieurs. La carte à puce est de nos jours omniprésente dans tous les secteurs d'activité: cartes bancaires, télécartes diverses, cartes Vitale, cartes commerciales variées, cartes pour décodeurs de télévision, cartes de téléphones, .... C'est un produit très répandu, assez simple et plutôt sûr (voir la sécurité logicielle des cartes à puce).

 
 CASSITERITE La cassitérite est le minerai le plus important produit à partir de l'étain, sa formule chimique est Sn O2  et il a une longévité élevée; son exploitation se fait en particulier au Congo et en Bolivie. Il est beaucoup utilisé en électronique où il est pratiquement indispensable dans tous les circuits imprimés de nos divers appareils électroniques (téléphones mobiles entre autres )

 
  CATEGORIE (théorie des catégories)
La théorie des catégories a été fondée dans les années 1940 par S. Eilenberg et S. Mac Lane; une catégorie est une collection bien définie d'objets de même nature et de transformations entre eux (flèches ou morphismes), munie d'une loi de composition. Une catégorie est encore un graphe orienté dont la composition des flèches a la propriété d'associativité.
On peut, par exemple, parfaitement définir la catégorie des ensembles alors que l'on sait que la notion d'ensemble de tous les ensembles est contradictoire ( paradoxe de Russell ou paradoxe du barbier ).
Si l'on dispose de deux catégories, on peut quelquefois définir une correspondance, que l'on appelle un foncteur (ou foncteur covariant) entre les deux, qui associe les morphismes de l'une à ceux de l'autre. On peut alors définir des catégories de catégories.
Accueillie avec scepticisme à ses débuts, cette théorie est vite devenue utile et inconstestable, en particulier grâce à son adaptation à une grande variété de disciplines (algèbre, géométrie, topologie ...mais aussi en physique, en biologie ou en linguistique). Il faut citer les apports décisifs de A. Grothendieck en particulier en topologie algébrique.
Les catégories concernent de nombreux et divers objets mathématiques et c'est l'abstraction qui en a facilité la compréhension; en ce sens la notion d'infini-catégorie (analogue en dimension infinie d'une catégorie) a permis de construire de nouvelles connexions entre des concepts de plus en plus complexes et abstraits et des objets de plus en plus différents et éloignés, mais qui pourtant ont des comportements 'analogues' (deux objets isomorphes seront considérés comme 'identiques'). On arrive ainsi à établir des théorèmes s'appliquant simultanément à une grande diversité d'objets mathématiques, sans avoir à spécifier exactement de quels types d'objets il s'agit ! Sans cela ces théorèmes auraient été impossibles à démontrer rigoureusement et même à énoncer (voir E. Riehl et D. Verity ).
Phases topologiques, états exotiques de la matière en physique ( Nobel de physique 2016 ), langage Haskell en informatique, action des enzymes dans des réseaux métaboliques, détection de similarités grammaticales entre langues différentes, ...toutes ces avancées sont issues de plus ou moins près de la théorie des catégories.
 

 
CHAOS et SYSTEMES DYNAMIQUES La théorie du chaos est une théorie mathématique et physique concernant l'étude des systèmes dynamiques (ou systèmes évolutifs). Le père fondateur de la théorie du chaos (en tant que nouvelle réelle branche récente des mathématiques) est René THOM (1923 - 2002); il a obtenu, pour ses divers travaux en topologie différentielle,  la médaille Fields en 1958 et il a publié en 1972 l'article de base de la théorie des catastrophes  (voir son célèbre livre sur le sujet 'Stabilité structurelle et morphogenèse' qui développe la théorie en termes tout à fait abordables par un large public). Pour l'origine (plus ancienne) de la théorie physique (et mécanique) des systèmes dynamiques, il faut naturellement citer le problème des 3 corps traité en 1889 par le grand mathématicien (et physicien, et philosophe) français Henri Poincaré  (1854 - 1912).

 
CHIRALITE
La chiralité est la propriété d'un corps ou d'un système de ne pas être superposable à son image dans un miroir (c'est-à-dire à son image dans une symétrie par rapport à un plan); un tel corps ne possède donc pas de plan de symétrie.
Un objet ayant cette propriété sera dit chiral (du grec signifiant la main, celle-ci étant l'objet chiral le plus familier); cet objet et son image sont deux énantiomères. Ces deux formes, dites énantiomorphes, sont appelées lévogyre et dextrogyre.
Un objet superposable à son image miroir est dit achiral; il possède donc un axe, un plan ou un centre de symétrie.
En mathématiques, un polyèdre sera dit chiral s'il n'est pas superposable à son image par réflexion; un solide platonicien n'est pas chiral, un noeud peut être chiral (noeud de trèfle par exemple) ou pas (noeud trivial ou noeud de huit). Dans la nature, deux formes symétriques (un objet et son image miroir) sont donc possibles et on parle de l' homochiralité du vivant , mais on observe qu'une forme est toujours majoritaire par rapport à l'autre (on n'a pas 50-50).
Ainsi les organismes vivants n'utilisent (pourquoi?) que la forme lévogyre des acides aminés et que la forme dextrogyre pour les sucres ...on parle du mystère de la chiralité du vivant .

 
CHONDRITE En astronomie et plus particulièrment en planétologie, une chondrite est un type de météorite composée de chondres qui sont des petites sphérules pierreuses.
Ces petits corps célestes de type astéroïdes primitifs sont formées essentiellement de silicates (olivine, hypersthène ou plagioclases) et de quelques rares éléments métalliques; on les nomme encore météorites indifférenciées et ce sont les plus abondantes trouvées sur Terre (elles représentent environ 80 à 90 % des météorites récupérées).
Les chondrites ont une composition chimique globale proche de celle de la Terre et peuvent donc nous renseigner sur la composition chimique de notre planète et en particulier du noyau terrestre.
Considérées comme les plus primitives du système solaire, les chondrites carbonées (dites encore de type C) sont riches en carbonne (en eau et en gaz rares) et peuvent contenir des éléments organiques , en particulier des acides aminés .
En médecine, une chondrite est une inflammation d'un cartilage, comme la polychondrite ou l'ostéochondrite.

CHROMOSOME .
Les chromosomes sont des structures microscopiques, constituées d'ADN et de protéines, localisées dans le noyau des cellules du corps. Ils sont porteurs des gènes (25.000 environ) qui caractérisent l'information génétique de chaque individu. Chaque chromosome a une forme caractéristique. Dans les cellules eucaryotes, les chromosomes se trouvent dans le noyau; dans les cellules procaryotes, qui ne contiennent qu'un seul chromosome circulaire, ce dernier se trouve dans la région du cytoplasme appelée nucléoïde.
Le caryotype humain normal comporte 46 chromosomes qui sont constitués par 23 paires, 22 paires de chromosomes identiques chez tous les humains (appelés autosomes) et une paire de chromosomes sexuels ou gonosomes. La femme possède une paire de chromosomes X, cependant que l'homme possède un X et un Y. Chez les animaux, le nombre de chromosomes varie de 2 pour une fourmi australienne à 440 pour un papillon marocain, le record absolu étant détenu par une fougère avec 1440 !

 
CIGALES PERIODIQUES Les cigales de nos régions européennes ont une vie très brève de 2 à 3 semaines et leurs larves ont un cycle sous-terrain de 2 à 5 ans. Dans les forêts de l'est de l'Amérique du Nord, il existe trois espèces de cigales périodiques de même brève vie mais dont la durée du cycle est de 17 ans: les cigales 'magicicada septendecim'. D'autres espèces de cigales périodiques ont un cycle de 13 ou 7 ans, toujours un nombre premier...
Pendant 17 ans ces cigales périodiques restent enfouies sous la terre en survivant en suçant la sève des racines des arbres. Au mois de mai de leur 17 ème année elles sortent toutes en masse à l'air libre, de manière synchronisée pour les trois espèces, et envahissent la forêt sur presque deux millions d'hectares. Elles vont alors s'accoupler et se reproduire.
En juillet elles vont mourir et leurs nombreuses larves sorties des oeufs (environ 800 oeufs par femelle) vont tomber des arbres et s'enfouir dans le sol et le cycle des 17 ans va reprendre.
Depuis plus d'un siècle, tous les 17 ans on a noté ce phénomène dans la moitié orientale des Etats-Unis. En 2013, ce sont 100 milliards de telles cigales qui ont été recensées dans la région de New-York!
Pourquoi y-a-t-il des cigales de cycles 17, 13 ou 7 et pas 10, 12 ou 14? Les nombres 7, 13 et 17 sont d'une part premiers (et donc non divisibles par un entier, autre que 1, plus petit qu'eux-mêmes) et en outre supérieurs au cycle de 2 à 5 ans des prédateurs éventuels et conformément à la théorie de Darwin , ce mode de reproduction est une arme pour la survie de ces cigales, un cycle de 17 ou 13 ans ne pouvant être intercepté efficacement par des prédateurs à durée de vie inférieure (et non diviseur de 13 ou 17: par exemple un prédateur avec un cycle de 5 ans ne pourra dévorer des cigales que tous les 17 x 5 = 85 ans!).

 
CLE USB C'est un petit support de stockage de données numériques amovible qui se branche sur un port USB (Universal Serial Bus) d'un ordinateur, d'une chaîne Hi-Fi, d'une platine DVD, d'un téléviseur, ...La clé USB possède une mémoire flash et possède maintenant des capacités de plusieurs Go. Sa très petite taille en fait un outil très pratique et très courant pour des transports de données.

 
CLOUD COMPUTING Le cloud computing est un concept de déportation de ressources sur des serveurs distants contrairement à l'hébergement traditionnel sur la propre machine de l'utilisateur. Déjà lançé par les services de stockage à distance et pour les calculs ou logiciels en ligne (calculs scientifiques et serveurs distants liés en réseau), cette technique pourrait largement s'étendre:  Le clound computing, l'informatique de demain?

 
CODE-BARRE Imaginé en 1952 par deux étudiants américains, un code-barre représente une donnée numérique ou alphanumérique sous la forme d'un symbole formé de barres et d'espaces verticaux parallèles d'épaisseurs variables en fonction des éléments à décrire. C'est un lecteur de code-barre, de type capteur électronique, qui permet de le décrypter.
Plus récemment, un QRcode a été créé par Masahiro Hara en 1999 et depuis les années 2000, il est l'un des codes les plus populaires; il permet en particulier d'être décodé rapidement (d'où son nom Quick Reponse Code) et peut stocker beaucoup plus d'informations que le code-barre classique.
Ce QRCODE est un type de code-barre qui peut être lu par un smartphone ou une webcam et dont l'utilisation est de plus en plus répandue, en particulier pour récupérer un lien vers tel ou tel site, puisqu'il peut contenir aussi bien du texte, des SMS ou des adresses Web ...De nombreuses applications pour smartphones permettent de scanner mais aussi de créer des QRcodes et le paiement par QRcode devient de plus en plus courant.

 

COMPRESSION d'IMAGES (fondements historiques et mathématiques des méthodes de compression d'images; précis et assez complet, avec des références). La compression d'image est une application de la compression de données pour des images numériques; en réduisant la taille des images, on pourra en emmagasiner un peu plus dans un espace donné ou les transmettre plus rapidement. On peut faire, en particulier, de la compression d'images par ondlettes (voir la rubrique ondelettes).

 

CONJECTURE Une conjecture , en mathématiques, est une assertion (une règle ou une affirmation) qui exprime une propriété qui se trouve toujours vérifiée (aucun contre-exemple ne vient l'infirmer), mais qui n'a jamais (ou pas encore) été démontrée.
C'est donc en quelque sorte une "règle" que l'on pense vraie parce qu'elle est, au moment où on l'énonce, toujours vérifiée, mais dont on ne sait pas donner la démonstration.
Il existe de nombreuses conjectures non resolues.
Une conjecture peut devenir une loi ou un théorème dès qu'elle est démontrée. Par exemple le célèbre "dernier théorème de Fermat", les guillemets rappelant le caractère conjectural de son énoncé, (il exprime que l'équation xn + yn = zn n'admet pas de solution en nombres entiers non nuls dès que l'exposant n est strictement supérieur à 2), qui est resté longtemps (357 ans entre son énoncé en 1637 et sa résolution en 1994, publiée en 1995) une conjecture (il n'y avait aucune trace de l'éventuelle démonstration de Fermat), a été parfaitement démontré par le mathématicien anglais Andrew J. WILES en 1994; il constitue maintenant un théorème à part entière avec une preuve acceptée par l'ensemble de la communauté scientifique: le théorème de Fermat-Wiles. En fait Andrew J.Wiles, aidé par Richard Taylor, a démontré une partie de la conjecture de Shimura-Taniyama-Weil ce qui suffit à impliquer le théorème de Fermat dans toute sa généralité. Andrew J.Wiles a obtenu entre autres le Prix Fermat de Recherche en Mathématiques 1995 (Prix créé en 1987 par l'Université Paul Sabatier de Toulouse et Matra Marconi Space avec la collaboration du lycée Pïerre de Fermat de Toulouse) et à cette occasion a eu lieu, en particulier, une journée dans la ville natale de Pierre de Fermat: Beaumont de Lomagne (Tarn et Garonne).
Une conjecture peut, au contraire, se révéler fausse dès qu'un chercheur trouve un contre-exemple (ainsi la conjecture de R.Penrose en 1974 - tout pavage du plan peut se ramener à un pavage périodique- s'est révélée inexacte).
Citons une conjecture d'énoncé particulièrement simple et qui résiste depuis 1930, la conjecture de Syracuse qui est due à L. Collatz. La conjecture de Syracuse (ou problème 3n+1) exprime le fait que l'application dans les entiers positifs qui associe à un entier n, n/2 s'il est pair et sinon 3n+1 (ou 3n+1/2 dans sa version dite compressée) produit par itération une suite qui converge toujours vers 1 (plus exactement vers le cycle (4,2,1) ou (2,1) pour la version compressée). Elle n'est pour le moment ni infirmée, ni confirmée.

 

CORONAVIRUS Découverts pour la première fois dans les années 1960, sous la forme du virus de la bronchite infectieuse du poulet, les coronavirus constituent un groupe de virus enveloppés qui produisent diverses pathologies chez les mammifères et les oiseaux, des infections des voies respiratoires chez l'homme.
Pour l'homme, ces pathologies sont le plus souvent bénignes et sous la forme d'un rhume, avec fièvre et maux de gorge (de type grippe banale) ; des formes plus rares comme le SRAS, le MERS et le SARS-COV-2, appelé le COVID-19 peuvent engendrer des infections beaucoup plus graves et être parfois mortelles. Comment fonctionnent les coronavirus ?
La pandémie actuelle a débuté fin décembre 2019 à Wuhan en Chine centrale, puis s'est propagée sur toute la planète; l'OMS a déclaré le 11 mars 2020 que l'épidémie de COVID-19 est devenue une pandémie .
Suivez l'évolution mondiale, jour par jour de l'épidémie du coronavirus COVID-19 .

 
COURRIEL (ou courrier électronique, e-mail, email ou mail) C'est un service de transmission de messages envoyés électroniquement via un réseau informatique (essentiellement internet) dans la boîte aux lettres électronique d'un destinataire choisi par l'émetteur. Les premiers mails ont été envoyés en 1969. En ce début de 2012, on estime que plus de 3 millions de mails sont envoyés dans le monde par seconde! Malheureusement plus de 3/4 de ces messages sont des spams ... 

 
CRISPR-Cas9 CRISPR-Cas9 est une endonucléase (enzyme spécialisée pour couper l'ADN) qui peut être utilisée en génie génétique pour modifier le génome des cellules animales ou végétales. On a découvert récemment que les bactéries mettent en place des stratégies très efficaces qui dépendent d'ARN, nommées les CRISPR, pour se protéger des bactériophages; elles mettent ainsi en place une espèce d'immunité, en se 'souvenant' de l'assaillant. Ce processus immunitaire des bactéries est à la base de la technologie CRISPR-Cas9, qui permet de modifier facilement et rapidement les génomes. Cet outil révolutionnaire du génie génétique est largement utilisé et développé dans de très nombreux laboratoires et cette méthode a été nommée la découverte capitale de l'année 2015 en génétique.

 
CRISTAL TEMPOREL Un cristal temporel est une structure atomique théorique qui est périodique dans l'espace (comme un banal cristal) mais aussi dans le temps; on définit ainsi un cristal dans 4 dimensions. Cette structure a été proposée en 2012 par le physicien américain Frank Wilczek, colauréat du prix Nobel 2004 de physique pour ses travaux sur l'interaction forte.
Si les cristaux ordinaires se caractérisent par une brisure spontanée de symétrie spatiale, les cristaux temporels mettent en jeu une brisure spontanée de la symétrie temporelle. Fin 2016 et début 2017 les premiers cristaux temporels discrets ont été créés à partir de 10 ions d'ytterbium (les atomes d'ytterbium permettent aussi de construire des horloges atomiques dix milliards de fois plus précises que les montres à quartz). L'oscillation dans le temps d'un cristal temporel s'effectue à énergie constante; on est en présence d'une nouvelle sorte de matière hors d'équilibre. Un système d'atomes peut donc osciller entre deux formes sans avoir besoin pour cela d'apport d'une quelconque énergie; cette périodicité temporelle représente l'état d'énergie minimal du système (soit son état de repos). C'est donc un exploit purement expérimental, réalisé indépendamment par plusieurs équipes, qui concrétise le concept théorique imaginé en 2012. Ce nouveau type de cristal atomique qui peut vibrer naturellement avec une périodicité bien précise à énergie constante, pourrait constituer une future mémoire ou horloge plus précise pour les futurs ordinateurs quantiques , et peut-être aussi nous conduire à une meilleure compréhension de la cosmologie et en particulier des trous noirs ...

 
CRYPTOGRAPHIE (revue quasi exhaustive des procédés de cryptographie et de leurs applications dans le lien précédent) La cryptographie est la partie de la cryptologie (la science du secret) qui réalise, pour assurer la confidentialité des transferts de données,  des messages codés (ou chiffrés) à l'aide de clés, cependant que la cryptanalyse est chargée de déchiffrer ces messages cryptés. Voir  notre page cryptage et le logiciel rcrypto téléchargeable sur demande par mail; voir aussi la page cryptage en ligne du site.

 
CYBERESPACE Le terme cyberespace, introduit dans les années 1980 (par l'écrivain de science-fiction William Gibson dans un roman publié en 1984), est issu de l'anglais cyberspace, contraction de cybernétique et espace. Il désigne l'ensemble virtuel des données numériques constituant toutes les informations et communications liées à l'interconnexion de tous les ordinateurs de la planète essentiellement par le réseau internet.
Le cyberespace est à la fois outil géopolitique et acteur essentiel de la guerre mondiale des données , mais aussi responsable des cybermenaces, cyberespionnage, cybersabotages ... des hackers de toutes sortes.
Et il a été dit qu'après la terre, la mer, le ciel et l'espace lointain, le cyberespace est le cinquième champ de bataille de l'humanité, dans lequel presque tous les humains passent (ou passeront) de plus en plus de temps en délaissant d'autant notre monde réel ...Mais quelle que soit l'évolution future, le cyberespace est devenu capital dans notre vie personnelle, professionnelle et sociale, mais aussi au niveau de tous les états.

DARWIN Charles Darwin est né en 1809 et mort en 1882; il est le plus célèbre biologiste et naturaliste anglais, auteur de la théorie de la descendance et de la sélection naturelle, plus connue sous le nom de théorie de l'évolution. Cet ouvrage (Sur l'origine des espèces) paru en 1859 a révolutionné la théorie du vivant et a largement préparé la biologie moderne, même si à l'époque il lui a valu de nombreux reproches de ses contemporains.
Cet ouvrage, épuisé dès le premier jour de sa parution, n'en a pas moins connu six rééditions corrigées différentes qui se succèderont jusqu'en 1872.
Charles Darwin a parfaitement établi en particulier Trois principes de l'évolution :
1- Toute espèce animale présente des variations, des différences entre individus.
2- Certaines de ces particularités, affectant une population entière, semblent l'effet des conditions du milieu et ne sont pas transmissibles par hérédité ; d'autres n'affectent que quelques individus, mais elles sont héréditaires.
3- Du fait de leur fécondité, les espèces animales sont menacées en permanence de manquer de nourriture ; cette situation place les animaux en situation de concurrence vitale, d'où résulte la lutte pour la vie.
Voir Darwinisme pour plus de précisions.
L' influence de Darwin sur la pensée moderne est fondamentale tant dans la biologie de l'évolution que dans la philosophie de la science et du vivant.

 

PRINCIPE de DILBERT C'est une version humoristique (et même fantaisiste) mais aggravée du principe de Peter ; son auteur est Scott Adams.
Il exprime pourquoi les employés les plus incompétents deviennent toujours managers, les salariés les plus inefficaces étant toujours mutés aux postes d'encadrement, où ils risquent d'être le moins dangereux pour la société qui les emploie.
Le livre de Scott Adams est un best-seller surtout aux Etats-Unis et il a dépassé les 140 millions de lecteurs.

 

 
DODECAPHONISME Le dodécaphonisme est un système musical basé sur les douze sons de la gamme chromatique utilisés dans n'importe quel ordre (et sans hiérarchie dans les notes) et non dans l'ordre tonal classique (do do# ré ré# mi fa ...), cette technique qui a engendré la compostion dodécaphonique a été imaginée par Arnold Schoenberg (1874 - 1951); elle donne une importance comparable à toutes les 12 notes de la gamme chromatique et évite ainsi toute notion de tonalité comme dans la compostion musicale tonale classique (celle depuis Jean-Sébastien Bach et son clavier bien tempéré jusqu'à Schoenberg ...). Voir les règles de l'harmonie classique avant le traité d'harmonie de Schoenberg en 1911.

 
EQUATION de DRAKE L'astronome Frank DRAKE est le fondateur, dans les années 60, du projet SETI (search for extra-terrestrial intelligence) qui se propose de détecter la présence de civilisations extraterrestres avancées, et l'auteur en 1961 de la célèbre équation (ou formule) de Drake. Celle-ci vise à estimer le nombre N probable de civilisations extraterrestres de notre galaxie capables de communiquer avec nous. Elle apparait sous la forme d'un produit de 7 facteurs mais il y a de nombreux et profonds désaccords sur les valeurs que peuvent prendre ces divers paramètres ...et suivant le cas diverses valeurs de N peuvent être fournies. Très spéculative, cette équation qui donnerait une fourchette 0 < N < 1.000.000 , au moins pour certains, est sujette naturellement à de nombreuses critiques, mais elle stimule les échanges sur le sujet de la vie intelligente extraterrestre. Elle est souvent mise en opposition avec le paradoxe de Fermi qui est plus pessimiste ...

 
DYSON (sphère de Dyson) Une sphère de Dyson est une énorme structure imaginée par le physicien Freeman Dyson (1923-2020) en 1960, constituée d'une immense sphère artificielle et creuse située autour d'une étoile (comme notre Soleil par exemple) et conçue pour en capturer et utiliser presque toute l'énergie émise.

 
ECLIPTIQUE L'écliptique est le grand cercle représentant la projection sur la sphère céleste de la trajectoire annuelle APPARENTE du soleil autour de la terre. C'est encore l'intersection de la sphère céleste avec le plan écliptique qui est le plan géométrique contenant l'orbite (réelle) de la Terre autour du soleil.
L'écliptique et l'équateur céleste se coupent en deux points appelés noeuds, qui correspondent aux équinoxes (dans ces moments-là le jour et la nuit durent exactement 12 heures chacun): équinoxe de printemps, l'équinoxe de mars dans l'hémisphère nord et de septembre dans l'hémisphère sud, équinoxe d'automne, celui de septembre dans l'hémisphère nord et de mars dans l'hémisphère sud.

 
  ECRAN TACTILE Il s'agit d'un périphérique informatique qui rassemble les fonctions d'affichage d'un écran et celles de pointage d'une souris. Il existe plusieurs types d'écrans tactiles. Les premiers, qui sont les plus simples et les plus économiques, sont de type résistif: il y a un empilement de trois couches dont deux sont conductrices et entre les deux une couche isolante: toucher l'écran revient à mettre en contact les deux films conducteurs et le courant peut passer. Dans la technologie à infrarouge, sont installés dans le cadre de l'écran  plusieurs émetteurs qui produisent un maillage de rayons lumineux orthogonaux et l'impact d'un doigt ou d'un stylet vient interrompre le faisceau lumineux et les récepteurs vont alors détecter les coordonnées du point d'impact (pratiquement il suffit d'approcher le doigt à moins de 2 mm pour être détecté et ici le contact effectif n'est pas nécessaire). Dans les systèmes capacitifs, l'écran est recouvert d'une couche qui accumule des charges électriques; lorsque l'on touche cette couche avec son doigt, certaines charges nous sont transférées (le corps humain est conducteur d'électricité) ce qui crée un manque qui est détecté et mesuré par le capteur qui détermine ainsi les coordonnées de l'impact (attention dans ces cas on ne peut réaliser la manoeuvre avec des gants!). Cette technique est utilisée en particulier pour les GPS , certains PDA et pour les SMARTPHONES. Il y a aussi la technologie capacitive projetée, avec le même principe que le précédent mais sans avoir besoin de toucher l'écran pour créer le 'passage des charges'. D'autres technologies voient régulièrement le jour ...  

 
  EFFET DOMINO Effet Domino Physique  Effet Domino Politique (ou théorie des dominos) Dans chaque cas, il s'agit d'une réaction en chaîne qui peut se produire lorsqu'un changement mineur peut se répercuter de manière similaire dans le voisinage immédiat et ainsi de suite, comme le font des dominos proches les uns des autres.

 
  EFFET CASIMIR Prédit par le physicien H. Casimir (1909-2000) en 1948, il s'agit d'une force attractive entre deux plaques parallèles conductrices non chargées; cet effet est dû aux fluctuations quantiques du vide qui sont présentes dans toute la théorie quantique des champs et décrites dans la théorie de l'électrodynamique quantique. Cet effet est une conséquence bien réelle de l'énergie quantique du vide et, d'une certaine manière est en relation avec un calcul bien étrange de la somme des entiers (1+2+3+...) .
Cet étrange calcul de cette somme (on sait que 1+2+3+..+n=n(n+1)/2 ) est dû à Ramanujan et se trouve dans l'un des ses célèbres cahiers . Dans le cadre de l'étude, toujours difficile, de la gravitation quantique, on a réuni la supraconductivité et l'effet Casimir . L' intérêt de l'effet Casimir est relancé, non seulement en liaison avec la toujours (un peu encore hypothétique) gravitation quantique mais aussi en cosmologie avec les trous noirs , les trous de vers et une éventuelle explication de la naissance de l'univers ...

 
  EFFET DOPPLER  L'effet Doppler (signalé par C. Doppler en 1842) est le décalage de fréquence d'un onde acoustique ou électromagnétique entre la mesure à l'émission et la mesure à la réception lorsque la distance entre l'émetteur et le récepteur varie au cours du temps; on réserve le nom d'effet Doppler- Fizeau dans les cas des ondes lumineuses (classique phénomène astronomique de décalage vers le rouge traduisant l'expansion de l'Univers ..). L'effet Doppler se manifeste par exemple pour les ondes sonores dans la perception de la hauteur du son d’un moteur de voiture, ou de la sirène d’un véhicule d’urgence. Voir l'effet Doppler relativiste.

 
  EFFET HALL  L'effet Hall classique découvert en 1879 par E. H. Hall, exprime qu'un courant électrique traversant un matériau baignant dans un champ magnétique (perpendiculaire au sens de passage du courant) engendre une tension (proportionnelle au champ magnétique et au courant) perpendiculaire à ceux-ci.

HIEROGLYPHE
Les hiéroglyphes constituent un type d'écriture figurative utilisée par plusieurs anciens peuples, les égyptiens, les crêtois, les mayas, ... Des symboles ou des images remplacent les signes alphabétiques ou phonétiques des écritures plus récentes et plus traditionnelles.
L'égyptologue français Jean-François Champollion fut le premier à déchiffrer les hiéroglyphes.
L'écriture hiéroglyphique est apparue à la fin du IV ème millénaire avant notre ère en Haute-Egypte et a été utilisée jusqu'à l'époque romaine ...soit pendant plus de 3000 ans! Au nombre d'environ 700 dès l'époque archaïque, le nombre de hiéroglyphes n'a fait qu'augmenter au fil de l'histoire pharaonique, d'où la nécessité d'une classification des hiéroglyphes pour les caractériser de manière univoque.

 
  EFFET MAGNUS L'effet Magnus, découvert par Heinrich Gustav Magnus (1802-1870), physicien allemand, est un principe physique qui explique la force tangentielle subie par un objet en rotation se déplaçant dans un fluide. C'est cette force qui explique la modification de trajectoire qui prend alors une forme incurvée; il permet notamment d'étudier et de prévoir les effets de balle dans divers sports, comme en particulier le tennis et le football, mais aussi le ping-pong, le rugby, le golf ...
Quand la vitesse d'un fluide (comme l'air) augmente, sa pression diminue, et réciproquement, comme l'indique l’ équation de Bernoulli .
Lorsqu'une balle en rotation se déplace dans l'air, elle va par frottement modifier la vitesse du courant d'air autour d'elle. L'effet sera dissymétrique: d'un côté la balle entraîne l'air qui accélère. De ce côté la pression diminue. De l'autre côté la balle freine l'écoulement d'air et la pression augmente. On aura donc une différence de pression et la balle va se déplacer du côté où la pression est plus faible. Selon la vitesse de rotation de la balle, la position des points où la vitesse est respectivement minimale et maximale (et donc le sens de la force appliquée) varie.
Pour être complet il faut préciser que c'est la turbulence et l'effet Magnus qui interviennent dans les diverses trajectoires d'objets en rotation ...
 
  EFFET PAPILLON L' effet papillon est explicité dans le fichier Systèmes Dynamiques et Chaos .

 
EFFET TUNNEL L'effet tunnel est un phénomène très fréquent en mécanique quantique. Il intervient par exemple dans la production d'énergie des étoiles ou encore il est responsable de la radioactivité alpha; il a été découvert par Georges Gamow en 1928. C'est la propriété que possède un objet quantique de franchir une barrière de potentiel même si son énergie est inférieure à l'énergie minimale requise, franchissement impossible dans le cadre 'macroscopique' de la mécanique classique (où une particule ne peut pas franchir un obstacle si cela lui demande plus d'énergie que celle dont elle dispose); dans le cadre quantique les particules ont un comportement 'probabiliste' et il y a toujours une 'faible probabilité non nulle' pour qu'elle 'traverse' l'obstacle. En 1981, grâce à cette propriété,  on a mis au point le microscope à effet tunnel  qui permet de cartographier atome par atome la surface d'un matériau conducteur. Voir quelques précisions sur l'importance de l'effet tunnel en physique.  On parle aussi d'effet tunnel en management de projet  ...

 

 
ENERGIE  L'énergie est, en physique, la capacité d'un corps ou d'un système à produire un travail (qui est une variation), entraînant un mouvement ou produisant de la lumière ou de l'électricité (plus généralement une onde électromagnétique), de la chaleur,  un son, une onde gravitationnelle ...Toute masse m, isolée et au repos dans un certain référentiel, possède (du fait de cette masse) une 'énergie de masse' (colossale) exprimée par la célèbre formule d'Einstein E = mc², où c est la vitesse de la lumière. D'après le premier principe de la thermodynamique, l'énergie d'un système isolé est conservée au cours de toute transformation (on dira plus simplement que l'énergie ne peut ni être crée ni disparaitre, c'est la classique 'loi de la conservation de l'énergie'); elle s'exprime en joules, en kWh ou en eV (électron-volt). On peut effectuer des transferts d'énergie (par exemple l'énergie thermique d'un feu de cheminée se transmet dans l'air du voisinage et vient nous chauffer, c'est le transfert de chaleur) et des transformations d'énergie, qui expriment, contrairement au cas précédent, le passage d'une forme d'énergie à une autre, par exemple l'énergie électrique d'une ampoule transformée en énergie lumineuse rayonnante ou l'énergie cinétique d'un corps en mouvement transformée en énergie potentielle. Les formes essentielles d'énergie sont: énergie mécanique (cinétique et potentielle), thermique, chimique, nucléaire, rayonnante ... et elles peuvent toutes se convertir en toute autre forme.

 
ENERGIE NOIRE (ou énergie sombre) L'énergie noire (encore quelquefois considérée comme l'énergie du vide quantique ...) est une forme (hypothétique) d'énergie inconnue en laboratoire, emplissant tout l'univers; dotée d'une pression négative ce qui la fait se comporter comme une force gravitationnelle répulsive, cette énergie noire, ou sombre, est mise indirectement en évidence par diverses observations astrophysiques, notamment par l'acccélération de l'expansion de l'univers (observations et mesures de supernovae lontaines et du rayonnement fossile micro-onde dans les années 1990). Elle représenterait de l'ordre de 70 % de la densité totale d'énergie de l'univers et elle pourrait parfaitement expliquer cette accélération de l'expansion. Cette (encore mystérieuse) énergie noire se comporte comme la constante cosmologique introduite par Einstein dans ses équations, puis retirée (il parlait de la plus grande erreur de sa vie ...) et réhabilitée avec la mise en évidence de l'accélération de l'expansion de l'univers. Voir un relevé cartographique récent pour étudier l'énergie noire. Bien que la théorie du Big Bang et la relativité générale d'Einstein expliquent assez bien le passé de l'univers, il reste de nombreuses énigmes à élucider pour que la théorie colle parfaitement avec les diverses observations cosmologiques; c'est pour cela que les chercheurs ont recours à des concepts hypothétiques comme l'énergie noire, ou comme (ne pas confondre ...) la matière noire .

 
ENTROPIE L'entropie caractérise le degré de désorganisation - ou désordre- (dans le cadre de la thermodynamique) ou le manque d'information d'un système (dans le cadre de la théorie de l'information de Shannon). Pour les physiciens, l'entropie mesure l'incertitude sur l'état d'un système physique, pour le théoricien de l'information, elle mesure l'incertitude sur un message, parmi tous les messages possibles qu'une source de communication peut produire. Le terme entropie a été introduit en 1865 par Rudolf Claudius (1822-1888) en particulier dans le cadre du deuxième principe de la thermodynamique qui exprime que l'entropie de tout système isolé ne peut pas diminuer. L'entropie de l'univers ne peut pas diminuer au cours de son évolution, ou encore l'univers évolue spontanément au cours du temps vers un plus grand désordre. Statistiquement tout système tend vers un état à entropie maximum, les états désordonnés étant plus probables que les états ordonnés. 

 
EXCITON . En physique de la matière condensée, un exciton est une quasi-particule constituée d'une paire électron-trou; il s'agit d'une zone où un électron est manquant, et qui se compote donc comme une particule de charge positive.
On peut encore décrire un exciton comme une onde de polarisation neutre dans un matériau. Un exciton est un polariton particulier.
Par exemple dans un semi-conducteur, l' excitation quantique par absorption d'un photon correspond à la formation d'un système lié (par la loi de Coulomb) électron-trou. On distingue en général deux sortes d'excitons, l' exciton de Mott-Wannier et celui de Frenkel .

 
EXOPLANETE Une exoplanète, ou planète extrasolaire, est une planète en orbite autour d'une étoile autre que notre Soleil. Voir notre page exoplanètes (au 31/01/2012 on avait répertorié 755 exoplanètes).

 
FERMAT Pierre Simon de Fermat (1601 - 1665) est un grand mathématicien français du XVII ° siècle, né à Beaumont-de-Lomagne et mort à Castres; sa célèbre conjecture énoncée en 1637  n'a été démontrée que 357 ans plus tard en 1994 pour devenir le Théorème de Fermat-Wiles . Ses nombreux travaux ont fait grandement progresser le calcul différentiel et intégral, les probabilités, la géométrie analytique, la théorie des nombres (avec en particulier le Petit théorème de Fermat et le théorème des deux carrés ), mais aussi l'optique avec le principe de Fermat ...
Le théorème de Fermat-Wiles.
Pour x, y, z, n entiers non nuls et n supérieur ou égal à deux, on considère l'équation:
xn + yn = zn
Pour n=2 il existe une infinité de solutions: (3, 4, 5), (12, 5, 13), (20, 21, 29), (696, 697, 985), ... et si (x, y, z) est solution, pour tout entier a non nul, (ax, ay, az) est aussi solution ...
1637 Théorème de Fermat
Théorème. Dès que n > 2, cette équation n'a pas de solution avec des entiers x, y, z non nuls .
Entre 1955 et 1960, la conjecture de Shimura-Taniyama-Weil est formulée.
En 1986, Ken Ribert démontre que la conjecture STW implique le théorème de Fermat .
En 1994, Andrew Wiles démontre la partie essentielle de la conjecture STW qui entraîne, conformément au théorème de Ribert, la validité du théorème de Fermat.
Cette partie de la conjecture concerne certaines équations, définissant des courbes elliptiques, de la forme
y2 + y = x3 - x2
On est alors conduit à chercher le nombre de solutions de ces équations de type entiers modulo p (p est un quelconque nombre premier).
En 1954, Martin Eichler a pu construire une fonction génératrice (forme modulaire) qui fournit toute l'information sur le nombre de solutions de cette équation modulo tous les premiers p. La conjecture affirme que toutes les équations cubiques peuvent se traiter de cette manière.
En 1999, le cas général de la conjecture STW a été démontré.
Dans cette longue démarche en théorie des nombres, il faut citer le programme de Langlands , formulé dans les années 1960 par le grand mathématicien britannique Robert Langlands , et les conjectures locales de Langlands .
Théorème des deux carrés. On l'appelle encore le théorème de Fermat de Noël car Fermat l'a envoyé à Mersenne le 25 décembre 1640 dans une longue lettre.
Un nombre premier p strictement supérieur à 2 est somme de deux carrés d'entiers si et seulement si p est congru à 1 modulo 4.
L'année 2017 (=4x504+1) possède cette propriété avec 2017 = 442 + 92 et ce phénomène ne se reproduira pas avant 2029 qui vérifie 2029 = 452 + 22.
On peut aussi citer le théorème des 4 carrés de Lagrange (1770) qui exprime que tout entier positif s'écrit comme la somme de 4 carrés ou moins; on a pour 2017 = 442 + 42 + 42 + 72, ainsi que le théorème des 3 carrés de Gauss (1801) qui exprime qu'un entier s'écrit comme la somme de 3 carrés si et seulement s'il n'est pas de la forme 4a (8k -1), a et k entiers positifs. L'année 2017 s'écrit aussi 332 + 282 + 122.
Rappelons enfin l' identité des 4 carrés d'Euler (1748) qui établit que le produit de deux nombres, chacun étant la somme de 4 carrés, est lui-même une somme de 4 carrés; cette propriété peut être considérée comme la généralisation d'un vieux résultat de Brahmagupta (598-668) qui exprime que le produit de deux nombres, chacun étant la somme de deux carrés, est lui-même la somme de deux carrés.

 
PARADOXE de FERMI Le physicien Enrico FERMI (1901-1954), prix Nobel de physique en 1938 fut un grand spécialiste de physique nucléaire avec en particulier la mise en évidence de nouveaux éléments radio-actifs. Il développa aussi les débuts de la statistique quantique qui deviendra la statistique de Fermi-Dirac .
C'est dans les années 50 qu'il exprima les célèbres questions: 'Sommes-nous la seule civilisation intelligente dans l'univers ? et si non pourquoi les extraterrestres ne sont-ils pas déjà chez nous ? Où sont-ils donc ?'
Paradoxe pour les uns, dilemne ou problème de logique pour les autres, anthropocentrisme pour quelques autres ...mais toujours pas de consensus sur la solution du problème. Si l'on postule l'existence d'une vie extraterrestre, pourquoi celle-ci ne s'est-elle jamais manifestée ? ...Dans les années 60 l' équation de Drake sera proposée pour tenter de déterminer une estimation du nombre probable de civilisations extraterrestres ...et formuler une appréciation plus optimiste que le paradoxe de Fermi .

 
FIBONACCI Pisano Leonardo dit Fibonacci Leonardo (1175-1245) est un mathématicien italien qui a écrit divers ouvrages de géométrie et d'arithmétique, en particulier le fameux 'liber abaci', le livre de l'abaque. De ses séjours et voyages en Algérie, Egypte, Syrie il rapporta à Pise (où il a vécu à l'époque de la construction de la célèbre tour penchée) les chiffres arabes, le système d'écriture décimale et la notation algébrique; c'est depuis que, pratiquement partout dans le monde, on a délaissé les chiffres romains au profit des chiffres indo-arabes.
Dans son liber abaci, il propose en 1202 un 'problème récréatif' décrivant la croissance d'un couple de lapins enfermé de tous côtés dans un enclos isolé; c'est en fait le premier modèle mathématique en dynamique des populations (et peut-être l'ancêtre des systèmes itératifs non linéaires des débuts de la théorie du chaos du XX ème siècle...). Sachant que tout couple de lapins, dès le début du troisième mois de son existence, engendre tous les mois un nouveau couple, combien y aura-t-il de lapins dans l'enclos au bout d'un an ? (en supposant que les lapins ne meurent pas).
Au début du premier mois il y a une paire de lapins, au début du second, toujours une paire, au début du troisième il y en a deux, puis trois, puis ... et on construit donc facilement une suite de la forme (on peut la faire débuter par 0) 0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, ...la célèbre suite de Fibonacci (voir la suite en ligne ).
Chaque terme de cette suite est la somme des deux termes précédents et elle peut être définie par la récurrence:
F(n+2) = F(n) + F(n+1) avec F(0) = 0, F(1) = 1.
On montre que l'équation caractéristique de cette récurrence est: x² - x - 1 = 0 , équation dont les racines sont le nombre d'or (le terme 'nombre d'or' n'a été introduit qu'en 1914 par le journaliste Théodore Cook, et la notation φ a été adoptée en l'honneur du sculpteur grec Phidias) et l'opposé de son inverse ( φ = (1+√5)/2 et (1-√5)/2 = -1/φ). On peut aussi montrer que lim F(n+1)/F(n) → φ lorsque n croit...De nombreuses propriétés de la suite de Fibonacci sont associées au nombre d'or, aux nombres premiers et à l'arithmétique modulaire; les nombres de cette suite apparaisent dans plusieurs disciplines mathématiques ainsi que dans la nature. Une grande majorité de fleurs possède 5 pétales, les lis 3, les chicorées 21, les marguerites 34 ou 55, les pépins d'une pomme partagée en deux sont situés dans une étoile à 5 branches, les spirales observées sur les ananas sont en nombre 5, 8, 13, celles des pommes de pin en nombre 13, 21; dans les fleurs des tournesols le nombre de spirales est 21 dans un sens et 34 dans l'autre, ou 34 et 55 ...Dans les plantes, les fleurs, les fruits, 'tout est nombre' comme disait Pythagore et 'souvent nombre de Fibonacci' pourrait-on compléter.
Ajoutons enfin que diverses extensions des suites de Fibonacci ont été développées comme par exemple, les suites de Lucas , les nombres de Pell ou les suites de Tribonacci (dont l'équation caractéristique est x3-x2-x-1=0); même l'analyse technique des cours boursiers fait intervenir la méthode des 'retracements de Fibonacci' pour déterminer des objectifs de cours dans les phases de consolidation.

 
FIBRE OPTIQUE  De nos jours, la fibre optique (fil de verre ou de plastique très fin, conducteur de la lumière) est un media utilisé pour transmettre toutes les données numériques comme les paquets Ethernet mais aussi les sons et les videos (voir comment fabriquer, connecter et mesurer  la fibre optique).

 
FLEXAGONES  Il s'agit de structures planes construites en papier ou autre matériau flexible imaginées en 1939 par Arthur H. Stone, pliées à partir de bandes, de droites ou de courbes, et qui montrent d'autres faces à la suite de flexions. C'est encore un objet topologique issu du ruban de Möbius; il existe plusieurs formes de flexagones mais la plus connue est le trihexaflexagone, un hexagone constitué de 10 triangles équilatéraux pliés à partir d'une bande de papier, qui est encore un anneau de Möbius à trois demi-torsions, son bord étant appelé un noeud de trèfle . Les flexagones sont des pliages étranges et fascinants dont aucune théorie complète n'a, semble-t-il, encore été formulée; ils sont en quelque sorte une application ludique d'une toute petite partie de la théorie des noeuds en mathématiques. Comment fabriquer un flexagone

FLOUS (ensembles FLOUS ou FUZZY SETS) L. Zadeh (né en 1921) a développé dans les années 1965  la théorie des sous-ensembles flous.  Cette  logique floue (que l'on peut opposer à la logique booléenne) est utilisée en intelligence artificielle. Voir Eloge du flou (aux frontières des mathématiques et de l'intelligence artificielle). Bon exemple de logique polyvalente, la logique floue ajoute la prise en compte de l'imprécision et de l'incertitude.

FRACTALES  Quelques images de fractales C'est le mathématicien franco-américain Benoit Mandelbrot (1924 - 2010) qui, en 1974,  est à l'origine de la théorie des fractales. En réalité c'est Gaston Julia qui en 1914 a été l'initiateur de cette notion; et 40 ans plus tard Mandelbrot, élève de Julia à Polytechnique a mis au point cette nouvelle classe d'objets mathématiques. Une fractale est un objet dont la structure possède une homothétie interne qui se traduit par une invariance par changement d'échelle; par exemple un ensemble de Julia est une fractale. On dit que les fractales possèdent la propriété d'autosimilarité. Comment construire des fractales ?
Voir la notion de fractales lisses due aux travaux de John Nash et Mikhail Gromov .

 
GAFA (Google, Apple, Facebook, Amazon ou les géants du Web). Cet acronyme désigne les quatre plus grandes firmes américaines du Web qui dominent le monde numérique et qui contrôlent de manière significative (et même trop) nos vies et données personnelles numériques.

 
GALILEE (surnom de Galileo Galilei) (1564-1642). Mathématicien, physicien et astronome italien né à Pise et mort à Arcetri près de Florence, Galilée a produit une révolution dans la pensée scientifique et construit ce que l'on peut nommer la physique mathématique galiléenne.
Après avoir commencé des études de médecine pour faire plaisir à son père, il les abandonne pour les sciences et sera nommé en 1592 titulaire de la chaire de mathématiques à l'Université de Padoue. Galilée saisit très vite le rôle essentiel des mathématiques pour la compréhension des lois de la physique et de l'astronomie. Savant visionnaire, il étudie les mouvements et la chute des corps, construit une lunette astronomique, poursuit brillamment les travaux de Nicolas Copernic, Tycho Brahé, Giordano Bruno et Johannes Kepler, et rejette donc le système de Ptolémée qui fait de la Terre le centre du système solaire. Il est en particulier le premier à montrer l'isochronisme des petites oscillations du pendule, le premier à énoncer le principe d'inertie (*), puis un 'principe de Relativité' (relativité galiléenne: les lois physiques s'expriment de la même manière dans tous les référentiels inertiels), et il est à l'origine de la notion de repère galiléen (**). Mais l'héliocentrisme n'est pas du goût de l'Eglise qui est accrochée à la théorie de Ptolémée et plus anciennement à la thèse géocentriste d'Aristote qui font de la Terre le centre du monde; après diverses dénonciations, tant par des ecclésiastiques que par des savants et des philosophes qui ne se rangent que derrière Aristote et Ptolémée, il est condamné en 1616 par le tribunal de l'Inquisition qui lui interdit formellement de diffuser ses théories. Après son 'Dialogue sur les deux grands systèmes ptolémaïque et copernicien', ouvrage pourtant autorisé par le pape Urbain VIII, il est de nouveau condamné en 1633, pour avoir enfreint l'interdiction de 1616 de défendre les théories de Copernic. Malgré l'aide de son ami le pape, il doit abjurer ses erreurs, renoncer à l'enseignement et s'exiler en Toscane avec interdiction absolue de diffuser ses allégations. Seuls ses disciples Vincenzo Viviani et Evangelista Torricelli vont pouvoir poursuivre ses recherches. Il séjournera dans la banlieue de Florence jusqu'à sa mort le 8 janvier 1642; il sera partiellement réhabilité en 1757 avec le retrait de l'interdiction de 1616. Quelques mois après sa mort naîtra Isaac Newton .
Ce n'est qu'en 1992, que le pape Jean-Paul II a annulé solennellement les décisions du tribunal de 1633 et enfin totalement réhabilité Galilée !
Par ses études et ses nombreuses expériences, y compris des 'expériences de pensée' dont il est d'ailleurs le précurseur, Galilée a posé les bases de la mécanique (cinématique et dynamique) et on peut même le considérer comme le fondateur de la physique moderne en tant que science exacte, au même titre que les mathématiques. Pour ces dernières, il a été le premier à étudier la cycloïde, et donné en particulier des résultats sur les suites, sur les infiniment petits et sur certaines courbes algébriques. Côté astronomie, on lui doit en particulier, à l'aide des ses propres instruments d'optique, une étude de la surface lunaire, la découverte de quatre satellites de Jupiter, Io, Ganymède, Europe, Callisto (qui en compte 79 confirmés en 2019), l'observation des taches solaires, des phases de Venus, des anneaux de Saturne et de la Voie Lactée (voir Le Message céleste publié en 1610).
(*) Tout corps possède une certaine inertie qui l'oblige à conserver sa vitesse (nulle ou pas), à moins qu'une force extérieure (un frottement par exemple), ne l'oblige à modifier cette vitesse.
(**) Lorsqu’on est à bord d’un navire qui vogue en ligne droite et à vitesse constante, on ne ressent aucun mouvement. On est immobile par rapport au navire mais le navire se meut par rapport à la Terre. En fait, l'immobilité absolue n'existe pas et la notion d'immobilité (relative) dépend du référentiel dans lequel on se place.

 
Carl Friedrich GAUSS (1777-1855).
Johann Carl Friedrich Gauss (1777-1855) est un mathématicien, astronome et physicien allemand. Il a apporté de très importantes contributions dans ces trois domaines de la science. Surnommé le prince des mathématiciens, il est considéré comme l'un des plus grands mathématiciens de tous les temps.
On a vu dans Le nombre premier 97 que Gauss a été le premier à étudier la congruence sur les entiers en 1801 et a ainsi été le père de l' arithmétique modulaire discipline essentielle aussi bien dans la théorie des nombres que dans l'arithmétique de l'horloge ou dans le calcul des clés des RIB ou du numéro INSEE...
A côté des trois classiques principes variationnels (Principe de Fermat en optique géométrique, principe de Maupertuis et principe de moindre action de Lagrange et Euler en mécanique analytique), Gauss a proposé son principe de moindre contrainte en 1829.
Génie particulièrement précoce, il aurait trouvé en classe, à l'âge de 5 ans, la formule n(n+1)/2 pour calculer la somme des n premiers entiers; son génie se manifesta dans de nombreux domaines, de l'électricité, de l'optique, ...à l'algèbre, la théorie des nombres ...
On peut consulter les travaux essentiels de Gauss dans la bibliothèque bibm@th.net .

GEOMETRIE TROPICALE
La géométrie tropicale est une branche récente des mathématiques où l'addition et la multiplication ont été redéfinies; elle est apparue dans les années 1980.
Inventée par des informaticiens et des spécialistes de recherche opérationnelle ( mathématiques de la décision), elle doit son nom à son inventeur brésilien Imre Simon; cette discipline a pris un réel essor au début du XXI ème siècle.
Elle repose sur une algèbre dite tropicale, où l'on remplace l'addition de deux termes par la prise de leur maximum, et la multiplication par l'addition. Cette algèbre particulière était apparue dans divers contextes des mathématiques discrètes et de l'informatique.
On parle encore d'algèbre max-plus, mais aussi d'algèbre min-plus, avec le minimum en place du maximum; voir l' algèbre des sandwichs .
Cette mathématique tropicale est devenue un domaine de recherches très actif qui profite aussi à la géométrie classique mais aussi à la géométrie algébrique.
En géométrie tropicale, les objets les plus simples, les courbes tropicales, ressemblent à des réseaux de segments de demi-droites . L'extension de divers théorèmes classiques de la géométrie algébrique au cadre de la géométrie tropicale a permis de fournir de nouvelles démonstrations plus simples et d'améliorer plusieurs résultats.
Quelques références: Géométrie tropicale , Polynômes tropicaux , Amibes et géométrie tropicale , Quand la géométrie devient tropicale .

GIRAFE (comment boivent les girafes)
La girafe est l'animal actuel le plus grand en hauteur (jusqu'à 5 m 50 et même 5 m 80), essentiellement grâce à son cou de l'ordre de 2 m. Quand une girafe boit , sa bouche se situe à environ 2 mètres en-dessous de son système digestif, et entre les positions haute et basse de sa tête il y a environ 5 mètres. Elle ne peut donc pas boire par aspiration comme nous avec une paille: elle subirait une telle dépression (de l'ordre d'une demi-atmosphère) que son cou n'y résisterait pas ou alors elle devrait remplir sa bouche (capacité d'environ un tiers de litre), relever la tête et laisser agir la gravité, mais elle devrait répéter cette manoeuvre plus de cent fois par jour pour obtenir sa ration quotidienne de 40 litres ...Elle procède plutôt comme une pompe à refoulement.
Dans un premier temps la girafe ouvre sa bouche, ferme son épiglotte (petit cartilage qui fait saillie dans la glotte et ferme le larynx), et par succion remplit sa bouche. Ensuite elle ferme sa bouche et ouvre l'épiglotte et en fermant sa mâchoire inférieure (qui joue le rôle de piston) pousse l'eau vers l'oesophage; en une trentaine de secondes et une quinzaine de succions, la girafe va ingérer près de 5 litres d'eau (volume moyen de son oesophage), pour alors se redresser et laisser agir la gravité pour remplir son estomac. La surpression subie dans la bouche n'est alors que d'environ 0,2 atmosphère. De la même manière, pour monter de l'eau d'un puits à plus de 10 mètres, au lieu d'utiliser une pompe aspirante en haut on fait fonctionner une pompe en bas qui refoule l'eau (voir La girafe, la paille et la pompe à piston ). On peut ainsi atteindre une surpression importante et par exemple les pompes de dénoyage dans les mines peuvent fonctionner à 16 atmosphères et refouler jusqu'à 150 mètres de haut.

GOGOL
Le gogol, ou googol en anglais, est un nombre égal à 10100; il est très voisin de factorielle 70 et tous les deux possèdent 101 chiffres (voir les grandes factorielles ). Ces deux nombres sont énormes et par exemple bien supérieurs au nombre de particules dans l'Univers estimé à 1080.

GOGOLPLEX .
Le gogolplex (googolplex en anglais) est défini par 10gogol soit 1010100; il s'agit bien sûr d'une curiosité, car ce nombre n'a par ailleurs aucune propriété remarquable. L'inverse du gogolplex, un nombre positif extêmement petit, se nomme gogolminex. A propos des très grands nombres, on peut citer la notation de Knuth , qui conduit à écrire, par exemple, 5↑↑4 pour 55555.

 
GPS  Le principe de repérage utilisé par le GPS s'appuie sur la triangulation dans un repère tridimensionnel, méthode classique en physique. Pour déterminer la position exacte d'un certain point sur la Terre, on utilise des satellites; théoriquement, 3 satellites devraient suffire mais en pratique il en faut 4 et en réalité  on en utilise plus, par exemple le futur système de navigation par satellites européen GALILEO sera constitué de 27 satellites (plus encore 3 de réserve). La vitesse de transmission des signaux émis par les satellites (en mouvement orbital autour de la Terre à environ 3,8 km/s) étant égale à la vitesse de la lumière, on comprend le rôle joué par la Relativité ( Sans Einstein pas de GPS) dans le fonctionnement et la précision du GPS, aussi bien par les transformations de Lorentz de la Relativité restreinte (effet de la vitesse: les satellites en orbite se déplacent à environ 14.000 km/h, ce qui produit un retard des horloges embarquées par rapport au sol d'environ 7 microsecondes par jour) que par la Relativité générale (effet de la gravitation: les satellites étant en orbite à environ 20.000 km de la Terre subissent une gravité moins forte qu'au sol ce qui produit une avance d'environ 45 microsecondes par jour); finalement les horloges atomiques embarquées à bord des satellites du GPS avancent de 38 microsecondes par jour ce qui, sans correction, donnerait une erreur de positionnement au sol d'environ 11 km au bout de 24 H! (voir par exemple le GPS une précision toute relativiste). Notons que le système Galileo est prévu pour être interopérable avec le GPS américain, puisqu'ils travaillent tous les deux  avec le même système géodésique  WGS84; la combinaison de ces deux systèmes devrait bien sûr améliorer fortement la qualité de notre géopositionnement par satellites. Les premières mesures de positionnement avec uniquement des satellites Galileo sont prévues pour 2014...

 
GRAPHE (théorie des graphes)
De manière générale, la notion de graphe en mathématiques désigne le graphe d'une fonction, mais aussi un objet abstrait représentant une relation binaire (orientée ou pas) entre des éléments d'un ensemble; c'est à cette dernière acception que l'on s'intéresse ici.
Discipline mathématique (essentiellement en mathématiques discrètes) et informatique (surtout en génie logiciel), la théorie des graphes concerne l'objet mathématique abstrait graphe , qui est une structure composée de plusieurs objets dont certaines paires sont en relation: les objets sont les sommets ou noeuds et les relations entre ces sommets sont les arêtes ou liens. On distingue les graphes orientés (les arêtes sont alors nommées des flèches), les graphes non orientés et les graphes mixtes , les graphes gracieux étant tels que chaque paire de sommets est jointe par une arête; citons aussi la notion d'arbre qui est un graphe non orienté connexe sans cycle ...
Doté d'une relation d'ordre un graphe sera un treillis. Notons qu'une catégorie est un graphe orienté particulier, le graphe du Web en est un autre (les sommets sont les pages et les flèches les liens hypertexte qui pointent d'une page vers une autre), mais aussi un réseau de neurones formels ou le réseau internet.
Historiquement on peut considérer que le premier résultat sur la théorie des graphes est apparu avec le problème des 7 ponts de Koningsberg résolu par Leonhard Euler en 1735, résultat qui est d'ailleurs à l'origine aussi de la topologie.
Un graphe G est donc un couple (S, A), S étant un ensemble de sommets et A un ensemble d'arêtes, chaque arête étant définie par une paire de deux sommets distincts. Un chemin est un ensemble de sommets reliés entre eux par des arêtes.
Les graphes sont utilisés pour résoudre de nombreux problèmes théoriques (bases de données par exemple) ou de la vie réelle, pour représenter divers réseaux routiers, sociaux, informatiques, optiques, géographiques, téléphoniques..., les objets pouvant être très variés depuis des objets abstraits jusqu'aux stations de métro, villes, objets musicaux, chimiques, biologiques, linguistiques ... bref on peut parler d' omniprésence des graphes .

 
GRAPHENE
Le graphène est un matériau bidimensionnel (son 'épaisseur' est celle d'un atome) de type cristal qui est une forme allotropique du carbonne (parmi les autres allotropes du carbonne il y a en particulier le diamant) et dont l'empilement constitue le graphite une espèce minérale parfaitement tridimensionnelle (comme nos mines de crayon).
Avec sa structure en nid d'abeille composée d'atomes de carbonne arrangés selon un motif hexagonal, le graphène est mondialement connu pour ses propriétés remarquables tant mécanique que thermique ou électrique, toutes liées à sa bidimensionnalité. Théoriquement imaginé en 1947 par Philip R. Wallace, il a été synthétisé pour la première fois en 2004 par Konstantin Novoselov et André Geim ce qui leur a valu le prix Nobel 2010 .
Les transistors en graphène sont potentiellement capables de détrôner les transistors en silicium; le graphène peut aussi servir à réaliser des écrans tactiles ou des panneaux lumineux et dans l'avenir de nombreux matériaux composites au graphène devraient être utilisés pour les voitures, les avions ou les satellites.
Matériau du XXIème siècle le graphène sera-t-il bientôt un matériau révolutionnaire pour l'électronique ? Par ailleurs le graphène est-il toxique ? comme semble l'indiquer le rappel des masques FFP2 au graphène ?.

 
GROMOV Mikhail . Mikhail Gromov est un mathématicien russe naturalisé français puis américain né en 1943. Il a produit de nombreux travaux en particulier en géométrie métrique, géométrie symplectique et en théorie géométrique des groupes; il a obtenu le prix Abel en 2009 .
Il a poursuivi et élargi les travaux de J.Nash pour ce qui conerne les plongements isométriques et les fractales lisses; voir par exemple Un tore carré et plat , mais aussi La machine à démanteler les impossibles , et une illustration du H-principe de Gromov .

 
GROTHENDIECK Alexandre   Grothendieck est un mathématicien né en 1928 à Berlin et qui a passé sa vie en France où il est mort en 2014; personnalité hors norme,  il s'est brutalement et volontairement  retiré dans un village des Pyrénées depuis 1990. Il a successivement obtenu la médaille Fields en 1966, la médaille Emile Picard en 1977 et le prix Crafoord en 1988 (qu'il a d'ailleurs refusé!). Il est considéré comme l'un des plus grands mathématiciens du XX ème siècle; son exceptionnelle oeuvre scientifique, en dépit de sa nouveauté et de son originalité, fut acceptée immédiatement et avec enthousiasme, et développée par des collaborateurs et chercheurs de premier plan.  Il est l'un des fondateurs de la géométrie algébrique, mais il a aussi produit de nombreux résultats en analyse fonctionnelle, algèbre homologique, géométrie arithmétique ...; à son arrivée, à 20 ans, dans le monde mathématique parisien, il avait déjà écrit un long manuscrit où il avait reconstruit une version générale de l'intégrale de Lebesgue ... Des douze grandes idées, dont il se fait à juste titre gloire, il en retient trois qu'il met au-dessus du reste et qu'il énonce sous forme de la progression: SCHEMA ---->TOPOS ---->MOTIF, dans un sens de plus en plus englobant [voir 'Un pays dont on ne connaîtrait que le nom (Grothendieck et les motifs)' du mathématicien Pierre Cartier, un des plus grands mathématiciens français actuels]. Dans Récoltes et semailles , Grothendieck fait sa biographie et la genèse de ses travaux et nous donne sa philosophie des sciences dans un genre de livre testament; pendant quelques pages, sans forfanterie, il s'y compare à Einstein pour sa (leurs) contribution(s) au problème de l'espace ...

 
GYMNOTE Les gymnotes sont des poissons d'eau douce (essentiellement en Amazonie) de type anguilles électriques , en ce sens qu'ils infligent des décharges électriques à d'autres animaux pour les paralyser et se défendre ou chasser. Les gymnotes produisent des tensions de plusieurs centaines de volts jusqu'à 860 volts, ce qui constitue un record dans le monde vivant !
Ce sont des prédateurs nocturnes qui se nourrissent d'insectes, de crustacés et de divers poissons.
Physiquement le gymnote constitue un dipôle électrique sa tête étant le pôle positif, sa queue le pôle négatif, et crée donc des champs électriques dipolaires, comme le physicien anglais M. Faraday l'avait déjà soupçonné en 1838. Clairement comme le signale K. Catania dans son article de Pour la Science , une anguille électrique est plus violente qu'un taser !
On distingue depuis 2019 trois espèces, génétiquement distinctes, de telles anguilles électriques; précisons enfin que ces anguilles n'ont aucune parenté avec nos anguilles d'Europe.

 
HACKER Initialement un hacker est un spécialiste de sécurité informatique qui teste les moyens de contourner les protections logicielles afin de les améliorer ou du moins de bien les comprendre ou de les craquer pour le plaisir intellectuel. Il est souvent un spécialiste brillant de la discipline.
Malheureusement par déviation, certains de ces hackers sont devenus des pirates informatiques (ou 'black hat') agissant pour nuire contre rémunération ou au nom d'un certain intérêt plus ou moins moral, et ils deviennent de plus en plus nombreux et de plus en plus efficaces et malveillants. Les attaques par rançongiciels (ransomwares) croissent de manière exponentielle et les hackers éthiques ('white hat') vont devoir devenir de plus en plus nombreux pour contrecarrer les vagues de cyberattaques qui touchent aussi bien les individus que diverses sociétés ou entreprises et même récemment divers hôpitaux (en France une attaque par semaine contre les hôpitaux depuis janvier 2021). Les états doivent consacrer de plus en plus d'argent et de professionnels pour renforcer la cybersécurité ...

 
HOLOGRAPHIE Le principe de l'holographie a été découvert en 1948 par D. Gabor qui a reçu pour cela le prix Nobel de physique en 1971. L'holographie est un procédé d'enregistrement de la phase et de l'amplitude de l'onde diffractée par un objet, qui permet de restituer ultérieurement une image en trois dimensions de cet objet. Ceci est réalisé en utilisant les propriétés de la lumière cohérente produite par les lasers

 
HTML (hypertext markup language) Il s'agit d'un langage de présentation avec des balises qui permet d'écrire de l'hypertexte, format de données standard utilisé pour représenter des pages web sur Internet

 
HYPERTEXTE  hyperlien (ou lien hypertexte, ou lien). L'hypertexte  désigne un mode d'organisation de documents (de type texte) numériques présentant des liens dynamiques entre ses différentes parties; un fichier en HTML ou en PHP en est un bon exemple. Voir  hypertexte et littérature ,  hypertexte de fiction (naissance d'un nouveau genre ?),  roman hypertextuelItalo Calvino précurseur du roman hypertexte ? (en particulier dans son roman "Si par une nuit d'hiver un voyageur")

 
HTTPS variante sécurisée (par SSL ou TLS) de HTTP (Hyper Text Transfer Protocol); par défaut,  Http utilise leport 80, Https le port 443. Ce protocole Https est sécurisé par  le système de cryptage à clé  publique RSA (clé privée: deux grands nombres, clé publique: le produit de ces nombres).

 
HYPOTHESE du CONTINU Dans la théorie des ensembles, l'hypothèse du continu, due à Georg Cantor , énonce qu'il n'existe aucun ensemble infini intermédiaire entre l'ensemble des entiers naturels et celui des réels. Autrement dit, en terme de cardinalité (nombre des éléments d'un ensemble), il n'existe pas d'intermédiaire entre infinité dénombrable (de N mais aussi de Q ou Z), que Cantor symbolisa par le premier nombre cardinal transfini aleph 0, et infinité continue de R, symbolisée par aleph 1.
Le caractère, pour le moment, indécidable de l'hypothèse du continu est remis en cause depuis quelques temps par Hugh Woodin . L'idée est de chercher à compléter la théorie usuelle des ensembles, reposant sur un système d'axiomes nommé ZFC (théorie de Zermelo-Fraenkel et axiome du choix) , par quelques axiomes raisonnables qui permettraient de lever cette indécidabilité.

 

IMAGERIE PAR RESONANCE MAGNETIQUE En 1973, Paul Lauterbur effectuait la première image fondée sur la résonance magnétique nucléaire . En 2003, Peter Mansfield et Paul Lauterbur ont obtenu le prix Nobel de physiologie et de médecine pour leurs travaux sur le sujet.
Depuis, l'IRM est devenue un instrument incontournable en médecine pour diverses pathologie et a connu, au fil des ans, des progrès constants et importants en particulier au niveau de la résolution. On a réalisé, récemment à l'université de Duke (G. Allan Johnson et all 2023) une image du cerveau d'une souris avec une résolution de 15 micromètres, ce qui est mille fois mieux que les IRM standards des hôpitaux et cliniques. L'IRM cartographie en 3D la teneur en hydrogène des tissus du corps humain que l'on veut analyser. Le principe d'un examen par IRM est d'identifier combien de spins de protons sont en excès dans l'état de plus basse énergie; pour passer du spin à l'image il faudra utiliser un second champ magnétique et un puissant ordinateur pour traiter les données et construire les images en 3D.

 
INCONSCIENT COLLECTIF L'inconscient collectif, une notion clé de la pensée de Jung, est une partie de l'inconscient commune à tous les êtres humains. Le père du concept d'inconscient collectif est le médecin, psychiatre et psychologue  Carl Gustav Jung (1875- 1961); il a aussi, avec le physicien (prix Nobel de physique en 1945 pour, en particulier, son principe d'exclusion en mécanique quantique) Wolfgang Pauli (1900 - 1958) (qui le premier, postula l'existence théorique du neutrino en 1930), mis en évidence la notion de synchronicité.  

 
INFORMATION (THEORIE de l'INFORMATION, voir SHANNON) La théorie de l'information, élaborée et énoncée en 1948 par Claude Shannon (1916-2001) est une théorie probabiliste concernant le contenu en 'information' d'un ensemble de messages  diversement codés; les éléments essentiels de la théorie concernent le codage d'un texte (ou message), le mesure quantitive de la redondance de ce texte pour apprécier son contenu moyen en information, la compression de données et la cryptographie . On parle d'entropie de Shannon pour caractériser la quantité d'information contenue dans une source d'information. Wiener disait que l'information c'était de l'entropie négative: l'information signifiait l'ordre, mais une chose ordonnée ne porte pas forcément beaucoup d'information ... 
 

 
INFORMATIQUE  L'informatique (contraction des deux mots information et automatique) est le domaine d'activité scientifique, technique et industriel concernant le traitement automatique de l'information par des machines (à traitement automatique telles que calculateurs, systèmes embarqués, ordinateurs, consoles de jeux vidéo, robots, automates et autres). Elle est née dans les années 1950 et son nom 'informatik' est créé en 1957 par un ingénieur allemand, mais ce n'est qu'en 1962 que le terme informatique est utilisé pour la première fois en France. Elle s'est considérablement développée depuis et de plus en plus en liaison avec les mathématiques dont elle est devenue dans de nombreux cas un support indispensable. On pourra consulter le  dictionnaire de l'informatique indissociable bien sûr de l'ordinateur ...et le fichier trucs et astuces informatiques .

INTELLIGENCE ARTIFICIELLE C'est une discipline scientifique relative au traitement des connaissances et au raisonnement, afin de permettre à une machine d'effectuer des fonctions normalement associées à l'intelligence humaine (compréhension, raisonnement, dialogue, apprentissage, ...); il s'agit donc de doter des systèmes informatiques  de capacités intellectuelles comparables à celles de l'homme ...  L'origine de l'intelligence artificielle se trouve dans l'article de 1950 de Alan Turing

 
INTERNET C'est le réseau informatique mondial constitué de l'ensemble des réseaux nationaux, régionaux et privés reliés entre eux par le protocole de communication TCP/IP; c'est encore un système mondial d'échange de documents électroniques à travers tous les ordinateurs de tous les internautes. On peut considérer que les débuts d'internet ont eu lieu en 1983, que dès les années 1990 un assez grand public l'utilisait, mais c'est à partir de 2000 qu'il y a eu l'explosion de la bulle internet avec presque 400.000 ordinateurs connectés (pour plus de 26 milliards en début 2019).

 
INTRICATION L'intrication (quantique) est un phénomène quantique par lequel un système de plus d'une particule doit être considéré comme une seule unité holistique, c'est-à-dire que l'état quantique de ces particules (deux ou plus) doit être décrit globalement; bien qu'elles puissent être spatialement séparées (d'une quelconque distance) ces particules sont à considérer (et se comportent 'en un certain sens') comme un système unique. Deux (ou plusieurs) particules peuvent ainsi être si intimément liées que toute action sur l'une est instantanément reproduite sur l'autre.  Ce phénomène fondamental a été mis en évidence en 1935 par Einstein et deux de ses élèves Podolsky et Rosen, qui pensaient ainsi mettre en défaut la mécanique quantique puisque l'application des équations de cette dernière conduisaient à une 'aberration': le dépassement de la vitesse de la lumière! Ce fût le fameux paradoxe EPR (Einstein-Podolsky-Rosen); les physiciens quantistes expliquèrent ensuite ce paradoxe avec le concept de non-séparabilité. Deux photons peuvent constituer un seul système avec des propriétés non localisées ni dans l'un ni dans l'autre; séparés d'une quelconque distance (par exemple des millions d'années lumière),  ils sont en contact permanent, lorsque l'un est détecté, l'autre le 'sait instantanément'.  Deux particules intriquées forment un tout quelle que soit leur distance de séparation ... De nombreuses applications de l'intrication sont en cours d'étude: cryptographie, ordinateur quantique, téléportation quantique ... Phénomène extrêmement troublant, l'intrication l'est d'autant plus que la mécanique quantique nous permet d'établir que les états intriqués sont largement majoritaires devant les états non intriqués...

 
INVERSION du champ magnétique terrestre C'est le noyau de la Terre qui génère, par un effet dynamo, le champ magnétique terrestre; il arrive qu'une perturbation se produise dans ce noyau, le champ magnétique s'affole alors pendant une certaine durée  (de 1000 à 10.000 ans) au cours de laquelle  les pôles magnétiques se déplacent rapidement sur la surface du globe. A la fin de cet épisode les pôles magnétiques peuvent soit revenir à leur position initiale soit s'inverser. L'inversion des pôles magnétiques terrestres  est déjà arrivée quelques centaines de fois en 160 millions d'années; le dernier renversement aurait eu lieu il y a environ 780.000 ans (inversion dite de Brunhes-Matayama) ... Rappelons que le pôle Nord magnétique ne doit pas être confondu avec le pôle Nord géographique.

 
ION (ou particule ionisée) Un ion est un atome ou une molécule qui a perdu ou gagné un ou plusieurs électrons; c'est donc une particule chargée électriquement que l'on appellera cation si elle est chargée positivement et anion si elle est chargée négativement. Lorsque la matière est constituée d'ions elle devient un plasma ('quatrème état de la matière')et on parle de physique des plasmas (ou des gaz ionisés) pour son étude.

 
IP (ou Internet Protocol) Il s'agit d'une famille de protocoles de communication dans les  réseaux informatiques. Il permet de définir des adresses IP: il s'agit d'un numéro d'identification qui est attribué à chaque branchement d'appareil à un réseau informatique utilisant donc cet Internet Protocol.  IPv4  est le protocole le plus utilisé actuellement, il manipule des adresses codées sur 32 bits; IPv6  est son successeur qui utilise un codage sur 128 bits et qui fournira donc un bien plus grand nombre d'adresses possibles. Les adresses IP de la version actuelle 4 (fin 2011 - début 2012) sont en général représentées, en notation décimale,  par 4 nombre compris entre 0 et 255, séparés par un point: par exemple 192.168.1.66. De façon générale, chaque hôte de l'architecture réseau TCP/IP est identifié par une adresse unique composée de 4 nombres entiers (4 octets); tous les ordinateurs du réseau peuvent ainsi communiquer entre eux.

 
iPAD Un ipad est une tablette électronique conçue et développée par Apple; elle est particulièrement orientée vers les medias (livres, journaux, musique, films, jeux), mais aussi vers internet et les courriers électroniques. C'est encore une tablette tactile multi-fonctions. On peut y naviguer sur internet, échanger des mails, jouer, écouter de la musique et voir des photos ou des vidéos et même y lire des livres électroniques.

 
iPHONE Un iphone est une ligne de smartphones conçue et commercialisée par Apple depuis 2007.

 
iPOD ou baladeur numérique d'Apple Il a été lançé en 2001, il utilise un disque dur et il est essentiellement capable de lire de la musique. Les nouveaux modèles ont d'autres fonctionnalités comme les jeux, la visualition de photos et vidéos et l'utilisation d'un carnet d'adresses. Les modèles les plus récents ont une interface entièrement tactile comme le iPHONE et dispose d'une fonction terminal internet, d'où la possibilité de navigation sur internet ainsi que de divers téléchargements d'applications via Wi-Fi; ils ont une capacité de stockage de l'ordre de 150 à 200 Go soit environ 40.000 morceaux ou 200 heures de vidéo.

 
IQUE Le suffixe IQUE, issu du latin icus, signifie qui est relatif à, comme dans logique, antique ou anémique. En français, il existe près de 3000 mots qui se terminent en ique de unique, féerique, biblique, désertique, panoramique, à sadique, gastrique, typique, spécifique, antibiotique, ..., sans parler de mathématique, physique ou musique.

ISO Du grec isos , le préfixe ISO signifie égal et intervient dans de nombreux mots du langage scientifique ou technique: de isochore, isospin, isocèle, isodistance ou isomorphisme à isomère, isogreffe, isoplane, isocline ou isopode dans le règne animal ... une centaine de mots sont construits de cette manière. Devant une voyelle, dans quelques rares cas iso se réduit à is, comme dans isentropique ou isanomale ...

 
ISTE Ce suffixe est issu du latin ista lui-même (tiré du grec istes); il sert à former un nom associé à un métier (juriste, journaliste, violoniste, oculiste, ...), une activité (alpiniste, alchimiste, caricaturiste, ...), une idéologie (communiste, anarchiste, janséniste, ...) ou un art (cubiste, opportuniste, congressiste, ...). Le suffixe ISME lui est souvent associé pour préciser la doctrine ou le courant correspondant: alpinisme, lettrisme, judaïsme, communisme, analphabétisme, somnambulisme ...
Il existe dans la langue française plus de 1000 mots finissant en iste et correspondant aux définitions précédentes, à la condition que la racine est au moins 4 lettres.
Ceci pour éviter, liste, piste, riste, ciste, ziste, ...ainsi que existe, chiste, triste, ...; dans les mots de 7 lettres il faut encore exclure quelques verbes comme dépiste, désiste, insiste ...A partir de 8 lettres la plupart conviennent, sauf quelques verbes (attriste, coexiste, réexiste, préexiste, persiste ...).

 
ITE Ce suffixe a plusieurs sens; il peut caractériser une inflammation, du grec itis, ou une origine minérale, du grec ites. Par extension, il peut aussi exprimer une obsession ou une manie (collectionnite, réunionite, scandalite, ...).
Il existe beaucoup de termes médicaux pour décrire une inflammation comme amygdalite, bronchite, péritonite, rhinite ou sinusite, ...; pour les termes de type chimie ou minéralogie il y a par exemple alexandrite, graphite, ypérite ou stalactite ...
Ce suffixe peut aussi servir à désigner les membres d'un groupe comme dans antisémite, jésuite, maronite ou sunnite, et encore pour nommer les habitants d'un pays ou d'une ville comme moscovite, karachite, saoudite ou yéménite.
Naturellement divers autres mots se terminent aussi par ite sans provenir d'une des étymologies précédentes comme cuite, vite, défaite, abstraite, réduite, agite, cogite ...

JEU de la VIE Les premiers automates cellulaires ont été définis dans les années 1940 par S.Ulam et J. Von Neuman.
Le jeu de la vie est un automate cellulaire imaginé par le mathématicien britannique John Horton Conway en 1970; c'est le plus connu de tous les automates cellulaires et, avec des règles très simples, il est Turing-complet .
L'état de l'automate à l'étape n est entièrement déterminé par son état à l'étape (n-1). C'est un système simple susceptible d'engendrer de la complexité et depuis quelques années il a subi diverses avancées remarquables .
Ce jeu, qui n'en est pas un puisqu'il se déroule à zéro joueur, est constitué d'une grille à deux dimensions, dont les cases appelées des cellules peuvent prendre deux états distincts: vivante ou morte (on dit encore habitée ou non habitée). A chaque étape une cellule a son état déterminé par celui de ses 8 voisines:
1) Une cellule morte possédant exactement 3 voisines vivantes devient vivante.
2) Une cellule vivante possédant 2 ou 3 voisines vivantes le reste, sinon elle meurt.
Ce jeu suggère bien que la complexité peut résulter d'un ensemble d'interactions simples.
Dans cet automate, le nombre de cellules vivantes peut varier au cours du temps: l'information, contrairement à la matière peut ainsi être recopiée à l'infini. On peut alors se demander, qu'est-ce qui est premier, la matière ou l'information ? En 1989, le physicien John Wheeler a émis l'idée que l'information soit première et que matière et lois de la physique émergent dans un monde d'information, ce qu'il a décrit par son expression 'it from bit'...
Citons une structure particulière et facile à produire, le planeur (le plus petit vaisseau) découvert par Richard K. Guy ; cette structure, qui intervient dans beaucoup de configurations du jeu de la vie, réapparaît toutes les 4 itérations, elle est formée de 5 cellules comprises dans un carré de 3 cellules de côté. Ces planeurs peuvent rentrer en collision les uns avec les autres et former des objets plus complexes ...
En avril 2020 Mateusz Nasciszeski a mis en évidence la plus petite variante Max , un motif qui évolue à vitesse quadratique, sous la forme d'une boîte englobante de 27 x 27 avec seulement 183 cellules au départ; la conjecture est qu'il est impossible de faire plus petit que 183, encore un des problèmes non résolus à propos du jeu de la vie...
Tester et simuler le jeu de la vie ici ou .

 
JULIA et FATOU Les ensembles de Julia sont des fractales   

Ils sont associés à l'itération d'une fontion du plan complexe dans lui-même par exemple du type z n+1=  z²n + c où c est un paramètre complexe; pour c fixé, en faisant varier le point initial z 0 de l'itération, on définit un sous-ensemble du plan complexe qui constitue un ensemble de Julia

KILLI TURQUOISE Le Killi turquoise africain est un poisson qui a une capacité étonnante: à un stade embryonnaire, il peut suspendre son développement (et donc son vieillissement) face à une pression environnementale trop forte. Il peut ainsi rester à l'état d'embryon pendant une durée supérieure à son espérance de vie (qui est de trois à six mois), de l'ordre de plusieurs mois, voire plusieurs années, et ce sans aucune conséquence sur la suite de son développement. Cette faculté génétique, encore mal connue, est appelée diapause . En novembre 2019, un humain a été placé pour la première fois dans un tel état lors d'une opération. Cette phase d'arrêt spontané du développement est typique de beaucoup d'insectes et acariens et de quelques animaux marins et même de quelques mammifères: voir les phases de la diapause chez les insectes .

LAMBDA CALCUL Il s'agit d'un système formel inventé par Alonzo Church dans les années 1930.  L'idée de base du lambda calcul est que tout est fonction et en ce sens il s'agit d'un langage fonctionnel..

 
LANGAGE DE PROGRAMMATION (ou langage informatique) On appelle langage informatique (ou de programmation) un langage destiné à décrire l'ensemble des actions consécutives que l'on veut faire exécuter à un ordinateur; on le distinguera bien sûr des langages naturels comme notre français, l'anglais ou l'espagnol ! C'est encore la manière technique pour donner des instructions à un ordinateur. Un tel langage (on parle aussi de code pour nommer les diverses lignes d'instructions du programme) est très rigoureux et  à chaque instruction correspond une certaine action du processeur; le processeur utilise quant à lui, le langage machine qui n'est constitué que de données binaires (suites de 0 et de 1) et qui n'est naturellement pas compréhensible. Le langage de programmation est en quelque sorte un langage intermédiaire qui sera transformé en langage machine pour être directement exploitable par le processeur. L'assembleur fût le premier langage informatique, très proche du langage machine mais encore compréhensible par les développeurs; depuis on a développé de nombreux langages avec comme tendance de les rendre de plus en plus directement compréhensibles tout en étant efficaces, bien structurés, souples dans leur utilisation et d'une grande portabilité (c'est-à-dire adaptable facilement à tous types d'ordinateurs) ... l'objectif étant presque d'arriver à un langage 'quasi naturel' (le rêve serait de donner des instructions orales au processeur) qui serait transformé, par couches successives, en langage machine pour activer le processeur.
IL existe un très grand nombre de langages de programmation, les plus utilisés sont le JavaScript, Python, Java, PHP, C++, C#, C, Ruby, Scilab ...les plus anciens Ada, Algol, Cobol, Fortran ou Pascal...
Voir Programmation, comment débuter, quel langage?

 
LASER Le mot laser vient de  Light Amplification by Stimulating Emission of Radiations. C'est en 1917 qu'Albert Einstein formula le principe qui devait mener à l'invention de l'effet  laser; il annonçait la possibilité de stimuler l'émission de rayonnement électromagnétique par la matière en excitant les électrons des atomes la constituant. Une telle amplification produit un faisceau de lumière temporellement et spatialement cohérente. Le premier laser, qui est fondamentalement un amplificateur de lumière grâce à l'émission stimulée,  date de 1960. En 1950, le physicien français Alfred Kastler (1902 - 1984) (prix Nobel de physique en 1966) propose un procédé de pompage optique et en 1960, un physicien américain obtient pour la première fois une émission laser grâce à un cristal de rubis et en 1966, on construit le premier laser à liquide. 

 
FOURMI de LANGTON La fourmi de Langton est un automate cellulaire fonctionnant en deux dimensions avec des règles très simples. Il a été défini en 1986 par un chercheur en informatique Christopher Langton; il s'agit d'un processus qui engendre de la complexité et de l'imprévisibilité que l'on qualifie de 'vie artificielle'.
Il s'agit encore d'une machine de Turing à 4 états.
Alan Turing peut être considéré comme le père scientifique de l' ordinateur , de l'informatique et des automates cellulaires .
Sur un plan recouvert d'un quadrillage de cases noires ou blanches (ou 2 autres couleurs quelconques), se déplace une flèche (la fourmi) qui, à partir d'une position sur une certaine case et d'une orientation initiale, va vers une case contigüe en tournant de 90° vers le sud, le nord, l'ouest ou l'est.
Si la fourmi est sur une case noire, elle tourne de 90 ° vers la gauche, change la couleur de la case en blanc et avance d'une case dans la direction qu'elle indique.
Si la fourmi est sur une case blanche, elle tourne de 90 ° vers la droite, change la couleur de la case en noir et avance d'une case dans la direction qu'elle indique.
Puis le processus se poursuit de la même manière.
Voici une simulation du mouvement de la fourmi de Langton .
Le trajet décrit est assez surprenant et nous n'avons pas, pour le moment, de bonnes et nettes explications.
Par exemple, si l'on part d'un damier de cases toutes blanches, il apparaît bien sûr des cases noires; aux étapes 97, 185 et 360, on note que les dessins des cases noires ont un centre de symétrie. Par la suite, après 10102 étapes complexes (sans symétrie ni comportement périodique) de type chaotiques, la fourmi avance en diagonale de façon répétitive par cycles de 104 étapes, que l'on nomme l'autoroute et qui est en quelque sorte l'attracteur de la fourmi de Langton; ce comportement se poursuit indéfiniment.
La même évolution apparaît à partir d'un damier avec un nombre fini de cases noires: toujours construction de l'autoroute et mouvement vers l'infini (conjecture toujours d'actualité).
Avec plusieurs fourmis, on pourra obtenir des cycles ou plusieurs autoroutes.
Si l'on part d'un damier à n couleurs, on parle de turmite (turring-termite) et les choses se compliquent encore: on peut par exemple aboutir, dans certains cas, à une infinité de dessins symétriques.
Citons un autre système dynamique à comportement étonnant: le jeu de la vie de John Conway, un système discret simple étudié en 1970.

 
LCD Les cristaux liquides (affichage à cristaux liquides ACL ou LCD pour liquid crystal display, en anglais) permettent  la création de divers écrans plats à faible consommation électrique qui sont, aujourd'hui, utilisés dans pratiquement tous les affichages électroniques (calcutrices, montres, appareils photo, téléphones, téléviseurs, appareils électroniques variés, gps, ....). Le français Pierre-Gilles de Gennes (1932-2007) a reçu le prix Nobel de physique en 1991 pour ses travaux sur les cristaux liquides et les polymères. Un cristal liquide est un état de la matière qui combine des propriétés d'un liquide ordinaire et celles d'un solide cristallisé (on parle de physique de la matière condensée); on appelle cet état intermédiaire la mésophase ou état mésomorphe. On distingue trois grands types de cristaux liquides: les nématiques, les cholestériques et les smectiques (classification due à Georges Friedel en 1922). C'est déjà en 1888 qu'un botaniste autrichien Reinitzer fit la première observation de cristaux liquides: en étudiant des cristaux de benzoate de cholestérol, il s'aperçut qu'ils ne se comportaient pas comme des cristaux ordinaires ...Le fonctionnement des écrans à cristaux liquides repose sur des changements d'état optique en présence d'un champ électrique; par exemple l'effet nématique torsadé est utilisé dans presque tous les écrans LCD actuels. La différence entre les écrans à cristaux liquides est due aux électrodes de commande: sur les écrans classiques (DSTN), les électrodes des lignes  sont disposées sur l'une des deux plques et les électrodes des colonnes sur l'autre, les écrans LCD à matrices actives, ou écrans LCD TFT, sont en fait une variante de l'écran à cristaux liquides DSTN où les électrodes de commande en lignes et en colonnes sont remplacées par des transistors directement reliés aux pixels et situés au niveau de la surface interne de l'écran.

 
LED ou DEL. Il s'agit d'une diode électroluminescente, c'est-à-dire d'un composant opto-électronique (une branche de l'électronique et de la photonique) capable d'émettre de la lumière lorsqu'il est parcouru par un courant électrique. Les LED sont souvent considérées comme une technologie d'avenir dans le domaine de l'éclairage général; on estime que d'ici 2020, elles pourraient représenter 75 % du marché de l'éclairage. Les diodes électroluminescentes de faible puissance (< 1 W) sont largement présentes dans notre quotidien (les divers voyants lumineux des appareils électroménagers par exemple); celles de forte puissance (> 2 W) sont en plein essor (flash de téléphone portable, divers éclairages domestiques ou de lieux publics, salles de spectacle, lampes de poche ...). Elles sont aussi utilisées dans la construction des écrans de télévision plats pour le rétroéclairage des LCD et comme source d'illumination principale dans les écrans de télévision à LED.

Elles peuvent être monochromatiques (l'énergie est concentrée sur une plage étroite de longueur d'onde correspondant à sa couleur), blanches (l'énergie est répartie sur toute les longueurs d'onde du visible) ou infrarouges (l'énergie est émise hors du spectre visible); ces dernières sont utilisées pour transmettre des signaux de télécommande ou de télémesure (par exemple pour détecter les positions de la console ou des manettes de certains jeux comme la 'Wii'). Au niveau des effets sanitaires potentiels liés à l'usage des LED, diverses études sont en cours, en particulier pour distinguer les différences d'actions sur la rétine des LED blanches ou bleues ou d'autres couleurs; on retiendra actuellement que la forte intensité de certaines LED bleues peut entraîner un certain éblouissement qui pourrait être à l'origine de lésions oculaires, mais pour le moment rien n'est clairement ni indubitablement établi. Par ailleurs les avantages des LED sont nombreux (facilité de montage, faible consommation, résistance, petite taille, durée de vie, fonctionnement en très basse tension, inertie lumineuse quasi nulle puiqu'elles s'allument et s'éteignent en un temps très court, ...) et en font donc certainement une technologie d'avenir très prometteuse. 

 
Vladimir LEVENSHTEIN (1935-2017)  est un scientifique russe spécialiste de la théorie des codes . On lui doit en particulier, la distance de Levenshtein qu'il a introduite en 1965. Cette notion permet de quantifier l'écart entre deux chaînes de caractères; elle est égale au nombre minimal de caractères qu'il faut supprimer, insérer ou remplacer pour passer d'une chaîne à l'autre. Elle définit une sorte de degré de ressemblance de deux chaînes de caractères.
Levenshtein a également travaillé sur les codes correcteurs , une technique de codage essentiellement basée sur la redondance , essentielle, en particulier, en informatique et pour limiter les erreurs dans la transmission d'information.
Cette distance est une généralisation de la distance de Hamming qui est un majorant de celle de Levenshtein.
Nous avons utilisé ces notions dans cherchemot qui détermine l'écriture correcte des rubriques de ce fichier sciencediv. Voir aussi dans jeux et mathématiques des exemples d'utilisation de la distance de Levenshtein.

 

 
Li-Fi   alternative au Wi-Fi Transférer des données sans fil grâce à des ampoules LED, c'est le pari du Li-Fi, qui consiste donc à utiliser la lumière à la place du Wi-Fi. Ce sont les changements d'amplitude, c'est-à-dire les modulations de la lumière qui sont utilisés pour transmettre des données sans fil:une LED allumée transmet un bit 1, une LED éteinte un bit 0. Chaque lampadaire, chaque ampoule pourrait ainsi se transformer en émetteur...  

 
LIDAR
Le lidar est une méthode de télédétection et de télémétrie semblable au radar , mais qui émet des impulsions de lumière infrarouge au lieu des ondes radio; il mesure ensuite le temps de retour après réflexion sur l'objet considéré. Le lidar est donc une télédétection par laser .
Les premières mesures par lidar datent de 1962; elles furent effectuées par L.D.Smullin afin de mesurer la distance Terre-Lune. Utilisé donc en tant que télémètre le lidar permettait de vérifier les possibles applications du laser à rubis (développé par Ted Maiman en 1960).
La technologie lidar , précise et rapide, utilisable à la lumière du jour ou dans l'obscurité, est un excellent outil largement utilisé pour récupérer diverses données dans de nombreuses situations. Par exemple, la technologie lidar a fait progresser l'archéologie pour découvrir une ancienne cité maya et quelques autres sites historiques. Signalons aussi que de nombreux smartphones récents sont munis d'un lidar.

 
LINCOS (abréviation de lingua cosmica) est un langage pour relations cosmiques construit en 1960 par le mathématicien Hans Freudenthal.
Le langage mathématique est le plus universel et c'est la seule langue non auto-référentielle: la définition d'un 'mot' ne nécessite pas un autre mot qui renvoie à un troisième ... comme dans l'utilisation du dictionnaire d'une langue classique. A partir de cette observation, Freudenthal a élaboré une langue artificielle (utilisant fortement les mathématiques), plutôt orale qu'écrite, destinée à communiquer avec des intelligences extra-terrestres, qui utilise des transmissions d'ondes radio non modulées, de longueur et de durée variables, et qui prétend synthétiser l'ensemble des connaissances humaines; elle est composée de phonèmes et non de lettres et elle est donc régie par la phonétique et non l'orthographe. Les symboles utilisés sont essentiellement empruntés aux mathématiques et au latin.
Le lexique initial commence par des impulsions qui définissent les nombres naturels et les opérations arithmétiques simples en système binaire. Suivent les concepts d'égalité, inégalité, logique propositionnelle, théorie des ensembles, puis ceux sur le temps, l'espace et le mouvement ...Le second livre prévu n'a malheureusement jamais été écrit et le lincos a été un peu oublié.
Mais le domaine de l'exolinguistique était né ...et astronomes et scientifiques spécialisés dans la recherche d'une intelligence extra-terrestre cherchent toujours la meilleure solution à ce problème de communication.

 
LITHIQUE Le suffixe LITHIQUE, du grec lithos ou lithikos , signifie relatif à la pierre (ou à l'industrie préhistorique de la pierre) ou qui contient tel ou tel type de roche. En médecine lithique est synonyme de urique (acide urique ou acide lithique) et intervient dans antilithique, qui traite les calculs rénaux.
En paléoarchéologie, on parle de l'industrie lithique, et de nombreuses périodes de la préhistoire utilisent ce suffixe: néolithique, paléolithique, mésolitihique, cuprolithique, ...; beaucoup de termes de minéralogie aussi comme oolithique, phonolithique, zéolithique, zoolithique ...Il existe une quarantaine de mots construits avec ce suffixe.

 
LIVRE ELECTRONIQUE (ou livre numérique ou e-livre ou livrel ou e-book) Il s'agit d'un fichier électronique contenant un texte sous forme numérique.

 
LOGARITHME DISCRET .
Le logarithme discret (ou logarithme modulaire) est l'analogue du logarithme réel réciproque de l'exponentielle, mais dans un groupe cyclique (groupe fini et monogène), c'est-à-dire qu'il concerne des nombres entiers.
Etant donné un groupe cyclique G d'ordre n, de générateur g (on a donc G = {g0, g, g2, ..., gn-1}) et un élément y de G, le logarithme discret de y en base g est le plus petit entier k tel que y = gk (0 <= k < n); on a bien ici aussi une application réciproque de l'exponentiation k -> gk.
Le logarithme discret joue un grand rôle en cryptographie .
Dans la cryptographie à clé publique, on a besoin d'une fonction à sens unique , c'est-à-dire d'une fonction f(x) facile à calculer à partir d'un x connu, mais dont, connaissant un y dans l'espace d'arrivée, il est difficile (voire très difficile et surtout très long ...) de trouver x tel que f(x) = y.
Dans le chiffrement RSA , la fonction à sens unique exprime le produit de deux grands nombres premiers distincts p et q, N = pq, et l'opération inverse, difficile, consiste, connaissant le grand nombre N à trouver ses deux facteurs premiers; cette cryptographie dite asymétrique est en particulier utilisée pour protéger nos cartes bancaires et les achats sur Internet. Pour le moment, les temps de calcul pour décomposer un tel N avec au moins 200 chiffres sont de l'ordre de plusieurs dizaine d'années avec nos ordinateurs actuels...
Dans le problème du logarithme discret, connaissant g et k, il est facile de trouver y tel que y = gk, mais étant donné y, trouver k tel que gk = y est beaucoup plus difficile ! Le protocole Diffie - Hellman , ainsi que le logiciel PGP pour l'envoi de courriels sécurisés, utilisent une telle fonction à sens unique. Les temps de calcul pour trouver un tel k sont, pour le moment, aussi redhibitoires que pour la décomposition d'un N ( le logarithme discret contre les tunnels sécurisés ).

 
LOGIE Ce suffixe est tiré du grec et signifie parole ou discours ou étude de quelque chose, par exemple l'océanologie est l'étude des océans, la bactériologie étudie les bactéries, la séismologie, ou sismologie, concerne les séismes ...
Celui qui étudie la xxxlogie est un xxxlogue ou encore un xxxlogiste, ainsi le morphologue étudie la forme externe et la structure des êtres vivants ou morphologie, le tératologue (du grec tératos, monstre) étudie la tératologie, science des anomalies anatomiques et le sémiologiste est spécialiste de sémiologie ...
A côté de philologie, biologie, cancérologie, futurologie ou planétologie, on a aussi analogie, anthologie ou pathologie ...
La langue française compte près de 400 mots avec les suffixes LOGIE ou LOGUE ou LOGISTE. De manière générale ces suffixes sont des dérivés du LOGOS , qui désigne depuis Platon et Aristote le discours oral ou écrit, et de manière plus générale la logique.

 
LOGIQUE   La logique est, actuellement, la seule discipline que l'on peut retrouver, entre autres,  dans des enseignements de Philosophie, de Mathématiques et d'Informatique; voir par exemple un cours de logique pour la licences de Mathématiques et Informatique.  

Aristote (384 - 322 av. JC), disciple de Platon (428 - 347 av. JC), lui-même disciple de Socrate (470 - 399 av. JC),  est le père de la logique aristotélicienne: il utilisa beaucoup les syllogismes et décrivit les rouages des sophismes dans sa doctrine du logos (qui signifie à la fois parole, discours et raison) pour fonder la logique, comme instrument de précision du discours philosophique. Parmi la cinquantaine d'oeuvres laissées par Aristote, citons l'Organon (terme qui signifie instrument de travail), son ouvrage sur la logique composé de six traités.

 
LOGIQUE NON ARISTOTELICIENNE  

Au début du XX ° siècle, la Relativité et la Mécanique Quantique  bouleversent les idées aristotéliciennes. Alfred Korzybski (1879 - 1950), ingénieur polonais, crée la sémantique générale  (1933 dans Science and Sanity, an Introduction to Non-Aristotelian Systems and General Semantics) ou logique non-aristotélicienne pour résoudre les 'contradictions' des systèmes de pensée de l'époque ... il rejette les principes d'Aristote, identité, contradiction et du tiers exclu: une carte n'est pas le territoire, une carte ne recouvre pas tout le territoire qu'elle représente, toute carte est auto réflexive (on peut construire une carte de la carte ...), un mot n'est pas ce qu'il représente, signifiant n'est pas signifié ... Voir le Séminaire de sémantique générale de 1937 : vers les disciplines non newtoniennes et non euclidiennes ... Le langage n'est pas la réalité mais une "carte verbale de la réalité" (cf. encore Magritte et son célèbre "ceci n'est pas une pipe"), le langage est auto - réflexif, en ce sens que nous pouvons parler, dans le langage, à propos du langage. Voir les ouvrages proposés par l'institut de sémantique générale . Mais attention: non - aristotélicien ne signifie pas anti - aristotélicien !; voir aussi  Système de pensée non aristotélicien .

Une logique temporelle est une logique mathématique et plus précisemment  une logique modale (avec modificateurs), voir S. Kripke (né en 1940) philosophe et logicien américain; le problème de la signification y est envisagé:  'il pleut' modifié en 'il est possible qu'il pleuve'ou encore en 'il parait qu'il pleut' ...

Les logiques polyvalentes (ou multivalentes, ou multivaluées) sont des alternatives à la logique classique aristotélicienne, bivalente, dans laquelle toute proposition doit être soit vraie soit fausse. Elles sont apparues à partir des années 1920, surtout à la suite des travaux du logicien polonais Jan Łukasiewicz. Elles sont principalement étudiées au niveau du calcul propositionnel et peu au niveau du calcul des prédicats.
Au niveau biologique, notre système nerveux est pourvu, entre autres, d'un thalamus, siège des émotions et sentiments, et d'un cortex, outil de la réflexion et du langage. Par le biais du thalamus, nous éprouvons des émotions et des sentiments, et grâce au cortex, nous pouvons les analyser, réfléchir à ce qui se passe en nous et autour de nous, et le décrire en utilisant le langage parlé et l'écriture. Le cortex est l'organe qui nous permet d'utiliser les symboles; son usage correct nous permet de développer nos capacités de réflexion dont la logique par opposition, qui nous a jusqu'ici maintenus prisonniers des réactions émotionnelles liées aux mots, nous avait interdit l'accès auparavant. Ces émotions étant associées au contexte dans lequel nous avons appris ces mots, nous n'avons pu nous libérer de leur puissance de suggestion qui influence le mélange de sentiments et d'idées dont découlent nos divers comportements. Notons aussi le rôle des fonctions sexuelles non limitées à la procréation: 9/10 servent à revitaliser le corps  et le cerveau  ...

 

LUMIERE La lumière est l'ensemble des ondes électromagnétiques visibles par l'oeil humain, c'est-à-dire dont les longueurs d'onde sont comprises entre 380nm (violet) et 780 nm (rouge). Outre cette lumière 'visible', on appelle aussi 'lumière' d'autres ondes électromagnétiques, telles que celles situées dans les domaines infrarouge (longueurs d'ondes entre 780 nm  et 1000000 nm, plus courtes que celles des micro-ondes ...) et ultraviolet (longueurs d'onde entre 100 nm et 380 nm, supérieures à celles des rayons X ...).

L'énergie transportée par la lumière est quantifiée et on appelle photon le quantum d'énergie (soit la plus petite quantité indivisible d'énergie), qui est aussi une particule de masse nulle, de charge nulle et de spin 1. 

Sources de lumières: les sources primaires produisent de la lumière par elles-mêmes, cette émission est possible car il y a transformation d'une énergie chimique (bougie), électrique (lampes à incandescence, le filament brûle), biochimique (vers luisant) ou nucléaire (soleil et étoiles)  en énergie lumineuse. Ces sources peuvent rayonner par incandescence (l'objet qui émet - bougie, filament de la lampe, étoile - est chaud) et on parle de lumière chaude, ou par luminescence (le rayonnement provient de transformations au niveau atomique de l'objet) et on parle de lumière froide (par exemple dans les tubes à néon dits fluorescents, ce sont les atomes de ce gaz qui transforment l'énergie électrique reçue en énergie lumineuse; il y a électroluminescence suivie de photoluminescence). Au niveau de la restitution de lumière, dans le premier cas (lampes halogènes et à incandescence) on récupère 5 à 10 % de lumière, le reste produisant de la chaleur, pour le second cas (néons, lampes à basse consomation) on récupère 5 fois plus d'énergie lumineuse. Historiquement, la luminescence (émission de lumière sans chaleur) a fait l'objet de nombreuses observations depuis le XVI ème siècle, mais contrairement à la lumière (chaude) émise par incandescence, elle n'a été comprise qu'au XX ème siècle. (et après de nombeuses controverses). Par exemple, la luminescence diffère selon la nature du corps émetteur, contrairement aux corps incandescents ...(l'énigme de la photoluminescence).

Les sources secondaires sont tous les objets éclairés par une source primaire et qui  diffusent dans toutes les directions une partie de la lumière reçue; la Lune, les planètes sont des sources secondaires, de même que les divers objets qui nous entourent: par exemple une tomate rouge éclairée par la lumière blanche d'une ampoule absorbe toutes les couleurs de la lumière qu'elle reçoit sauf le rouge qu'elle diffuse dans toutes les directions.

On distinguera les lumières cohérentes des lasers et des synchrotrons et les lumières incohérentes  du soleil ou d'une ampoule à incandescence.   

Dans un milieu transparent et homogène (vide, verre ou air) la lumière se déplace en ligne droite (de manière générale elle suit les géodésiques du milieu  qu'elle traverse). La vitesse de la lumière dans le vide notée c est une constante physique fondamentale  et un invariant relativiste, actuellement fixée à 299.792.458 m/s. Il faut cependant bien noter que la vitesse de la lumière n'est pas une constante en soi, elle ne coïncide avec la constante physique c que dans le vide (et parce que les photons ont une masse nulle). Cette vitesse ultime est impossible à atteindre par tout objet ayant une masse non nulle,  les particules de masse nulle peuvent seules se déplacer exactement à cette vitesse limite c.

Aucun objet dans quelque milieu que ce soit ne peut se déplacer à une vitesse supérieure à la vitesse de la lumière dans le vide, mais peut se déplacer plus vite que la lumière dans ce même milieu.  Ajoutons que la relativité restreinte d'Einstein interdit le transport d'énergie ou d'information plus vite que c ...mais des fronts virtuels ou des photons - tachyons peuvent dépasser c ....

En septembre 2011 les physiciens travaillant sur l'expérience OPERA ont annoncé des mesures sur des neutrinos se déplaçant plus vite que la vitesse de la lumière ....la communauté scientifique (en émoi ...) attend les résultats d'autres expériences de ce type par d'autres groupes de recherche sur le sujet ....

 

MAGNETAR Un magnétar est une étoile à neutrons possédant un champ magnétique extrêmement intense, de l'ordre de plus de 100 milliards de fois celui du soleil. Ces étoiles sont aussi la source d'émissions électromagnétiques violentes et irrégulières, de haute énergie comme les rayons X et gamma; c'est le cas du sursauteur gamma mou SGR 1806-20. Le champ magnétique des magnétars est nettement supérieur à 10 gigateslas alors que celui de notre Terre n'est que de l'ordre de 50 microteslas.
Le tesla est l'unité d'induction électromagnétique, du nom du physicien Nikola Tesla (1856-1943), inventeur et ingénieur américain d'origine serbe qui a mis au point les premiers alternateurs et peut être considéré comme le précurseur de l'adoption du courant alternatif pour la distribution de l' électricité.

 

MAGNETRON
Un magnétron est un appareil qui transforme l'énergie cinétique des électrons en énergie électromagnétique sous la forme de micro-ondes qui sont des rayonnements de longueur d'onde intermédiaire entre l'infrarouge (juste au-delà du spectre visible) et les ondes de radiodiffusion classiques (radio et TV).
Il est formé d'un tube à vide sans grille où les électrons émis par une cathode se dirigent vers une anode en étant déviés par un champ magnétique qui leur fait décrire une trajectoire en spirale. Ainsi mis en mouvement chaque électron va émettre une onde électromagnétique qui va se déplacer à la vitesse de la lumière.
Le premier brevet pour un magnétron à multi-cavités a été soumis en 1935 par Hans Erich Hollmann.

 

MATIERE NOIRE (ou matière sombre) La matière noire est une matière hypothétique non encore détectée mais qui semble être nécessaire pour expliquer diverses observations des astrophysiciens (estimations des masses des galaxies et des amas et de leurs vitesses de déplacement dans le sens de l'expansion, mesures des fluctuations du fond cosmologique, répartition de la matière baryonique et de la non-baryonique dans l'univers ...) et pour être en accord avec les modèles cosmologiques standards; elle représenterait une part largement non négligeable de l'ensemble de l'univers (au moins 25 % et beaucoup plus pour certains chercheurs ...). Bien que la théorie du Big Bang et la relativité générale d'Einstein expliquent assez bien le passé de l'univers, il reste de nombreuses énigmes à élucider pour que la théorie colle parfaitement avec les diverses observations cosmologiques; c'est pour cela que les chercheurs ont recours à des concepts hypothétiques comme la matière noire, ou comme (ne pas confondre ...) l'énergie noire

 

MECANIQUE QUANTIQUE La mécanique quantique, la deuxième révolution scientifque du XX ° siècle avec la Relativité, est la théorie mathématique et physique décrivant la structure et l'évolution dans le temps et l'espace des phénomènes physiques à l'échelle de l'atome et au niveau sub atomique. Elle a été découverte lorsque les physiciens ont voulu décrire le comportement des atomes et les échanges d'énergie entre la lumière et la matière à cette échelle et dans tous les détails.

A l'origine il y a Max Planck (1858 - 1947) et sa célèbre constante, Albert Einstein (1879-1955) et sa notion de 'grain de lumière' (le futur photon),  Niels Bohr (1885 - 1962) et son modèle atomique (avec les notions d'orbite permise et de saut quantique), les matrices de Werner Karl Heisenberg  (1901 - 1976), les grandeurs physiques devenant des 'observables' associées à des matrices, puis le caractère ondulatoire de la lumière est nettement défini par Louis De Broglie (1892 - 1987) et la dualité onde-corpuscule par  Max Born (1882 - 1970), Paul Dirac (1902 - 1984) et Erwin Schrödinger (1887 - 1961); il faut aussi citer le fameux  paradoxe EPR (énoncé en 1935 par  Einstein, Podolsky, Rosen), expérience de pensée dont le premier but était de réfuter l'interprétation de Copenhague de la mécanique quantique, et de s'interroger sur l'interprétation du phénomène d'intrication quantique (phénomène qui a un grand potentiel d'applications en informatique quantique, avec la cryptographie quantique  ou l'ordinateur quantique ...); les conclusions actuelles laissent place à quelques légères différences d'interprétations mais le point essentiellement admis est que la mécanique quantique est une théorie non - locale.     

C'est une théorie qui permet une description complète de la dynamique d'une particule massique non relativiste; la même étude pour un ensemble de particules identiques est fait par la physique statistique quantique, l'extension relativiste étant la théorie quantique des champs.

La mécanique quantique et toutes les théories dérivées font partie des théories les mieux vérifiées expérimentalement. C'est une théorie assez difficile qui fournit des outils mathématiques complexes qui permettent de prévoir les résultats de diverses mesures.

Voir comprenons-nous vraiment la Mécanique quantique ?  

Avec les semiconducteurs (produits artificiels construits grâce aux lois de la mécanique quantique) l'électronique moderne utilise tous les jours les propriétés quantiques avec les transistors, lasers, ...dans l'électroménager, les avions, voitures et autres ordinateurs ou smartphones ...

 

MEDUSE TURRITOPSIS NUTRICULA Les méduses sont parmi les premiers organismes multicellulaires apparus sur la Terre il y a plus de 500 millions d'années. Ces animaux marins, sans cerveau ni sang ni squelette ont un corps mou composé de 95 à 98 % d'eau, il en existe environ 1500 espèces; on peut les trouver en mer chaude ou froide et même en eau douce.
La méduse turritopsis nutricula est (potentiellement) biologiquement immortelle et vit essentiellement dans les eaux des caraïbes et d'Amérique du nord. Comme pour les cellules cancereuses, ses mécanismes de mort cellulaire naturelle (apoptose) sont bloqués. Elle est en outre capable d'inverser son processus de vieillissement pour rajeunir; ce mécanisme cellulaire s'appelle la trans-différenciation.  Cette méduse fait l'objet de nombreuses études par les biologistes et les généticien pour percer le secret de son immortalité  , car parmi les quelques espèces animales et végétales qui ne vieillissent jamais elle détient le record du monde! C'est la turritopsis dohrnii découverte en 1988 (un peu par hasard) par un étudiant allemand à Rapallo en Italie qui a commencé à susciter de nombreuses recherches et réflexions sur ses faculltés de rajeunissement; depuis la nutricula (ou méduse immortelle) se retrouve souvent sous les feux de l'actualité du transhumanisme ou des diverses études sur l'allongement de l'espérance de vie humaine.

 

METEORITES Une météorite est un corps naturel d'origine extraterrestre qui a survécu (partiellement) à sa traversée de l'atmosphère et qui atteint la surface de la Terre (ou de tout autre astre d'ailleurs). Il existe une grande variété de taille et de composition minéralogique pour ces corps; on estime à environ 10 000 tonnes la masse des diverses météorites tombant sur notre Terre en un an. La France est le pays qui a recueilli ces 100 dernières années le plus grand nombre de météorites par unité de surface et de population ... voir aussi quelques météorites célèbres. Petits grains de poussière, souvent métalliques, les micrométéorites, extrêmement nombreuses dans l'espace et particulièrement près de la Terre, ont généralement une taille inférieure au centimètre et un poids inférieur au gramme. Des milliers de tonnes de telles micrométéorites se déposent sur Terre chaque année. C'est au pôle Sud (base antarctique Concordia) que l'on peut recueillir le plus facilement de tels petits grains qui sont souvent des rescapés du système solaire primitif et l'étude de leur composition isotopique nous permettra d'améliorer notre connaissance de l'origine de notre système solaire il y a environ 4,5 milliards d'années ...

 

MIASSITE Identifiés au début des années 1900, les matériaux supraconducteurs qui conduisent le courant électrique sans aucune résistance et sans perte d'énergie, ont trés vite intéressé les chercheurs. Malheureusement ces matériaux ne possèdent ces propriétés qu'à des températures très froides, proches du zéro absolu (- 273°), ce qui limite leur utilisation à quelques applications comme les IRM , certains cables électriques ou les accélérateurs de particules. Dans les années 1980, on a découvert des supraconducteurs, dits "non conventionnels", fonctionnant à des températures un peu plus chaudes mais très difficiles à manipuler. Parmi la centaine de matériaux supraconducteurs connus, la plupart ont été conçus en laboratoire; seul un trio existe à l'état naturel, sous forme de minéraux, la covellite, la palladseite et la parkerite.
Un quatrième supraconducteur naturel vient d'être mis à jour, la miassite ; ce minéral a été synthétisé en laboratoire en 1930 et observé dans la nature dans les annnées 2000, près de la rivière Miass dans les montagnes de l'Oural en Russie.
Les scientifiques du laboratoire national américain Ames (état de l'Iowa) ont montré (mars 2024) que la miassite se comporte comme un supraconducteur non conventionnel à haute température; ce minéral est composé de 17 atomes de rhodium et de 15 atomes de soufre et possède des propriétés électriques et magnétiques hors du commun. Soumise à une batterie de tests (effets de la température, du champ magnétique et des perturbations électroniques) , la miassite a bien confirmé ses exceptionnelles propriétés de supraconducteur non conventionnel à température et pression ambiantes; elle devrait permettre de développer des technologies supraconductrices plus durables, économiques et écologiques avec de plus nombreuses applications en particulier dans les domaines de la médecine, de l'énergie et de la fusion nucléaire.

 

MICROBE C'est un organisme vivant microscopique unicellulaire (le plus souvent une bactérie) qui peut être responsable de maladies. Plus simplement le terme général 'microbe' (qui n'a pas réellement un sens scientifique précis) désigne à la fois les bactéries, les virus et aussi tous les organismes microscopiques comme les levures, les algues, les protozoaires ...(voir les différences entre microbes, virus et bactéries). 

 

MICRO-ONDE
Les micro-ondes sont des rayonnements électromagnétiques de longueur d'onde intermédiaire entre l'infrarouge (juste au-delà du spectre visible) et les ondes de radiodiffusion classiques (radio et TV).
Un four à micro-ondes (ou micro-onde et même microonde) est un appareil électro-ménager de grande utilisation pour le chauffage et la cuisson rapide des aliments; il fonctionne par l'agitation des molécules d'eau (contenues dans le produit chauffé) sous l'effet du rayonnement micro-onde généré par un magnétron qui est la pièce essentielle du microonde. La cuisson d'un aliment résulte de sa transformation chimique par la chaleur; par exemple la réaction de Maillard (ou glycation) consiste en une interaction entre les sucres et les protéines, qui donne son goût caractéristique à un rôti ...
L'invention du microonde date de 1945, elle est due à un ingénieur américain Percy Spencer qui travaillait sur les magnétrons pour radars dans une entreprise militaire; en passant tout près d'un magnétron il s'aperçut que le carré de chocolat qu'il avait à la poche avait fondu ... Cette invention est un des exemples classiques de sérendipité , au même titre que le téflon, le post-it, l'Amérique de Christophe Colomb et bien d'autres découvertes accidentelles non prévues ni imaginées par leur auteur.

 

MICROPROCESSEUR Le microprocesseur est au coeur de tous les ordinateurs et smartphones, il est de plus en plus petit et pourtant il est constitué de millions de transistors . C'est le microprocesseur qui exécute les instructions et traite les données de tous nos programmes informatiques.
Le microprocesseur a été inventé en 1969 par M. Hoffet et F. Faggin. Un microprocesseur est un processeur dont tous les composants ont été suffisamment miniaturisés pour être installés dans un unique et tout petit boitier. La technologie de fabrication d'un microprocesseur est parfaitement maîtrisée et elle est même à la pointe des hautes technologies.
Le silicium, matériau de base des microprocesseurs (et des transistors) est l'élément chimique de numéro atomique 14, de symobole Si, il est à l'état solide dans les conditions normales de température et de pression. Dans le processus de fabrication des microprocesseurs on tâche de doper quelque peu la conductivité électrique du silicium, soit avec du bore, soit avec du phosphore afin d'ouvrir (le courant passe: 1 ou VRAI ou OUI) ou fermer (le courant ne passe pas: 0 ou FAUX ou NON) les multiples portes logiques des millions voire des milliards de transistors qui constituent le microprocesseur, ces portes permettant d'envoyer des fils d'instructions ( thread ) pour assurer les lignes de code.

 

MOBIUS  (anneau, bande ou ruban de Möbius) C'est le mathématicien August Ferdinand Möbius (1790 - 1868) qui a inventé en 1865 cette surface non orientable à deux dimensions et à une seule face (contrairement au ruban classique qui a deux faces).
MOOC  Le sigle MOOC est issu de l'anglais massive open online courses; il s'agit d'un cours (type cours magistral des universités) en ligne ouvert et massif , c'est-à-dire d'une formation ouverte de type télé-enseignement. Les participants aux cours,  enseignants et élèves (qui peuvent être très nombreux, il y a déjà des cours qui rassemblent plus de 100.000 élèves), communiquent uniquement par internet et peuvent donc être dispersés géographiquement sur toute la planète. Le premier MOOC en France date de 2005, mais ce n'est que depuis 2012 que le principe se développe.
MOORE La LOI de MOORE est une formulation empirique énoncée en 1965 par Gordon MOORE; il affirmait que le nombre de transistors sur une puce de circuit intégré allait doubler environ tous les 18 mois (le premier énoncé était tous les 12 mois mais il fût assez vite modifié en environ 18 mois). Il avait raison car cette affirmation se trouve encore vérifiée en 2012; en 1995 Gordon Moore a estimé que le processus se heurterait aux environs de 2020 à une limite physique, celle de la taille des atomes! Cette loi de Moore a joué un rôle important dans l'histoire de l'informatique et sans elle le rythme de l'innovation technologique informatique sera stoppé ... en attendant l'informatique quantique et ses qubits! Voir aussi un corollaire récent à la loi de Moore.
Depuis 2011-2012, un corollaire de cette loi a fait son apparition, la loi de KOOMEY qui est aussi plus précise. Due à Jonathan Koomey, elle exprime que grâce à la miniaturisation des circuits, le nombre d'opérations de calculs faisables pour une énergie dépensée de un joule, double tous les 18 mois environ. Elle nous dit encore que l'efficacité énergétique de nos ordinateurs double tous les 18 mois, ce qui fait espérer pour bientôt des ordinateurs qui calculeront avec un coût énergétique presque négligeable ...
Février 2016: la fin de 'l'application de la loi de Moore' annoncée par ZDnet ...

 

MONSTRE MONSTRE ou le groupe Monstre ou encore le groupe de Fisher-Griess est le plus gros des 26 groupes finis simples sporadiques.
On peut le visualiser comme une structure qui possède 808.1051 symétries (ce nombre d'éléments appelé l'ordre du groupe est plus grand que le nombre d'atomes constituant notre soleil) dans un espace à 196884 dimensions ... Conjecturé en 1973, il a été construit en 1980 par Robert Griess.
Un groupe en mathématiques est une structure algébrique fondamentale; c'est un ensemble d'éléments muni d'une loi de composition interne associative, possédant un élément neutre et tel que chaque élément possède un élément symétrique (groupe des entiers relatifs, groupe des symétries d'un objet, ...).
Un groupe simple est un groupe non trivial qui n'a pas de sous-groupe distingué autre que lui-même et son sous-groupe trivial (groupe constitué du seul élément neutre).
L'ensemble {2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 41, 47, 59, 71} des nombre premiers qui divisent l'ordre du Monstre joue aussi un grand rôle dans l'étude des formes modulaires , fonctions analytiques particulières, elles-mêmes en étroite connexion avec la théorie des nombres.

 

MORLEY Le Théorème des trisectrices de Morley est un très beau résultat de géométrie euclidienne plane établi par le mathématicien (et éminent joueur d'échecs) Frank Morley en 1899;c'est un des rares théorèmes de géométrie élémentaire non connus des anciens, pour lesquels la trisection posait un problème, au même titre que la quadrature du cercle et la duplication du cube.
Ce résultat exprime que les intersections des trisectrices des angles d'un triangle QUELCONQUE forment un triangle équilatéral, que l'on appelle quelquefois le triangle de Morley du triangle initial.
Il existe diverses démonstrations de ce résultat dans des cadres variés, dont une en 1998 due à Alain Connes .
On trouvera dans la trisection de l'angle une belle et simple démonstration de Claude Frasnay, sans trigonométrie ni nombre complexe. Voir aussi une démonstration élémentaire du théorème de Morley , qui utilise la trigonométrie.

 

MULTIVERS Le terme de multivers désigne l'ensemble de tous les univers possibles parmi lesquels figure notre univers observable. Depuis une dizaine d'années cette hypothèse extraodinaire passionne les cosmologistes: notre univers observable ne serait pas unique mais il en existerait des milliards d'autres qui nous sont inaccessibles ...

 

Loi de MURPHY S'il y a plus d'une façon de faire quelque chose, et que l'une d'entre elles conduit à un désastre, alors il y aura toujours quelqu'un pour le faire de cette manière.
Cette loi (empirique voire canularesque !) est exprimée par un ingénieur aérospatial Edward A. Murphy (1918-1990) dans les années 70-80 sous la forme
Tout ce qui est susceptible d'aller mal, ira mal.
Encore connue sous le nom de la 'loi de l'emmerdement maximum' ou de la 'loi de la tartine beurrée' (qui tombe toujours du mauvais côté!).

 

  NASH John (1928-2015) John Nash est un mathématicien et un économiste, prix nobel d'économie en 1994 et prix Abel en 2015; il a travaillé sur la théorie des jeux, la géométrie différentielle et les équations aux dérivées partielles.
Les travaux de Nash, prolongés par ceux de Mikhaïl Gromov , sur le plongement isométrique ont permis de définir les fractales lisses . La plus simple fractale lisse apparaît lorsque l'on cherche à comprimer une sphère pour l'enfermer dans un petit dé à coudre ... Mais on veut en outre que toutes les distances d'un point à un autre de la sphère initiale demeure les mêmes (d'où le qualificatif isométrique!). Dans un premier temps, on réduit la sphère pour l'insérer dans le petit cube (le dé à coudre). Dans un deuxième temps on déforme la sphère pour rallonger les distances en introduisant des petites vaguelettes (ou corrugations) et on répète ce processus une infinité de fois dans diverses directions avec des amplitudes de plus en plus petites. La surface limite obtenue se nomme une sphère réduite . Le caractère fractal est assuré par les superpositions des vaguelettes et leur applatissement rapide induit le caractère lisse de la sphère réduite.
C'est ce qu'établit le théorème de plongement de Nash : toute variété riemannienne peut être plongée de manière isométrique dans un espace euclidien.

 

  NAZCA (géoglyphes de Nazca) Découverts en 1927, les géoglyphes de Nazca sont des lignes traçées sur le sol (simples lignes ou animaux stylisés) dans le désert de Nazca dans le sud du Pérou. La civilisation Nazca se développa entre 300 av. J.-C. et 800 de notre ère.
Des archéologues estiment avoir percé le mystère de Nazca , il s'agirait d'un réseau très ramifié d'aqueducs dont les vestiges ont été préservés jusqu'à nos jours; grâce à ce réseau les habitants de la région avaient de l'eau potable durant toute l'année.

 

 NBIC Le sigle NBIC définit les quatre nouvelles technologies: Nanotechnologies, Biotechnologies, Informatique (big data, internet des objets connectés), Cognitivisme (intelligence artificielle et robotique). Toutes ces innovations auxquelles on peut ajouter les imprimantes 3D et la cybernétique, vont apporter un changement radical, en particulier,  à notre économie et à nos techniques médicales et chirurgicales; d'ailleurs,  les transhumanistes soulignent, depuis quelques années déjà, tous les avantages que l'humanité va obtenir en termes de longévité de la vie voire d'immortalité grâce à toutes ces nouvelles technologies. Mais déjà, face aux défis des NBIC, deux camps se font face, les bioconservateurs et les transhumanistes...

 

NEGUENTROPIE On appelle néguentropie ou énergie négative l'opposée de l'entropie (on dit même l'entropie changée de signe); l'entropie mesure le désordre dans un système et la néguentropie le degré d'ordre de ce système. C'est encore une traduction physique de l'information contenue dans un système qui maintient en quelque sorte sa cohésion.

 

NEURONE Un neurone est une cellule excitable constituant l' unité fonctionnelle de base du système nerveux ; les neurones assurent la transmission des informations sous la forme d'un signal bioélectrique appelé l'influx nerveux. Cette transmission d'information se fait entre cellules nerveuses, cellules musculaires et cellules glandulaires.
Il y a environ 100 milliards de neurones dans un cerveau humain et environ 3 fois plus de cellules gliales qui constituent les seconds constituants du tissu nerveux. L'intestin compte environ 500 millions de neurones et le coeur environ 40000 ...L'ensemble représente autour de un million de milliards de connexions ...
Une propriété essentielle du cerveau est la plasticité neuronale , c'est-à-dire la capacité générale du neurone et de ses synapses à changer de propriétés en fontion de leur état d'activité. Un neurone est constitué d'un corps cellulaire (contenant le noyau et le cytoplasme et appelé le péricaryon), de dendrites (en moyenne 7000 par neurone) et d'un axone.
Les neurones sont présents chez tous les animaux sauf chez les éponges et les placozoaires.
L'intelligence artificielle essaye de s'inspirer fortement de notre système neuronal. Voir du neurone biologique au neurone artificiel et les réseaux neuronaux et l'intelligence arfificielle .

 

NEUTRINO Les neutrinos sont des particules élémentaires (du modèle standard de la physique des particules), sans charge électrique, de masse très faible (pratiquement nulle) qui sont engendrées par des réactions nucléaires; ce sont des fermions de spin 1/2 et il en existe trois types (appelés saveurs) électronique, muonique et tauique. L'existence théorique du neutrino a été  postulée en 1930 par Wolfgang Pauli (1900 - 1958) et la confirmation expérimentale de cette particule a été établie en 1956.  Le Soleil produit sans arrêt des neutrinos de basse énergie qui traversent la Terre, les trous noirs et les supernovas en produisent de haute énergie. Les neutrinos se déplacent à une vitesse très proche de celle de la lumière et sont très difficiles à arrêter. Les neutrinos sont parmi les particules les plus abondantes dans l'univers; nous sommes par exemple constamment traversés par quelques 65 milliards de neutrinos par cm ² et par seconde ... Voir l'expérience OPERA et les éventuels (?) Neutrinos supra luminiques ...  mars 2012, résultats complètement infirmés quelques mois plus tard (résultats de l'expérience Opera faussés par une mauvaise connexion entre un GPS et un ordinateur):  les neutrinos ne sont PAS plus rapides que la lumière !  Ils sont cependant encore d'actualité avec la recherche d'un éventuel petit hypothétique nouveau, le neutrino stérile ...

 

NICOMAQUE de Gérase (150-196) est un mathématicien et philosophe grec né à Gérase; il a écrit des ouvrages sur l'arithmétique (Introduction à l'arithmétique, Théologie de l'arithmétique) et sur la musique (Manuel d'harmonique, Introduction à la musique). Il s'est intéressé en particulier aux nombres premiers et aux nombres parfaits, et il a établi sa célèbre identité appelée le théorème de Nicomaque : ∑1n k3 = (∑1n k)2, soit, pour tout n, la somme des cubes des n premiers entiers est égale au carré de la somme de ces n entiers.
Pour démontrer ce beau résultat, on peut remarquer que, pour tout k, (k(k+1)/2)2 - (k(k-1)/2)2 = k3; en écrivant cette identité de k=1 à k=n et en sommant, il vient, puisque n(n+1)/2 = 1 + 2 + ... + n, 1 + 23 + ... + n3 = (1 + 2 + ... + n)2.

 

NOMBRES AMICAUX Deux entiers, strictement positifs, sont dits amicaux ou amiables (ou même aimables) s'ils sont distincts et si chacun est égal à la somme des diviseurs stricts de l'autre. La plus petite paire de nombres amicaux est (220, 284): 220=1+2+4+71+142 et 284=1+2+4+5+10+11+20+22+44+55.
La paire suivante est (1184, 1210); elle aurait été découverte en 1866 par un jeune garçon de 16 ans.
Euler découvrit une soixantaine de nouvelles paires amiables, alors qu'avant lui on n'en connaissait que 3.
Les recherches par ordinateur ont permis de trouver toutes les paires de moins de 12 chiffres; en janvier 2019, on a déterminé largement plus d'un milliard de paires amiables, mais on ne sait pas montrer s'il en existe une infinité ou pas. On ne sait pas non plus montrer s'il existe une paire de nombres amaibles premiers entre eux (leur plus grand commun diviseur est égal à 1, par exemple 6 et 35 sont premiers entre eux).
Les deux nombres des paires amiables connues ont toujours la même parité, et on ignore actuellement s'il peut exister une paire amiable avec un nombre pair et un nombre impair. On définit aussi les suites sociables d'ordre n , une paire amiable étant une suite sociable d'ordre 2, ainsi que les suites aliquotes ; voir nombres amiables et suites aliquotes .

 

NOMBRES de ARMSTRONG Dans '536 puzzles and curious problems', H.Dudeney aurait été le premier à poser le problème de la recherche de nombres égaux à la somme des cubes de leurs chiffres autres que 370 et 407, les premiers nombres narcissiques ou nombres de Armstrong de première espèce.
Les quatre espèces de nombres de Armstrong ont été ensuite explicitement définies par Michael F. Armstrong: étant donné un nombre n non nul, ce sont les points fixes d'applications Aj qui dépendent de n exclusivement par l'intermédiaire des chiffres de celui-ci.
Voir des détails dans Nombres de Armstrong des quatre espèces et variantes .

 

NOMBRES DE NIVEN (ou HARSHAD) Un nombre de Niven (ou nombre de Harshad ou nombre multinumérique) est un entier naturel n non nul qui est divisible, dans une base donnée, par la somme S de ses chiffres.
Définis dans les années 1970, ces nombres ont depuis été régulièrement étudiés par plusieurs auteurs. En base 10, tous les nombres de 1 à 10 inclus sont de Niven, on a ensuite 12, 18, 20, 21, 24, ..., 2022, 2023, 2024, 2025, ..., 142857, ...
Un nombre est dit de Niven complet (ou complètement Harshad) s'il est de Niven dans toutes les bases; c'est le cas uniquement de 1, 2, 4, 6.
De manière générale, dans une base b, tous les nombres de 1 à b et toutes les puissances de b sont des nombres de Niven et aucun nombre premier strictement supérieur à b n'est de Niven.
En base 10, les factorielles de tous les entiers inférieurs ou égaux à 431 sont des nombres de Niven, 432! est la plus petite factorielle à ne pas être un nombre de Niven.
Dans toute base, il y a une infinité de nombres de Niven, qui sont de la forme n = K*S, K étant un entier quelconque. En spécifiant K, par exemple comme une certaine fonction des chiffres de n, on peut définir des nombres de Niven particuliers qui seront en nombre fini.

 

Nombres friables
On appelle nombre friable ou lisse (smooth number) un entier dont tous les facteurs premiers sont petits, relativement à une certaine borne, c'est-à-dire encore un entier sans grand facteur premier. Plus précisément un entier sera dit k-friable si tous ses facteurs premiers sont inférieurs ou égaux à k, k étant un entier positif au moins égal à 2.
Par exemple les nombres 2-friables sont 1 et les puissances de 2 (1, 2, 4, 8, ...), les nombres 3-friables sont les nombres en 2p.3q, p et q entiers positifs ou nuls (1, 2, 3, 4, 6, 8, 9, ...).
Ces nombres 3-friables sont particulièrement intéressants en rapport avec le théorème de Erdös et Lewin (1996) qui montre que tout entier s'exprime comme une somme finie de nombres 3-friables, aucun terme n'en divisant un autre.
Les nombres 5-friables sont encore appelés nombres réguliers ou nombres de Hamming et sont de la forme 2p.3q.5r (p, q, r entiers positifs ou nuls)...
Dans la définition, k n'est pas nécessairement un facteur premier de l'entier k-friable et n'est pas nécessairement un nombre premier, mais dans la pratique on préfèrera utiliser des k premiers. De manière générale on dira:
Définition. n est k-friable (k premier) si n = 2a.3b.5c...kz, avec a, b, c, ...z entiers positifs ou nuls.
Naturellement si un entier n est k-friable il est aussi (trivialement) k*-friable pour tout entier k* > k.
Si on note un entier n = p1a.p2b...prz, les pi, i = 1, 2, ..., r étant ses facteurs premiers, on pourra appeler P le plus grand et p le plus petit; on dira alors:
n est k-friable si P <= k et n est k-résistant si p > k.
Par exemple, un nombre 3-résistant est de la forme n = 5a.7b.11c...., a, b, c, ...étant non tous nuls.
Naturellement si un entier n est k-résistant il est aussi (trivialement) k*- résistant pour tout entier k* < k.
Ces entiers jouent un rôle important en cryptographie où la factorisation est capitale ...en particulier pour les entiers N produits de deux grands nombres premiers p, q (d'au moins une centaine de chiffres), nombres k-résistants bipremiers avec k suffisamment grand (largement utilisés dans les techniques de l' algorithme RSA ). La sécurité de tels algorithmes repose sur l'énorme difficulté actuelle (pour ne pas dire impossibilité !) pour factoriser de tels N=pq (et donc obtenir p et q à partir de la seule connaissance de N); la factorisation 'manuelle' d'un nombre d'une dizaine de chiffres peut déjà être difficile (par exemple 2435209979=48889.49811 ou 175849723097207=3216233.54675679).
On conviendra de parler de k-friable pour un entier dont le plus grand diviseur premier est k, et de k-résistant pour un entier dont le plus petit diviseur premier est le nombre premier immédiatement strictement supérieur à k.
En notant pi, i = 1, 2, ..., r, les facteurs premiers classés de manière strictement croissante d'un entier n, un entier k-friable sera n = p1a.p2b...pr-1y.kz (z>0); un entier k-résistant sera n = k+a.p2b.p3c...prz... (a>0), k+ étant le premier immédiatement strictement supérieur à k.
Exemple comparatif (entiers de l'ordre de 1010):
10000000019 est premier,
10000000000 = 210.510 est 5-friable (très facile à factoriser),
10000841621 = 99607.100403 est 99606-résistant (bipremier plus difficile à factoriser).
On observera que parmi tous les k-friables, il n'y a jamais de nombre premier autre que 2, mais il y a toutes les puissances de 2, et que parmi tous les k-résistants, il n'y a jamais de nombre pair mais il y a tous les premiers strictement supérieurs à k.

 

NOMBRE HEUREUX ou MALHEUREUX En théorie des nombres, pour déterminer si un nombre est heureux ou malheureux, on considère la transformation d'un entier en la somme des carrés de ses chiffres . Si l'itération correspondante converge vers 1, le nombre est dit heureux, sinon il est dit malheureux; dans ce dernier cas, l'itération converge vers le cycle d'ordre 8: (42, 20, 4, 16, 37, 58, 89, 145). Voir la page du site qui teste en ligne le caractère heureux ou malheureux d'un entier .
On peut aussi envisager les transformations associant à un nombre, la somme des puissances p (3, 4, 5,...) de ses chiffres . On peut ainsi définir les transformations agréables sur N , qui conduisent aux nombres narcissiques parfaits (ou ppdi ou nombres de Armstrong) et permettent d'introduire une nouvelle classe, les nombres r-narcissiques parfaits .
Voir The perfect r-narcissistic numbers et Perfect r-narcissistic numbers in any base.

 

NOMBRES de KEITH Un nombre de Keith , ou nombre repfigit, est un entier naturel défini par Mike Keith en 1987 de la manière suivante. Etant donné un nombre positif N à p chiffres (p>1), ai (i=0 à p-1), on forme une suite (de Keith) avec les ai comme termes initiaux, le terme général étant la somme des p termes précédents; dès que n apparaît dans cette suite (croissante donc) on dit que N est un nombre de Keith.
Par exemple 61 qui donne la suite 6, 1, 7, 8, 15, 23, 38, 61 est l'un des 6 nombres de Keith à 2 chiffes; on comptabilisera qu'à partir de 6, 1 il faut 6 itérations pour obtenir 61. On ignore s'il existe une infinité de tels nombres (ou pas); il y en a seulement 114 inférieurs à 1035.

 

NOMBRE NORMAL de BOREL   Dès 1908, Emile Borel s'intéresse aux propriétés des décimales de certains nombres usuels mais un peu mystérieux en ce qui concerne leurs décimales, comme π, e, √2 ou ln 2.
En 1909, il introduit le concept de NOMBRE ABSOLUMENT NORMAL: il s'agit d'un nombre réel tel que la fréquence d'apparition de tout k-uplet (séquence de k chiffres quelconques, k ≥ 1) dans la suite de ses décimales est équirépartie dans toute base b (b ≥ 2), la fréquence limite d'apparition de cette séquence de k chiffres étant 1/bk. Un nombre est normal en base b s'il n'a la propriété précédente que suivant la base b. Par exemple un nombre normal en base 10 aura dans ses décimales le nombre 2017 avec la fréquence 1/10000, 97 ou 99 avec la fréquence 1/100...
Le nombre de Champernowne 0,123456789101112...(son développement décimal est la concaténation de tous les entiers consécutifs) est normal en base 10.
Le nombre de Coperland-Erdös 0,23571113171923...(son développement décimal est la concaténation de tous les nombres premiers consécutifs) est normal en base 10.
Borel a démontré le théorème du nombre normal.
Théorème: Dans R, presque tout nombre (au sens de la mesure de Lebesgue) est absolument normal (soit encore normal en toute base).
Autrement dit, les nombres qui n'ont pas cette propriété forment dans R un ensemble négligeable c'est-à-dire de mesure nulle au sens de Lebesque.
L'ensemble des nombres non normaux n'est cependant pas dénombrable: aucun nombre rationnel n'est normal dans une quelconque base puisque la suite de ses décimales devient périodique à partir d'un certain rang fini, et par exemple il existe un ensemble non dénombrable de réels qui ne contiennent pas le chiffre 7 dans leur développement décimal.
Le théorème de Borel assure l'existence des nombres absolument normaux (qui forment dans R un ensemble non dénombrable et qui y sont les plus probables) mais il n'en fournit pas la construction ...
Alan Turing a démontré un théorème d'existence de nombres absolument normaux calculables. Des tentatives de constructions de tels nombres sont dues à W. Sierpinski puis V. Becher et S. Figueira, mais le calcul explicite de leurs décimales n'est pas tout à fait efficace.
Les nombres cités plus haut, π, e, √2, ln 2, sont pour le moment seulement conjecturés comme absolument normaux.
Les plus récentes études sur le sujet fournissent des algorithmes qui rendent constructifs et calculables des nombres absolument normaux, mais ces algorithmes sont assez inefficaces car 'doublement exponentiels', c'est-à-dire qu'ils nécessitent des temps de calcul trop longs (voir l'article de Jean-Paul Delahaye ). Le domaine est difficile et la recherche avance à petits pas; en 2012, on a réussi à construire effectivement des nombres calculables qui sont normaux en base 2 et non normaux en base 6 (nombres de Stoneham).
Signalons enfin que, pour une base donnée, un nombre est dit univers si ses décimales contiennent, au moins une fois, n'importe quelle séquence de chiffres de longueur finie, propriété plus faible que la précédente. Pour une base donnée, tout nombre normal est un nombre univers mais la réciproque est fausse.

 
  NOMBRE PARFAIT  Un nombre parfait est un nombre égal à la somme de ses diviseurs stricts ou propres (on parle encore de ses parties aliquotes). Par exemple 6 qui est le plus petit nombre parfait est tel que 6=1+2+3. Les nombres parfaits suivants sont 28, 496, 8128, 33550336,... .
Quelques résultats anciens: Pythagore a observé que tous les nombres parfaits sont toujours la somme d'une série arithmétique, Euclide a démontré que si 2p-1 est un nombre premier (qu'on appelle d'ailleurs un nombre premier de Mersenne) alors 2p-1(2p-1) est un nombre parfait et Euler a prouvé la réciproque. Avant 1950 (et l'arrivée des premiers ordinateurs) on ne connaissait que 12 nombres parfaits, depuis janvier 2018 on sait déterminer 50 nombres parfaits, qui sont tous de la forme indiquée par Euclide. Les plus grands nombres parfaits connus proviennent du projet GIMPS .
Deux conjectures sur ces nombres sont à démontrer: il existe une infinité de nombres parfaits pairs, et il n'existe pas de nombre parfait impair. On pourra noter qu'à partir de 28, les nombres parfaits sont des sommes de cubes de nombres entiers impairs successifs. Ainsi on a: 28=33+1, 496=73+53+33+1, 8128=153+133+113+...+33+1, 33550336=1273+1253+ ...+1, 8589869056=5113+5093+...+1, 137438691328=10233+10213+...+1, 2305843008139952128=655353+655333+...+1,...
Voir aussi nombres amiables et suites aliquotes de Jean-Paul Delahaye.

 

  Nombre premier de Sophie Germain Un nombre premier de Sophie Germain est un nombre premier tel que 2p+1 soit aussi premier; un nombre premier de la forme 2p+1 est un nombre premier sûr. Sophie Germain a défini ces nombres en 1825 (voir le théorème de Sophie Germain ) pour avancer, quelque peu, dans la démonstration de la conjecture de Fermat de 1621, qui n'a été finalement démontrée (théorème de Fermat-Wiles) qu'en 1994 (A. Wiles, Modular elliptic curves and Fermat's Last Theorem, Annals of Mathematics. 141 (3): 443–551, 1995). On pourra générer des nombres premiers de Sophie Germain et étudier quelques-unes de leurs propriétés , comme pour tout sous-ensemble de nombres premiers: jumeaux, cousins, ... triplets, n-uplets arithmétiques ou non. La conjecture sur l'infinité des nombres de Sophie Germain reste encore à démontrer ...

 

  Nombre premier multi-germain ou r-germain Un nombre premier de Sophie Germain est un nombre premier tel que 2p+1 soit aussi premier; un nombre premier de la forme 2p+1 est un nombre premier sûr. Si S définit l'application p-->2p+1, un nombre premier multi-germain et plus précisément r-germain (r >= 1) est un premier tel que les Sk(p), k = 1, ...,r, soient tous premiers. Un nombre de Sophie Germain est encore un nombre premier 1-germain. 2 est le plus petit r-germain pour r = 1, 2, 3, 4, le plus petit 5-germain est 89, ...le plus petit 10-germain étant 554688278429 ...Un nombre premier r-germain est encore le premier terme d'une chaîne de Cunningham de première espèce de longueur r + 1, le dernier terme étant Sr(p) qui est un premier mais pas de Sophie Germain.

 

  NOMBRE TRIANGULAIRE Un nombre triangulaire est un nombre polygonal particulier (d'ordre 3), représentable par un polygone régulier à 3 côtés, le triangle. C'est un nombre que l'on peut former en additionnant les n premiers entiers non nuls, donc de la forme n(n+)/2 (puisque 1+2+3+...+n=n(n+1)/2), et que par ailleurs on peut représenter par un triangle équilatéral (on parle quelquefois de nombres figurés ou de nombres géométriques). La suite infinie de ces nombres est 1, 3, 6, 10, 15, ...Observons que mis à part 3, aucun nombre triangulaire n'est premier.
Ces nombres possèdent de nombreuses prorpiétés. Tous les nombres parfaits sont triangulaires. La somme de deux nombres triangulaires consécutifs est toujours un carré parfait. Fermat a montré que tout entier non nul, est soit un nombre triangulaire, soit une somme de 2 ou 3 nombres triangulaires. Plus généralement, Fermat énonçait en 1636 dans une conjecture que tout entier naturel peut s'écrire comme somme de n nombres polygonaux d'ordre n (3 nombres triangulaires, 4 nombres carrés, 5 nombres pentagonaux, ...). Ce résultat fut prouvé par Lagrange pour n = 3, par Legendre pour n = 4 et Cauchy prouva le cas général en 1813.

 

  NOTES de MUSIQUE Il s'agit de la désignation et de la notation des notes de musique selon les pays. Pour la musique occidentale il y a deux grands systèmes de notation, soit les sept premières lettres d'un alphabet (C D E F G A B/H en Europe), soit les termes (éventuellement traduits suivant la langue) "do ré mi fa sol la si". Cette dernière notation est due à un moine bénédictin italien Guido d'Arezzo (992 - 1050). En Orient, c'est le système chinois Jianpu qui est le plus utilisé.

 

OCKHAM (rasoir d'Ockham) Guillaume d'Ockham (1285-1347) est un philosophe britannique qui a exprimé le principe de raisonnement philosophique qui porte son nom, le rasoir d'Ockham; entrant dans les concepts du rationalisme et du nominalisme, il signifie éliminer des explications improbables d'un phénomène. On parle de nos jours, de principe de simplicité ou d'économie ou de parcimonie et on le formule par pourquoi faire compliqué quand on peut faire simple.
Ce principe est loin d'être toujours utilisé et combien de fois rencontre-t-on diverses situations ou tel ou tel applique avec délectation le principe inverse pourquoi faire simple quand on peut faire compliqué ! ...et pourtant !!

 

OCTET En informatique, l'octet est l'unité de mesure de la quantité de données; un octet est constitué de 8 bits, c'est-à-dire 8 chiffres binaires (0 ou 1). Avec deux valeurs possibles par bit, on a 256 possibilités (2 puissance 8). On notera que le byte, la plus petite unité adressable d'un ordinateur, est lui aussi généralement constitué de 8 bits, comme l'octet; c'est cependant un abus de considérer ces deux mots comme parfaitement synonymes. L'octet est encore l'unité de mémoire en informatique; par exemple chaque caractère alphanumérique est codé par un octet différent et les quantités des diverses mémoire (vive, morte ou de masse) sont comptées en multiples d'octets (les divers multiples de l'octet). 

 

ONDELETTES (A.Grossmann et B.Torrésani dans un fichier de 2001 mais très clair)  (traitement en ondelettes mieux que la Fast Fourier Transform ..) En 1940 D. Gabor, qui reçut par la suite le prix Nobel  de physique (1971) pour ses travaux sur l'holographie, suggérait déjà de rendre locale l'analyse de Fourier en s'aidant de fenêtres et proposait ses gaborettes, qui préparaient les ondelettes ...  Application en imagerie et en calcul de surfaces  (voir la rubrique compression d'images pour une autre application). Toute onde quelle qu'elle soit pouvant parfaitement se décomposer en ondelettes, pour analyser ou compresser un signal quelconque on utilise constamment cette notion, aussi bien en particulier pour la compression d'images (formats JPEG 2000 et SPIHT) que pour l'analyse des  ondes gravitationnelles détectées récemment ...

ONDES ELECTROMAGNETIQUES  Les ondes électromagnétiques caractérisent le rayonnement électromagnétique qui est une certaine forme de transfert d'énergie; la lumière en est un particulier, visible par l'oeil humain, qui peut être décrit de manière corpusculaire en tant que propagation de photons ou de manière ondulatoire en tant qu'onde électromagnétique.
Les ondes électromagnétiques sont désignées par divers termes, suivant la gamme de longueur d'onde (ou fréquence). Par longueur d'ondes décroissantes on a: ondes radio, radar, infrarouges, lumière visible, ultraviolet, rayons X, rayonnement gamma. Comme son nom l'indique, une onde électromagnétique est constituée d'un champ électrique et d'un champ magnétique orthogonaux et oscillant à la même fréquence.

ONDES GRAVITATIONNELLES Les ondes gravitationnelles, prédites par Einstein en 1916 dans sa Relativité Générale, sont des déformations de l'espace-temps, extraordinairement petites qui se propagent à la vitesse de la lumière, produites par des collisions de grosses masses accélérées (à de très grandes accélérations), comme les étoiles à neutrons ou les trous noirs. Ces ondes interagissent très peu avec la matière et traversent sans problème toutes les concentrations de masse de l'univers qui est ainsi transparent pour celles-ci, ce qui devrait permettre un jour de les détecter ... C'est fait !  Le 11/02/2016 on a confirmé la détection  d'ondes gravitationnelles (effectuée avec deux interféromètres LIGO extrêmement précis en septembre 2015) produites par l'énorme énergie due à la fusion de deux trous noirs situés à plus d'1 milliard d'années-lumière. Un siècle après les prédictions d'Albert Einstein dans sa Relativité Générale, les ondes gravitationnelles, les trous noirs et la collision de trous noirs ont donc enfin gagné une réelle existence par ces mesures directes. Une onde gravitationnelle primordiale est une onde gravitationnelle observée dans le fond diffus cosmologique et présente aux tous premiers instants du Big-Bang et donc dans l'univers primordial. En juin 2017 on a publié la troisième détection d'ondes gravitationnelles
Une quatrième détection annoncée en septembre 2017.
Le 3 octobre 2017 le prix Nobel de physique est attribué à trois américains pour leurs observations d'ondes gravitationnelles.
Voir la rubrique ondes gravitationnelles sur la page index du site.

 
ORDINATEUR  Si la première machine à calculer est la 'pascaline' de Pascal en 1642, suivie en 1830 par la 'machine à différences' de Charles Babbage, on peut considérer  Alan Turing (1912 - 1954), mathématicien britannique, comme le 'père' de l'ordinateur  et l'un des fondateurs de l'informatique. A. Turing a conçu en 1936 la  machine de Turing , modèle abstrait de fonctionnement d'un appareil mécanique de calculs, précurseur de l'ordinateur moderne avec sa carte mémoire. Mark I construit en 1949 est le premier véritable ordinateur entièrement automatique avec une mémoire formée de tubes cathodiques. On distingue plusieurs familles d'ordinateurs suivant leur taille: les ordinateurs personnels (ordinateurs de bureau et portables), les tablettes PC, les assistants personnels ou PDA, les Netbooks.
En terme de comparaison de puissance, en 1937 le premier calculateur arithmétique Z1 effectuait 1 opération par seconde, alors qu'en 2017 le supercalculateur Taihulight Sunway effectue 100.1015 opérations par seconde (on parle de 100 Petaflops).

 
ORIGAMI Origami est le nom japonais de l'art du pliage de papier (de oru plier et kami papier en japonais). Cet art est originaire d'un des plus anciens arts populaires au VI ème siècle en Chine, qui aurait été introduit au Japon par des moines boudhistes. L'origami est un sujet d'étude pour les enseignants de mathématiques, en particulier dans le domaine de la géométrie (l'origami permet en particulier la trisection de l'angle qui est impossible à la règle et au compas).

 
OSE Le suffixe OSE, du latin osus ou du grec osis, est utilisé en anatomie et en physiologie pour exprimer un processus (mitose, méiose, phagocytose, ....), en chimie avec divers termes exprimant un sucre (glucose, fructose, lactose, xylose, octose, ...), ou en médecine pour désigner des maladies non inflammatoires (les maladies inflammatoires sont en ite ) ou des états chroniques (tuberculose, thrombose, sclérose,..., anamorphose, mitose, ...).
En ce qui concerne les sucres, il y a aussi quelques termes en OSIDE comme nucléoside, holoside, glucoside, ...
En français, il existe environ 400 mots construits avec ce suffixe.

 
OUMUAMUA Oumuamua est un objet interstellaire découvert en octobre 2017; il n'excéderait pas plus de 440 mètres de diamètre encore que sa mesure soit difficile à cause de cette petite taille et il décrit une trajectoire nettement hyperbolique avec une forte excentricité dans notre système solaire. Ce serait le premier astéroïde extrasolaire issu de la dislocation d'une comète passant très près de son étoile hôte que nous aurions détecté. Diverses de ses caractéristiques sont étranges, il ne fait que traverser le système solaire (il n'est pas lié gravitationnellement au soleil, ne tourne pas autour de celui-ci et donc ne fait partie du système solaire); il a en outre une forme très allongée (type cigare), tourne sur lui-même en quelques heures et sa vitesse propre est difficilement explicable ...pour le moment.
Oumuamua pourrait être un débris d'une planète lointaine . Pour l'astrophysicien Avi Loeb il serait même d'origine extra terrestre ...Pour d'autres Oumuamua serait un gigantesque iceberg d'hydrogène interstellaire ou proviendrait de planètes en formation autour d'une étoile binaire ... Bref Oumuamua est un tout petit petit corps céleste, certainement extrasolaire, qui fait vraiment beaucoup parler de lui depuis sa détection par l'observatoire du Haleakala à Hawaï (son nom vient du mot hawaïen 'éclaireur' ou 'messager').

 
PALEO Le préfixe paléo vient du grec palaios, et signifie ce qui est ancien ou disparu depuis longtemps et assez souvent attaché à la préhistoire. En français, il existe une bonne centaine de mots débutant par paléo: de paléoclimat, paléoenvironnement, paléobotaniste, paléodémographie, ... jusqu'à paléosaure, paléozoologie, paléogénéticien, paléoanatomie, paléoanthropologue ou paléogène ...mais aussi paléolithique, paléoencéphale et paléophrénie.

 
PALEODEMOGRAPHIE La paléodémographie est la science qui étudie les comportements et les structures des populations préhistoriques ou des populations historiques pour lesquelles les sources classiques de la démographie historique (recensements, registres,...) font défaut. Les premières bases de cette discipline furent décrites sous le règne de Louis XIV par un gentilhomme normand, Monsieur de Cocherel, qui découvrit sur ses terres une sépulture collective de vingt squelettes qu'il crut d'abord gauloise et qui était en réalité néolithique; il tenta d'analyser les sexes et les âges des décès : la paléodémographie était née … Elle ne s'est cependant développée qu'au XXème siècle, particulièrement à partir des années 1960. L'école française y a joué un rôle important : il est impossible de citer tous les noms mais on peut retenir l'influence de Claude Masset à partir de 1970 puis de Jean-Pierre Bocquet-Appel quelques années plus tard. Noter aussi l'ouvrage d'Isabelle Séguy et Luc Buchet Manuel de Paléodémographie (2011, éditions de l'INED). Mais on trouve des spécialistes dans tous les coins de monde, par exemple pour ne citer que deux noms L. W. Konigsberg et S. R. Frankenberg aux Etats-Unis.
La paléodémographie vise à reconstruire la démographie des populations anciennes à partir des vestiges archéologiques, traces d'occupation, restes osseux. On a pu, par exemple, évaluer la population totale d’Homo ergaster, qui vivait en Afrique entre - 1,8 et 1 million d'années avant notre ère, au maximum à 200 000 individus. (Pour comparer avec notre futur, la population mondiale devrait continuer à croître fortement, atteignant 9,77 milliards en 2050 et 11,18 milliards en 2100 contre 7,55 en 2017.) Un thème de recherche actif assez récent est l'étude de la transition démographique néolithique (conséquences du passage d'une économie de subsistance à une économie agro-pastorale).
« A quel âge mourraient les hommes autrefois ?». Il s'agit d'une question de statistique qui peut paraître simple : en utilisant sa corrélation avec un indicateur (éventuellement plusieurs) relevé sur les restes osseux, estimer l'âge au décès avec la meilleure précision possible et une évaluation fiable de celle-ci ? Cependant la question a fait l'objet de longues controverses, des méthodes manifestement biaisées ayant longtemps été avancées et leurs critiques (tel Claude Masset) ayant eu grand peine à faire prévaloir leurs arguments. Un consensus sur les principes à retenir s'est fait jour vers la fin du XXe siècle où plusieurs approches raisonnables ont été mises en avant. Dans leur article de Population (2011, 1, 117-145) Estimer l'âge sans le mesurer en paléodémographie , Henri Caussinus et Daniel Courgeau proposent une méthode basée sur l'inférence bayésienne et la comparent avantageusement aux méthodes antérieures. Leur méthode est encore améliorée et utilisée sur plusieurs exemples concrets dans : « Un problème clé de la paléodémographie : comment estimer l’âge au décès ? » (Caussinus, Buchet, Courgeau et Séguy, Journal de la Société Française de Statistique, 2017, vol. 158, 2, pp 43-71), article en libre accès sur le site de la SFdS .

 
PALEOPATHOLOGIE La paléopathologie est l'étude des maladies anciennes, elle fait appel en particulier à l'anthropologie, la biologie et la chimie. Elles concerne surtout les maladies de la préhistoire .
La première publication de paléopathologie est due, en 1744, au naturaliste F. Esper; elle concerne l'étude des restes fossilisés d'un ours des cavernes.
La paléopathologie est la science des maladies dont on peut démontrer l'existence sur les restes humains et animaux des temps anciens (dixit Sir Armand Mark Ruffer en 1913).
Les sources de la paléopathologie nous fournissent divers documents d'auteurs célèbres sur le sujet. Le livre récent Autopsie des morts célèbres de Philippe Charlier nous donne des informations sur la mort de Lucy, de Saint Louis, de Descartes et de beaucoup d'autres.
Discipline jeune, sans enseignement spécifique pour le moment, la paléopathologie devrait très vite progresser et apporter une contribution importante à la connaissance des maladies.

 
PALINDROME  Un palindrome (du grec palin 'en arrière' et dromos 'course') est un texte ou un mot (plus exactement une suite de caractères lettres ou/et chiffres) dont l'ordre des caractères est conservé que l'on lise de gauche à droite ou de droite à gauche, par exemple 1aba1, gag, rotavator ou l'âme sûre ruse mal (on convient de ne tenir compte ni des accents, cédilles, trémas, apostrophes ou espaces).
La première notion est celle de palindrome de lettres et par exemple en français il y a près de 100 mots palindromes (radar, elle, été, rêver, kayak, rotor, ressasser,...) et aussi de nombreuses phrases palindromes (engage le jeu que je le gagne, Esope reste élu par cette crapule et se repose, à l'étape épate-là, ...). On peut aussi définir les nombres palindromes, comme 37173, 2552 (voir la liste de tous les palindromes jusqu'à 1.000.000 ) ou les heures 20:02, 23:32. Citons quelques nombres premiers palindromes 101, 727, 11411, 30403, 39293, ... ils sont bien sûr en nombre infini. Des séquences palindromes comme 15AA51, 16FLF61 définissent des nombres en base 24. Certaines multiplications produisent des résultats palindromes: 12 x 21 = 252, 1331 x 11 = 14641, de même des additions: 1090 + 901 = 1991, 1353 + 3531 = 4884. Les puissances de 11 de 0 à 4 sont des palindromes.
Il existe beaucoup de palindromes numériques; on peut montrer par exemple, qu'il existe 9.10150 palindromes à 301 chiffres ...On définit aussi les nombres strictement non palindromes comme des entiers n qui ne sont palindromes dans aucune base b (2 ≤ b ≤ n-2), comme par exemple 6, 11, 19, 47 ou 293.
Voir le générateur de palindromes qui produit aussi des nombres de Lychrel potentiels.

 

PATAPHYSIQUE
La pataphysique est une (pseudo) branche de la science qui étudie les solutions imaginaires (au sens étymologique et non au sens mathématique des nombres complexes ..!).
Inventée humoristiquement par le poète et romancier Alfred Jarry (1873-1908) comme science fictive des épiphénomènes dans les années 1897-1898 dans son livre 'Gestes et opinions du docteur Faustroll, pataphysicien', elle était aussi appréciée par le romancier et musicien Boris Vian (1920-1959) qui décrivait la pataphysique comme s'intéressant aux anomalies et exceptions et qui disait 'je m'applique à penser aux choses auxquelles je pense que les autres ne penseront pas'...
Un collège de pataphysique a été fondé en 1948 en l'honneur d'Alfred Jarry et il est dit constituer une société de recherches savantes et inutiles et de nombreux satrapes ont été élus dans ce collège (de Jacques Prévert, Raymond Queneau à Boris Vian, René Clair et autres Umberto Eco ...).

 
PATHO Le préfixe PATHO, du grec pathos, la souffrance, intervient dans plusieurs mots en français, et il fait, référence le plus souvent à une affection ou une maladie, comme pathophobie, pathospermie ou pathogène ...
Le pathos désigne un des trois moyens de persuasion du discours (ton pathétique excessif) dans la rhétorique classique depuis Aristote, l'ethos (manière d'être habituelle) renvoie sa force de persuasion à l'intégrité de l'orateur, le logos (la parole ou le discours) étant le troisème.

 
PDA Un assistant numérique personnel est un appareil numérique portable appelé PDA pour personal digital assistant. Il s'agit d'un ordinateur de poche.

 
PERCEPTRON Le perceptron est l'un des premiers algorithmes de type Machine Learning . Il s'agit d'un algorithme d'apprentissage supervisé de classifieurs linéaires binaires qui est encore un des plus simples réseaux de neurones artificiels; il a été inventé en 1957 par Frank Rosenblatt qui peut être considéré comme un des pionniers de l' intelligence artificielle .
Initialement à une seule couche, il est devenu multicouche: l'information circule de la couche d'entrée vers la couche de sortie, chaque couche se composant d'un nombre de neurones variable. On le qualifie de réseau neuronal à propagation directe et c'est un des premiers réseaux dotés d'apprentissage.
Dans ce contexte, inspiré du neurone biologique , un neurone (artificiel) est un objet mathématique qui fut introduit pour modéliser le fonctionnement du cerveau humain (et ses 100 milliards de neurones) dans le cadre de l'étude de la cognition; en connectant plusieurs neurones on constitue un réseau de neurones. L'unité élémentaire neurone permet de retourner une information de sortie à partir de plusieurs informations d'entrée. Une fonction essentiellement non-linéaire (sigmoïde, heaviside, tanh, ...), dite fonction d'activation (ou seuil ou de transfert), traite la somme des entrées chacune multipliée par un poids (dit synaptique), pour donner une réponse sous la forme d'un réel entre 0 et 1; si la réponse est proche de 1 le neurone est dit actif, sinon il faudra modifier les poids des entrées et recommencer ou passer au neurone suivant.
Vidéo sur le perceptron
Perceptron simple, Perceptron multicouches .

 
PETIT MONDE On parle encore du théorème du petit monde, de l'effet petit monde ou du paradoxe de Milgram. Ce phénomène (ou cette hypothèse) traduit le fait que chaque individu peut être relié à n'importe quel autre sur la Terre par une très courte chaîne de relations sociales (téléphone, courriel, SMS ..). Initialisé en 1929 par un écrivain hongrois F. Karinthy ce phénomène a été décrit en 1967 par Stanley Milgram qui parlait alors des 6 degrés de séparation de toute personne vers une autre.
Le modèle du petit monde a été considéré comme l'une des 25 grandes idées qui ont changé notre monde par l'historien des sciences Robert Matthews.
Avec la mondialisation d'Internet et l'avènement des réseaux sociaux, ce degré a baissé et en 2011 on considérait (à partir d'un échantillon de plus de 700 millions de personnes) que chaque personne est reliée en moyenne par une chaîne de 4,74 relations à n'importe quelle autre.
Le théorème du petit monde est très cher à Michel Serres dans sa description de la révolution numérique qui a fait passé notre monde d'un espace métrique (au temps du courrier papier et de l'adresse géographique) à un espace topologique (avec courriel ou SMS et adresse e-mail), en dépassant et même en supprimant la notion de distance physique entre deux individus.

 
PERELMAN Gregori Perelman est un mathématicien russe né en 1966 qui a résolu la conjecture de Poincaré, ce qui lui a valu la médaille Fields en 2006; il a refusé son prix  ainsi que le million de dollars décerné par l'institut Clay des mathématiques; depuis il a démissionné de son poste de chercheur et il vit seul avec sa mère dans la banlieue de Saint-Pétersbourg ...  Voir géométriser l'espace: de Gauss à Perelman  .

  PEROVSKITE
La pérovskite est une structure cristalline formée le plus souvent de titanate de calcium, le minéral le plus abondant du manteau terrestre (couche entre le noyau et la croûte terrestre); elle a été décrite pour la première fois en 1839 par le minéralogiste allemand Gustav Rose à partir d'échantillons provenant de l'Oural.
La structure pérovskite la plus symétrique est à symétrie cubique, avec un réseau d'octaèdres entre lesquels se trouvent des cuboctaèdres...
Elle est utilisée depuis une dizaine d'années dans la filière photovoltaïque en particulier à cause de ses propriétés d'absorption de la lumière, et pourrait détroner à terme le silicium; la pérovskite est en effet un semi-conducteur avec un meilleur rendement que le silicium et il est en outre plus fin, plus léger et beaucoup moins cher à traiter ... la pérovskite, un matériau révolutionnaire?

 
PERSISTANCE En mathématiques, la persistance d'un nombre est le nombre d'étapes nécessaires pour atteindre un point fixe, lorsque l'on effectue des itérations successives d'une même opération appliquée à ce nombre.
La persistance additive d'un nombre n consiste à additionner tous les chiffres de ce nombre, puis à faire de même sur le résultat et ainsi de suite jusqu'à arriver à un nombre à un seul chiffre (qui sera le point fixe de cette itération); le résultat sera appelé quelquefois la racine numérique additive ou le résidu de n et le nombre d'étapes sera la persistance additive de n. Ainsi 9739 -> 28 -> 10 -> 1 a pour persistance additive 3, 4907 -> 20 -> 2 a pour persistance additive 2.
La persistance additive peut être aussi grande que l'on veut.
La persistance multiplicative d'un nombre n consiste à multiplier tous ses chiffres entre eux (426 donne 48 appelé quelquefois le multant de 426, 1023 donnera 0), puis à faire de même sur le résultat jusqu'à l'obtention d'un nombre à un seul chiffre (point fixe de l'itération); on parlera quelquefois de racine numérique multiplicative et le nombre d'itérations nécessaires sera la persistance multiplicative de n. Ainsi 377 -> 147 -> 28 -> 16 -> 6 a pour persistance multiplicative 4, et on parle quelquefois de la suite multiplicative de 377; tout nombre contenant un 0 aura ainsi une persistance égale à 1.
En base 10, il est conjecturé (depuis 1973 The persistance of a number de N.J.A.Sloane ) qu'il n'existe pas de nombre dont la persistance multiplicative est supérieure à 11 ...Le plus petit entier de persistance 11 est 277777788888899 (le plus petit premier de même persistance étant 277777788888989, voir Walter Schneider (2003) ).
En base quelconque b, il est conjecturé qu'il existe une constante M(b) qui est le maximum des persistances multiplicatives.
Il existe une variante qui consiste à ne calculer, à chaque étape, que le produit des chiffres non nuls; on parle quelquefois de la 'variante à la Paul Erdös' et dans ce cas la persistance peut dépasser 11, mais y-a-t-il un maximum ?
Voir la persistance des nombres de Jean-Paul Delahaye (Pour la science, août 2013) et le Calculateur de la persistance multiplicative .

 
PRINCIPE de PETER Le principe de Peter (ou principe d'incompétence) peut s'énoncer sous la forme d'une question: pourquoi tout employé tend à s'élever jusqu'à son niveau d'incompétence ? Cette loi empirique a été exprimée en 1970 par Laurence J. Peter et Raymond Hull dans leur livre (Le principe de Peter) qui a eu un succès rapide et important (il a été traduit en 40 langues). L.J. Peter est un pédagogue canadien spécialisé dans l'organisation hiérarchique (il a imaginé son principe dans les années 60), professeur de l'éducation à l'Université de Californie du Sud. R.Hull est un écrivain et journaliste canadien (il notait: l'incompétence n'est limitée ni dans le temps ni dans l'espace, elle a un caractère universel).
Les auteurs posent deux constations de base:
Un employé compétent est (assez vite) promu à un niveau hiérarchique supérieur.
Un employé incompétent n'est pas promu à un niveau supérieur, mais n'est pas rétrogradé à son ancien poste (éventuel).
Il en résulte qu'avec le temps, tout poste sera occupé par un employé incapable d'en assumer parfaitement la responsabilité et qui aura atteint son seuil d'incompétence (corollaire de Peter).

 
PHILIE Ce suffixe est tiré du grec (philos) et signifie amitié ou amour de quelque chose ou attrait pour quelque chose, par exemple la cinéphilie est l'amour du cinéma, la muséophilie est l'amour des musées, la bibliophilie celui des livres et la sinophilie l'attrait pour la Chine ...
Celui qui s'interesse à la xxxphilie est un xxxphile ou quelquefois un xxxphiliste, ainsi le xénophile a de la sympathie pour les étrangers, le colombophile aime les pigeons voyageurs et l'autographiliste, ou autographile, est collectionneur d'autographes ...
A côté des francophilie, bibliophilie et autre mécanophilie, on a aussi les maladies comme éosinophilie, hémophilie ou spasmophilie ...avec les hémophiles et spasmophiles associés.
Très riche, la langue française compte environ 400 mots avec les suffixes PHILIE ou PHILE et quelques rares PHILISTE (cumixaphiliste pour les pochettes d'allumettes, à ne pas confondre avec le philuméniste qui collectionne les boîtes d'allumettes, ce mot étant aussi construit sur philos mais en début ...) et PHILISME (syphilisme, aptitude à être syphilisé, slavophilisme, nationalisme slave), dont plusieurs concernent les collections, souvent très variées, comme abécédéphilie (abécédaires), conchyliophilie (coquillages)...ou les nanibulophilistes (nains de jardin), butyrupapiphilistes (papiers d'emballage) sans oublier les classiques cartophiles (cartes postales) et placomusophiles (plaques de muselet des bouteilles de champagne).

 
PHILO Le préfixe PHILO, du grec philos aimer, exprime la sympathie ou un grand intérêt pour la racine du mot, comme dans philosophie amour de la sagesse .
Il existe une cinquantaine de mots construits avec ce préfixe: de philodendron, philologie, philocratie à philosophale, philopode, philotechnie ou philosophisme, on parle aussi de philosémite ou philopatrie ...On distinguera ce préfixe de son homophone PHYLO , qui signifie tribu ou race, intervient dans phylogenèse, phylotype ou phylogénie et évoque une certaine notion de classification.

 

 
PHOBIE Une phobie est une peur démesurée, irraisonnée et irrationnelle ou une hostilité exacerbée face à un objet spécifique ou une situation particulière. L'objet ou la situation responsable de la phobie est appelée phobogène; on parlera aussi du caractère phobique. Celui ou celle qui est atteint de cette pathologie est nommé en remplaçant le suffixe phobie par le suffixe phobe , par exemple triskaïdékaphobe pour celui qui a peur du nombre 13.
Des classiques claustrophobie, agoraphobie, xénophobie, homophobie et acrophobie (vertige ou peur du vide) jusqu'à la lévophobie (peur de tout ce qui est à gauche) et la paraskevidékatriaphobie (peur du vendredi 13), on peut comptabiliser plus de 400 mots français qui se terminent par le suffixe phobie.
Dans la mythologie grecque, Phobos (frayeur ou peur en grec), fils d'Arès et d'Aphrodite, est le frère de Déimos (terreur en grec); les deux satellites de la planète Mars porte les noms de ces deux frères.

 
PHOTOGRAPHIE NUMERIQUE C'est l'ensemble des techniques permettant d'obtenir une photographie par l'utilisation d'un capteur électronique en tant que surface photosensible, ainsi que les diverses techniques de traitement et de diffusion des fichiers numériques (images numériques) ainsi obtenus. Elle s'oppose ou se substitue à l'ancienne photgraphie argentique traditionnelle.Le premier appareil de photographie numérique date de 1978 et a été inventé par Steve Sasson ingénieur chez Kodak.

 
pH (Potentiel hydrogène) Le pH est une grandeur chimique sans dimension qui mesure le caractère acide ou basique d'une solution aqueuse en évaluant la concentration de l'ion hydrogène. L'échelle du pH est graduée en nombres entiers de 0 à 14, 0 étant la plus forte acidité et 14 la plus forte basicité (ou alcalinité), la neutralité étant associée à la valeur 7 (cas de l'eau pure). Par exemple le pH idéal d'une piscine d'un particulier se situe entre 7,2 et 7,4.
Le pH est donc une mesure de l'activité chimique des hydrons (ou protons ou ions hydrogène) en solution.
C'est le chimiste danois Soren Sorensen qui en 1893 a introduit cette notion mondialement utilisée depuis. D'un point de vue technique, le pH est le cologarithme décimal de la concentration molaire en ions hydrogène (pH = - log10 [H+]). A côté de cette définition classique, en électrochimie on utilise la loi de Nernst .
Dans le cas des solutions diluées (peu concentrées), l'acidité est mesurée par la concentration en ions hydronium (ou H3O+) et dans ces cas on peut obtenir des pH négatifs.

 
PHP (Hypertext Preprocessor) Créé en 1994, PHP est un langage de programmation principalement utilisé pour produire des pages Web dynamiques; il est beaucoup plus riche que le HTML, il permet en particulier d'exécuter des scripts (petits programmes) qui vont fabriquer ou modifier la page, ou faire divers calculs, avant de l'envoyer à l'internaute. PHP et HTML sont cependant très interactifs, mais la plupart des bons serveurs gèrent aussi le PHP, ainsi d'ailleurs que le SQL spécifiques de bases de données.
Plus techniquement, le PHP est un langage script interprété de façon locale, utilisé côté serveur, de type impératif et orienté objet .

 
PHYTO Le préfixe phyto vient du grec phyton qui signifie végétal.
En français, il existe plus d'une centaine de mots débutant par phyto et ayant un rapport avec le monde végétal et les plantes: de phytosanitaire, phytologie, phytate, phytoalbumine, phytotoxine ... jusqu'à phytocide, phytocosmétique, phytopharmacie ou phytothérapie ...

 
PIEZOELETRICITE La piézoélectricité (piézo vient du grec et signifie presser ou serrer) est la propriété de certains corps de se polariser électriquement (générer un champ ou un potentiel électrique) sous l'action d'une contrainte mécanique, c'est l'effet piézoélectrique direct, et réciproquement, de se déformer sous l'action d'un champ électrique, c'est l'efffet piézoélectrique inverse . Ce processus se retrouve  dans de nombreuses applications, comme par exemple, la lecture de disques en vynile, les premiers briquets mais aussi  le sonar de Paul Langevin ; la première démonstration théorique et expérimentale de l'effet piézoélectrique direct est due à Pierre et Jacques Curie en 1880. Divers matériaux sont piézoélectriques: le quartz, la topaze, la tourmaline (anciennement appelée pierre de Ceylan puis lapis lazuli), la berlinite, certaines céramiques, les polymères à base de fibres de caoutchouc, laine, cheveux, bois, soie ...C'est le couplage entre les propriétés éléctriques et élastiques d'un matériau qui produit ces charges électriques caractéristiques de la piézoélectricité.

 
PIXEL (provient de l'expression anglaise, picture element, px en abrégé) En informatique et photo numérique, une image est constituée d'un ensemble de points appelés pixels, qui sont donc les plus petits éléments sonstitutifs d'une image numérique. Le pixel est généralement carré, ou presque carré, et présente une taille comprise entre 0,18 mm et 0,66 mm de côté. Dans le cas d'un écran monochrome, le pixel s'identifie à un point et, dans le cas d'un écran couleur, il est constitué de 3 points de couleurs différentes (rouge, vert, bleu); en variant l'intensité de chacun des points on peut obtenir des milliers de couleurs différentes. La quantité de pixels composant un écran détermine la résolution. 

 
PLASMA En physique, le plasma (ou quatrième état de la matière après gaz, liquide et solide) désigne un état de la matière constitué de particules électriquement chargées ou ionisées, les ions; on parle encore de gaz ionisé, mais on notera que la transformation d'un gaz en plasma ne s'effectuera que progressivement; lorsque le gaz sera suffisament chauffé, des électrons des couches extérieures seront arrachés lors des collisions entre particules et des ions seront ainsi produits.

Cet état de la matière est fondamental car c'est le plus commun dans l'univers, tant au niveau des étoiles, pulsars, quasars, que du milieu interstellaire ou de l'ionosphère terrestre, où par exemple les aurores polaires en sont une manifestation; on estime que 99 % de la matière connue est du plasma. On trouve aussi des plasmas dans nos tubes fluorescents, nos téléviseurs à écran plasma et dans de nombreuses applications de la micro-électronique.

Le plasma sanguin est le composant liquide du sang, dans lequel les cellules sanguines (globules blancs et rouges, plaquettes sanguines) sont en suspension; il constitue 55 % du volume total du sang ...

 
POLY Le préfixe POLY, du grec polloi, signifie plusieurs et intervient dans plus de 400 mots de la langue française. De polyglotte, polygone, polymère à polytechnicien, polyvalent ou polycéphale on retrouve ce préfixe surtout dans les domaines scientifiques (mathématiques, chimie, médecine ), son apocope poly est aussi utilisée comme avec le poly (pour polycopié) des étudiants ...Il existe deux préfixes synonymes, un peu moins utilisés, qui sont PLURI et MULTI, les antonymes étant MONO et UNI.

 
POSIDONIE La posidonie doit son nom à Poséidon le dieu grec de la mer; elle est une plante essentielle de la Méditerranée .
Les posidonies sont des plantes aquatiques qui fleurissent et produisent des graines; elles se caractérisent par de longues feuilles vertes en lanières ce qui les fait prendre quelquefois, à tort, pour des algues (qu'elles ne sont pas).
L'écosystème podisonie est à ce jour l' écosystème le plus utile à l'homme .
Théoriquement la posidonie est immortelle puisque chacun de ses rhizomes croît et se ramifie vers l'avant cependant que sa partie arrière meurt, et le processus se répète ... Dans le golfe de Naples sur la belle île de Ischia (golfe de Naples) une posidonie de 100 m. de diamètre serait âgée de plusieurs millénaires; pour ces diverses raisons on parle de la posidonie comme d'un miracle de la Méditerranée . La posidonie de Méditerranée, dont les colonies pourraient survivre au moins 100.000 ans (herbier de posidonies entre Ibiza et Formentera qui aurait de 80.000 à 200.000 ans ...) fait partie des 10 espèces animales ou végétales qui ne vieillissent jamais , ...à défaut d'être immortelles.

 
PRIMECOIN Le primecoin (dont le symbole est la lettre grecque ψ) est une cryptomonnaie à technologie pair à pair (comme le bitcoin) mais qui implémente une preuve de travail unique et originale, la recherche de chaînes de nombres premiers, spéciales comme les chaînes de Cunningham et les chaînes bi-jumelles.

 
PULSAR Un pulsar est un objet céleste produisant un signal périodique, avec une période allant de l'ordre de la milliseconde à quelques dizaines de secondes; c'est  une étoile à neutrons tournant très rapidement sur elle-même et émettant un fort rayonnement électromagnétique. Le nom de pulsar vient de ce que lors de leur découverte, ces objets ont été interprétés comme des étoiles variables à pulsations très rapides (pulsar pour pulsating radio source); le nom est resté même si l'interprétation s'est révélée incorrecte ....Le premier pulsar a été découvert par hasard en 1967. 

 
QUARK Les quarks sont, à ce jour, les briques élémentaires de la matière, c'est-à-dire les plus petits constituants indivisibles connus de tout ce qui nous entoure. La théorie des quarks a été formulée en 1964 par le physicien Murray Gell-Mann (et indépendamment par George Zweig) ce qui lui a valu le prix Nobel de physique en 1969. Le mot quark provient d'une phrase du roman Finnegans Wake  de James Joyce (l'écrivain irlandais auteur du fameux 'Ulysse' en 1922): 'three quarks por muster Mark'. Les quarks sont des fermions de spin 1/2 qui possèdent une charge électrique (positive ou négative) fractionnaire de celle de l'électron (1/3 ou 2/3). Il y en a de 6 sortes, appelées encore saveurs, aux noms 'poétiques' bas (down), haut (up), étrange (strange), charme (charm), beauté (beauty), vérité (truth); les quarks sont aussi dotés d'un nombre quantique que l'on appelle charge de couleur, rouge vert ou bleu. Enfin à chaque quark correspond une antiparticule, nommée anti-quark, de même masse mais de charge électrique opposée.
Les quarks ne peuvent être observés à l'état isolé; ils s'assemblent par deux (un quark et un anti-quark) ou par trois pour constituer les protons, les neutrons et diverses particules instables. Depuis 2015-2016, grâce au LHC (Large Hadron Collider), on a même détecté des structures de type tétraquarks et pentaquarks.

 
QUASAR Un quasar ('quasi-stellar radio source' ou source de rayonnement quasi-stellaire) est une galaxie lointaine et très énergétique avec un noyau galactique très actif: ce sont les objets les plus lumineux de l'univers. Le premier quasar, 3C 273 situé dans la constellation de la Vierge, fut découvert en 1962; c'est un des objets les plus brillants du ciel. Lire la découverte des quasars.

 
QUASI-CRISTAL La découverte en 1982 de ces solides qui possèdent un spectre de diffraction discret comme les cristaux liquides (mais dont la structure n'est pas périodique comme celle des cristaux liquides), a valu à son auteur Daniel Shechtman le prix Nobel de Chimie en 2011. On se pose actuellement la question de l'éventuelle origine extra-terrestre de ces quasi-cristaux.

 

QUBIT  On nomme qubit (quantum bit) l'état quantique qui représente l'unité de stockage d'information quantique, il se compose d'une superposition des deux états de base 0 et 1. Un qubit peut ainsi se trouver dans plusieurs états simultanément; la situation diffère fortement du cas classique du bit des ordinateurs (classiques) qui ne peut prendre que l'une des valeurs 0 ou 1 (et une seule à la fois!). Le futur ordinateur quantique devra manipuler ces qubits et fonctionner grâce aux propriétés quantique de la matière. De nombreuses équipes travaillent à la construction de prototypes d'ordinateurs quantiquesIBM avance sur la route des ordinateurs quantiques.(29/02/2012)
Début 2019: Le premier ordinateur quantique à la vente ; il est aussi disponible pour l'utilisation depuis le cloud de IBM, et va rejoindre la flotte des ordinateurs quantiques accessibles via ce nuage: IBM Q System One , Le premier ordinateur quantique commercial d'IBM .

 

RADIO-IDENTIFICATION (RFID) Née en 1935 pour une utilisation militaire, puis en 1945 en tant que dispositif d'espionnage, la radio-identification ou RFID (radio frequency identification en anglais) voit ses usages se multiplier. Tout le monde utilise régulièrement les puces RFID à travers les cartes de transport, badges divers, clés sans contact, étiquettes et stickers divers dans la grande distribution, puces sous-cutanées d'identification des animaux ...
C'est une méthode, astucieuse et pratique, qui permet de mémoriser et de récupérer des données à distance (raisonnable, au maximum quelques centaines de mètres) en utilisant des radios-étiquettes , qui peuvent être de simples étiquettes autocollantes, un film plastique, une capsule de verre incorporés à un objet ou implanté sur un organisme vivant.
Ce tag, ou transpondeur (contraction de transmetteur et répondeur) est constitué d'une puce de silicium dotée d'une mémoire contenant diverses informations à transmettre, d'une unité de traitement (puce électronique) et d'une antenne en cuivre ou en aluminium; l'ensemble est intégré ou collé sur le support que constitue la radio-étiquette. Un lecteur envoie une commande au transpondeur sous forme d'ondes radioélectriques (ces ondes alimentent le tag en énergie par un phénomène d'induction électromagnétique), le tag mis ainsi sous tension peut communiquer avec le lecteur et lui renvoyer les ondes reçues après les avoir modifiées, ce signal de retour constituera la réponse. Celle-ci sera captée par le lecteur lui aussi doté d'une antenne et ainsi l'interprétation de la réponse sera effectuée.
On distingue les tags passifs (sans batterie), couramment utilisés pour l'identification des animaux de compagnie, le suivi des colis, le traçage des déchets, la gestion des stocks ...(le lecteur doit être à au plus une dizaine de mètres de la puce), les tags actifs qui intégrent une pile pour alimenter la puce et peuvent durer plusieurs années et atteindre une portée de quelques centaines de mètres, et enfin les tags semi-actifs ou hybrides (ou intelligents) qui ont une pile mais uniquement pour alimenter l'unité de traitement, et un système de sécurité permettant de crypter les informations contenues (cas des cartes bancaires).
De nombreux sites proposent divers tags rfid à petits prix et pour diverses utilisations ...
La RFID est en train de devenir une technologie incontournable pour le suivi logistique de diverses productions tout autour du globe.

 

RESONANCE MAGNETIQUE NUCLEAIRE  Mis en évidence en 1952 par le suisse Félix Bloch et l'américain Edwards Mills, ce qui leur valut le prix Nobel de physique, la spectroscopie RMN est une nouvelle méthode de mesures magnétiques. L'application pour la première image d'un corps humain n'a eu lieu qu'en 1970.
La technique consiste à exciter des atomes placés dans un puissant champ magnétique. La grandeur physique essentielle qui est à la base de RMN et IRM est le spin , propriété intrinsèque de chaque particule élémentaire aussi fondamentale que la masse ou la charge.

 

RAYONS COSMIQUES  Mis en évidence en 1912 par le physicien autrichien Victor Hess, prix Nobel pour cette découverte en 1936, les rayons cosmiques sont des flots de particules issues du milieu interstellaire, appelées encore astroparticules;  elles sont chargées électriquement, de vitesses relativistes (proches de la vitesse de la lumière) et donc de très hautes énergies (de 1 à 10 GeV, 1 GeV correspondant à l'énergie d'un électron dans un champ électrique de 1 milliard de volts). Ce sont essentiellement des protons (environ 85 %), quelques noyaux atomiques et des électrons. Ces particules ionisées frappent, de façon continue,  les atomes de l'atmosphère terrestre et donnent lieu à des chocs très violents entraînant des réactions qui produisent de grandes quantités de diverses particules secondaires (ou même tertiaires..); on parle de douche ou de gerbe de particules et ce sont ces dernières que l'on peut détecter au niveau du sol terrestre.
Elles semblent provenir de toute les régions de l'espace (isotropie du rayonnement cosmique), mais sont probablement produites en grande partie dans notre galaxie, certaines provenant du soleil d'autres étant issues de galaxies lointaines.
L'origine des rayons cosmiques est difficile à déterminer car ces particules ne nous parviennent pas directement (comme les photons par exemple) mais sont continuellement déviées par les nombreux et divers champs magnétiques qu'elles rencontrent dans l'espace. Le plus grand mystère provient des rayons cosmiques dits de ultra-haute énergie qui nous parviennent avec des énergies colossales de l'ordre de centaines de Joules soit l'énergie d'une balle de fusil confinée dans une particule subatomique. Le LHC, l'accélérateur de particules le plus puissant sur Terre, ne peut atteindre qu'un dix-millionième de l'énergie de ces rayons cosmiques. Malgré des décennies de recherches expérimentales et théoriques, l'origine des rayons cosmiques de ultra-haute énergie reste inconnue; les étoiles à neutrons comme les très énergétiques pulsars pourraient produire de telles particules ...

RELATIVITE (Albert Einstein    Relativité restreinte  Relativité générale). 

Le père de la Relativité, Albert Einstein (1879-1955) a publié la théorie de la Relativité restreinte en 1905 et la théorie de la Relativité générale en 1915; il a obtenu le prix Nobel de physique en 1921 pour son explication de l’effet photoélectrique. Dans la page relativité du site, nous proposons, de manière assez élémentaire et sans trop de détails, quelques notions essentielles de la Relativité générale en supposant connues celles de la Mécanique classique et de la Relativité restreinte, dont les plus importantes seront cependant succinctement rappelées pour que ce fichier soit tout de même directement abordable.

Aux classiques vérifications de la Relativité, on a donné début 2011 une nouvelle explication grâce à la relativité restreinte: si nos bonnes vieilles batteries au plomb (inventées en 1859 par Gaston Planté) de nos voitures sont si efficaces, c'est grâce aux effets relativistes intervenant dans la valeur des niveaux d'énergie des  atomes de plomb impliqués dans les réactions électrochimiques! 80 % de la tension provient d'effets relativistes

SEMANTIQUE GENERALE. La sémantique générale est une logique de pensée non-aristotélicienne, élaborée par Alfred Korzybski après qu'il eut pris conscience, au cours de la première guerre mondiale, que les mécanismes de pensée qui avaient provoqué cette guerre reposaient sur les postulats de la logique d'Aristote (principe d'identité, de contradiction et du tiers-exclu), maintenant l'Occident mentalement emprisonné dans une logique du conflit. Il formula alors une nouvelle logique, non-aristotélicienne, basée sur de nouveaux postulats correspondant à l'évolution scientifique du XXe siècle (physique quantique, théorie de la relativité de Einstein). Korzybski en expose les principes, principalement dans son ouvrage majeur Science and Sanity, an Introduction to Non-Aristotelian Systems and General Semantics, dont la première édition paraît en 1933.

Au début du XX ° siècle, la Relativité et la Mécanique Quantique  bouleversent les idées aristotéliciennes ... Alfred Korzybski (1879 - 1950), ingénieur polonais, crée la sémantique générale  (1933 dans Science and Sanity, an Introduction to Non-Aristotelian Systems and General Semantics) ou logique non-aristotélicienne pour résoudre les 'contradictions' des systèmes de pensée ...il rejette les principes d'Aristote, identité, contradiction et du tiers exclu: une carte n'est pas le territoire, une carte ne recouvre pas tout le territoire  qu'elle représente, toute carte est auto réflexive (on peut construire une carte de la carte ...), un mot n'est pas ce qu'il représente, signifiant n'est pas signifié. Voir le Séminaire de sémantique générale de 1937 : vers les disciplines non newtoniennes et non euclidiennes ... Le langage n'est pas la réalité mais une "carte verbale de la réalité" (cf. encore Magritte et son célèbre "ceci n'est pas une pipe"), le langage est auto - réflexif, en ce sens que nous pouvons parler, dans le langage, à propos du langage. (Rappelons que la sémantique est l' étude de la signification des termes du vocabulaire et des modifications qu'elle peut subir). Voir les ouvrages proposés par l'institut de sémantique générale .

Dans la littérature de type science-fiction, le monde des Ā écrit en 1945 par A. E. Van Vogt (1912 - 2000) (traduit en français par Boris Vian) a largement popularisé la sémantique générale auprès des lecteurs.  

 

SERENDIPITE Terme (serendipity en anglais) inventé par l'auteur anglais Horace Walpole en 1754 (à partir d'un conte persan de 1557 intitulé 'Voyages et aventures des trois princes de Serendip', le mot serendip étant une ancienne transcription anglaise de sri lanka) et adopté en France dans les années 1980, la sérendipité est une découverte scientifique ou une invention technique obtenue de façon inattendue dans le cadre de la recherche sur un tout autre sujet, autrement dit c'est l'art de découvrir ou créer ce à quoi on ne s'attend pas a priori (et que l'on ne cherche pas).
On peut donner un premier exemple avec Christophe Colomb parti pour chercher la route des Indes et découvrant le continent américain totalement inconnu des européens à l'époque. Plus récemment on peut citer, la pénicilline découverte en 1928 par Alexander Flemming, le four à micro-ondes découvert en 1945 par Percy Spencer, mais aussi le téflon découvert en 1938, l'aspartame en 1965, le post-it en 1968, le viagra en 1995 ...et encore l'ADN, l'aspirine, l'insuline, le velcro, ...sans oublier la loi de la gravitation découverte par Newton avec la légendaire (?) pomme, ou le phénomène du chaos du météorologue Edward Lorenz (1917-2008) par observation de son café, la poussée d'Archimède, l'homme de Néandertal ou la pierre de Rosette (qui a permis le déchiffrement des hiéroglyphes): chaque fois du hasard ou de l'inattendu dans la démarche et de la sagacité pour le découvreur de la nouveauté.
Certes, comme le remarque le physiologiste Walter Cannon (1871-1945), la sérendipité n'est pas une expérience qui peut arriver à n'importe qui et n'importe comment; il faut un certain savoir d'un ensemble de connaissances conscientes ou pas. De nombreux chercheurs dans diverses disciplines scientifiques (voir l'expérience de Henri Poincaré (1854-1912) lors de sa découverte des fonctions fuchsiennes, reprise et commentée par Jacques Hadamard (1865-1963)) effectuent quelquefois de telles expériences qui peuvent relever de l'erreur, de la chance, de la maladresse ou de diverses circonstances imprévues, mais il faut chaque fois un esprit curieux et préparé pour faire une bonne analyse du phénomène (qu'il ne recherchait pas) dans la discipline concernée; il faut cependant relativiser le rôle du hasard et retenir la formule de Pasteur 'le hasard ne favorise que les esprits préparés'.
Si l'on analyse la longue liste des découvertes et inventions liées au hasard ou du moins inattendues, on constate que le processus de sérendipité correspondant n'est pas toujours de même nature, ce qui a conduit à une classification qui va de 2 à 7 'sérendipités' suivant les auteurs ... ( zadigacité et sérendipité innovationnelle ).
Voir sérendipité et réflexivité , ainsi que le rôle de l' abduction dans le processus de découverte par sérendipité.

 

SHANNON (théorie de l'information  de Shannon, voir information) Le mot 'information' (ce n'est pas bien sûr la notion courante d'information car il n'y a pas d'aspect 'signification' dans ce concept d'information qui concerne des transferts de signaux discrets) a été employé pour la première fois dans les années 1928 pour désigner la partie utile d'un message (envoyé d'un émetteur vers un récepteur), en écartant le bruit causé par les parasites par exemple.  L'américain  Claude Shannon (1916 - 2001) a formulé sa théorie de l' information dans les années 1940 avec bien sûr l'influence des grands théoriciens de l'informatique (Turing, Von Neumann, Wiener). Il s'agit d'une théorie visant à quantifier et qualifier le contenu en information (le concept d'information chez Shannon et Wiener) présent dans un ensemble de données qui représente la source de l'information ou du message à transmettre (et qui peut être un signal électrique, un texte écrit dans une langue donnée ou encore un fichier informatique quelconque); la notion de quantité d'information est définie indépendamment du sens du message à transmettre (pas d'aspect sémantique ici). Pour Shannon, la quantité d'information contenue dans un message équivaut au nombre de bits nécessaires pour l'encoder. C'est l'entropie de Shannon qui décrit la quantité d'information contenue (ou fournie) par la source d'information (le transmetteur); du point de vue du récepteur, plus la source émet d'informations différentes, plus l'entropie (qui mesure en quelque sorte le degré d'incertitude sur ce que la source émet) est grande, et vice-versa. Mais plus la source est redondante, moins elle contient d'information (l'entropie décroit), ainsi un émetteur qui envoie toujours le même symbole, par exemple S, a une entropie nulle (on a la connaissance parfaite du message émis). Du point de vue du récepteur, l'entropie de Shannon indique la quantité d'information qu'il lui faudrait obtenir pour lever complètement l'incertitude sur ce que la source a transmis. On peut encore dire que entropie de Shannon et information sont des notions contraires en ce sens que l'entropie (strictement positive) mesure le manque d'information (et si elle est nulle on a information parfaite). L'idée technique de base est que tout message se résume à une suite de 0 et de 1. On démontre que l'on peut digitaliser tout signal sans perte d’information pourvu que la fréquence d’échantillonnage soit supérieure au double de la plus haute fréquence à transmettre (Théorème d'échantillonnage de Shannon)...

La notion d'entropie de Shannon est similaire à l'entropie de Boltzmann  (1870) d'un système physique qui mesure le degré de désordre du système (le mot entropie vient du grec retour) et qui est fondamentale en thermodynamique ...

Ajoutons que selon la théorie holographique de la gravitation, c'est l'information, et non pas la matière et l'énergie, qui constitue l'essence même de l'univers; et de cette information, dont les bits constitutifs seraient encodés dans la trame de l'espace-temps à l'échelle de Planck (10 -35  mètre),  émergerait le cosmos ...

 

SIGNIFIANT et SIGNIFIE Dans le cadre général de la sémiotique (ou sémiologie) qui étudie les signes dans la vie sociale, et dont une grande partie est la linguistique, le signifiant est l'expression phonique (le mot) qui décrit le contenu sémantique qu'est le signifié. Le signifiant, concept essentiel chez Jacques Lacan (terme emprunté à la linguistique de Ferdinand de Saussure) est en quelque sorte l'image acoustique du mot, cependant que le signifié désigne le concept, la représentation mentale de la chose concernée. On distingue donc signification et valeur, comme par exemple la table (signification) et la table (objet, valeur).

 

SKYRMION Un skyrmion est une particule 'découverte théoriquement' en 1962 par le physicien britannique Tony Skyrmion, mais effectivement mise en évidence seulement en 2009. Il existe des skyrmions dans les condensats de Bose - Einstein, dans les supraconducteurs, dans certains cristaux liquides. Plus stables que leurs cousins les électrons, ils sont aussi moins énergivores, et devraient jouer un grand rôle en microélectronique, voir l'utilisation des skyrmions pour les mémoires magnétiques du futur . Leur petite taille devrait ainsi en faire de bons candidats pour les stockages de données et ils pourraient constituer des disques durs d'ordinateurs de la taille d'une pièce de monnaie.

 

SMARTPHONE Il s'agit d'un téléphone intelligent, c'est-à-dire d'un téléphone mobile muni de fonctions de type assistant numérique personnel ordinateur portable, appareil photo numérique, GPS, muni le plus souvent d'un écran tactile et d'un clavier; il utilise une connexion internet haut débit vers un réseau de téléphonie mobile. Il y a en particulier les iphones d'Apple et divers Androïd ou Blackberry.

 

SPAM Un spam ou pourriel ou polluriel est un mail non sollicité par son destinataire; il s'agit en général d'envois publicitaires en grande quantité ou de messages volontairement malveillants. Le premier spam date des années 1978 et le terme spam vient de spiced ham (jambon épicé)

 
SPIN En mécanique classique, le spin caractérise le moment cinétique (ou moment angulaire de rotation). En physique quantique, le spin est une des propriétés des particules, au même titre que la masse ou la charge électrique; c'est cependant une observable quantique, dont la mesure donne des valeurs entières ou demi-entières, qui représente le moment cinétique propre des particules quantiques (ou moment cinétique de spin). Le terme spin (tour en anglais) a été choisi pour traduire cette propriété de rotation des particules. Introduite en 1924 par Wolfgang Pauli, la notion de spin a été précisée par Paul Dirac avec en particulier sa célèbre équation de Dirac qui décrit le comportement des particules élémentaires de spin demi-entiers, commes les électrons ...Le spin des particules connues ou suspectées a une valeur comprise entre 0 et 2; par exemple les électrons, positrons, neutrinos ou quarks ont un spin 1/2, cependant que le photon a un spin 1 et le graviton un spin 2. L'étude liée au spin des électrons (en magnétisme, dans les nano-circuits ..) définit un champ de recherches importantes appelé la spintronique.

 
SPINTRONIQUE La spintronique, ou électronique de spin ou magnétoélectronique exploite la propriété quantique du spin des électrons et son influence sur la conduction électrique dans le but d'augmenter la densité de stockage de l'information.
Le prix Nobel de physique 2007 Albert Fert est le père de cette discipline, avec sa découverte de la magnétorésistance géante (appliquée en particulier aux têtes de lecture des disques durs). Ces travaux sont une suite naturelle à ceux du prix Nobel 1970 Louis Néel découvreur du ferrimagnétisme et de l'antiferrimagnétisme. Une technologie utilisant les skyrmions (et même les antiskyrmions) pourraient intervenir dans la stabilisation des systèmes spintroniques et ainsi augmenter la miniaturisation des ordinateurs et faire encore persister la loi de Moore ...On pourrait aussi placer des unités de mémoire très près des processeurs en s'inspirant des synapses et des neurones de notre cerveau (voir quand la spintronique imite le cerveau ). Tous les dispositifs testés reposant sur la spintronique dépensent peu d'énergie et ont des performances comparables aux réseaux de neurones.

 
SQL (Structured Query Language) SQL est un langage informatique complet de gestion de bases de données relationnelles. Il a été conçu par IBM dans les années 1970 et il est devenu le langage standard de gestion des bases de données; on l'appelle encore un langage de requête  parce qu'il permet d'effectuer des requêtes sur les bases de données. 

 
TABLATURE En musique, une tablature est une forme symbolique de notation musicale adaptée à un instrument spécifique, qui peut se substituer à la partition de musique. Elle est notamment utilisée pour la notation musicale de la guitare.  

 
TABLETTE TACTILE (ou tablette numérique ou simplement tablette). Il s'agit d'un ordinateur mobile, en forme d'ardoise, dépourvu de clavier et de souris  (comme un ordinateur classique) et muni d'un écran tactile.  La tablette tactile est une solution alternative aux ordinateurs portables et en particulier aux Netbooks, de plus en plus de ces tablettes peuvent être complétées par un clavier externe. L'iPAD est actuellement la tablette la plus vendue dans le monde.

 
TANZANITE
La tanzanite est une variété de zoïsite découverte en 1967 par des bergers massaïs en Tanzanie; la tanzanite a une composition bien particulière, contenant une forte proportion de vanadium; la pierre est de couleur marron qui vire au bleu profond lorsqu'elle est chauffée à 600° environ pendant 30 minutes.
C'est une pierre naturelle rare (1000 fois plus que le diamant) à l'éclat translucide et l'une des plus chères au monde, dont l'unique gisement se situe au pied de l'emblématique mont Kilimandjaro , stratovolcan de 5885 m d'altitude (point culminent d'Afrique), situé dans le Nord-Est de la Tanzanie.

 
TARDIGRADE (qui signifie marcheur lent)  Découverts au XVIIème siècle, ces petits animaux ne dépassant guère 2 mm, ont une capacité de résistance tout à fait exceptionnelle. Ils ont un corps segmenté en quatre parties et possèdent huit pattes terminées par des griffes. On les trouve sur tous les continents et ils parviennent à survivre aussi bien sur les sommets de l'Himalaya ou les sables brulants du désert qu'au sein des glaces polaires jusqu'à 4000 m de profondeur et plus, dans divers bains acides et même dans le vide absolu; ce sont des représentants de la famille des extrêmophiles .

 
TARTAGLIA (courbe balistique de Niccolo Fontana Tartaglia). Niccolo Fontana dit Tartaglia ('le bègue') est un mathématicien italien du XVIe qui a étudié en particulier la balistique des boulets de canon et les équations algébriques de degré 3. Dans l'étude des trajectoires des sports de balle, lorsque la vitesse de la balle est suffisamment grande on montre que les forces aérodynamiques (portance et traînée) sont telles que la trajectoire n'est plus une parabole mais une tartaglia (cas du golf) ou une spirale (coup franc au foot) ou même une boucle (ou pop-up) au baseball. Tartaglia a aussi étudié les équations algébriques de degré 3 (x3 + px = q) dont il aurait trouvé la méthode de résolution mais c'est Jérôme Cardan (dont on connait les célèbres formules qui portent son nom) qui le premier a publié, en 1545,  le cas plus général (a x3 + b x2 +cx +d = 0) (voir l'histoire du célèbre  conflit Tartaglia - Cardan).

 
TELEPHONE MOBILE Le téléphone mobile, ou anciennement téléphone cellulaire, est un moyen de télécommunication par téléphonie sans fil qui s'est répandu vers la fin des années 1990 ...et qui se substitue de plus en plus à nos anciens téléphones fixes. Actuellement (janvier 2012) il se vend 40 téléphones mobiles chaque seconde dans le monde ....

 
 TELOMERE  Les télomères, inconnus il y a encore une dizaine d'années, sont de courtes séquences d'ADN répétées plusieurs milliers de fois, plaçées à l'extrémité des chromosomes et leur assurant une protection contre les effets du temps et de l'environnement; leur raccourcissement est un phénomène naturel qui témoigne de notre vieillissement au niveau cellulaire. Les télomères étant des parties non codantes de l'ADN, c'est-à-dire ne portant aucune information, leur destruction, lors de la division cellulaire, ne crée aucun risque jusqu'à ce qu'ils disparaissent complètement (après une cinquantaine de divisions cellulaires). A ce moment là ce sont les parties utiles de l'ADN qui commencent à disparaitre (les dégats de la vieillesse commencent!) et les cellules obtenues se dégradent et sont victimes de dysfonctionnements; la disparition progressive des télomères est donc la cause principale du vieillissement des cellules. La longueur des télomères indicatrice de longévité ? En 1985 E. Blackburn et C. Greider  découvrent  la télomérase, une enzyme qui reconstruit complètement les télomères à chaque division cellulaire; elles obtiennent pour cela  le prix Nobel de Physiologie et de Médecine en 2009. Présente dans les cellules de l'embryon et dans les cellules souches, la télomérase n'est malheureusement pas dans les cellules adultes différenciées qui constituent la majeure partie de notre organisme adulte ...Mais des chercheurs viennent d'utiliser un virus comme vecteur du gène produisant la télomérase et les résultats sur des souris âgées d'un an ont augmenté leur espérance de vie de 24 % ...

TENSEGRITE .
La tenségrité est, en architecture, la faculté d'une structure à se stabiliser sous l'action de forces de tension et de compression qui s'équilibrent. Il s'agit de construire des structures rigides composées uniquement de barres reliées par des cables. De telles structures ont été proposées dans des brevets déposés indépendammant dans les années 1962-1965 par trois auteurs, Fuller, Emmerich et Snelson.
Le concept de tenségrité en biologie est aussi utilisé en biomécanique cellulaire pour expliquer la solidité de diverses structures comme les cytosquelettes ou les matrices extracellulaires.
Citons entre autres des tables et des chaises 'impossibles' avec la tenségrité dans le design , mais aussi des arches, des tours ou même des édifices comme le pont Kurilpa à Brisbane en Australie .
Ajoutons enfin qu'un théorème de dualité montre que dans toute structure en tenségrité on peut échanger barres et cables sans modifier la rigidité de l'ensemble.
Voir un tuto de construction en tenségrité .

 

THERAPIE En médecine, une thérapie ou thérapeutique est un traitement d'une certaine affection ou maladie. Ce traitement est effectué par un thérapeute (on parle aussi quelquefois de thérapeutiste), qui est un médecin pour les humains et un vétérinaire pour les animaux.
Le mot thérapie vient du grec, cure, et il est à la fois un nom commun, mais aussi un suffixe pour décrire le traitement de diverses maladies: de l'aérothérapie qui traite certaines affections par l'air, la balnéothérapie (ou hydrothérapie) qui utilise l'eau, la chimiothérapie avec des substances chimiques, à la mycothérapie avec les substances sécrétées par les champignons, la vaccinothérapie qui utilise les vaccins ou la vertébrothérapie par manipulation des vertèbres ...Il existe dans la langue française plus de 150 mots construits avec ce suffixe thérapie .
On pourra consulter aussi le dictionnaire médical de l'Académie de Médecine de 2020 .

 
TOURS de HANOI Les tours de Hanoï sont un jeu de réflexion imaginé par le mathématicien français Edouard Lucas (1842-1891) qui consiste à déplacer des disques de diamètres différents d'une tour de départ à une tour d'arrivée en passant par une tour intermédiaire en respectant les règles:
1) On ne peut déplacer qu'un seul disque à la fois
2) On ne peut placer un disque que sur un autre disque plus grand que lui ou sur un emplacement vide
On peut montrer que le problème classique des Tours de Hanoï à n disques nécessite au moins 2n-1 coups pour parvenir au résultat.

 
TRANSHUMANISME  

On peut faire remonter la philosophie du transhumanisme à la Renaissance quand des philosophes-chercheurs ont commencé à prôner l'usage de la science pour améliorer le corps humain, caressant un vieux rêve d'immortalité (voir la méduse immortelle ou turritopsis nutricula)... De nos jours c'est un mouvement culturel et intellectuel international défendant l'usage des sciences et des techniques pour améliorer les caractéristiques physiques et intellectuelles des hommes, s'appuyant fortement sur les technologies NBIC . Symbolisé par H+, le transhumanisme (le terme a été inventé en 1957 par le biologiste Julian Huxley, frère de Aldous Huxley le célèbre auteur du meilleur des mondes qui a d'ailleurs été le premier opposant à la société proposée par son frère) est considéré comme synonyme d'amélioration de l'espèce humaine et sa forme actuelle trouve ses origines dans les années 1980 lorsque des futurologues américains ont commencé à imaginer la transformation des hommes en 'posthumains' pour lesquels handicap, souffrance, maladies, vieillissement et même mort auraient disparu. Le transhumanisme serait alors la phase de transition entre l'humain et le posthumain ...Ce mouvement est essentiellement implanté aux Etats-Unis et un petit peu en Europe, surtout au Royaume-Uni et en Allemagne (et assez peu en France). Le chef de file actuel est un suédois, professeur à Oxford, Nick Bostrom. Naturellement, ces perspectives ont suscité de nombreuses réactions, aussi bien positives que négatives émanant d'horizons de pensées extrêmement divers... Un célèbre neurobiologiste clame "l'espèce humaine ne peut durer que si elle demeure mortelle" Le mathématicien E. Yudkowsky imagine des algorithmes permettant d'introduire dans les cerveaux, de la pensée nouvelle et des capacités de conceptualisation inimaginables pour le moment ... (voir son papier scruter la singularité et HAL l'ordinateur 'intelligent').
Un des papes du transhumanisme, Ray Kurzweil a été embauché par Google comme ingénieur en chef pour faire du moteur de recherche la première intelligence artificielle de l'histoire, et effectivement Google pourrait bien devenir l'un des principaux architectes de la révolution NBIC; il soutient fortement et activement le transhumanisme, notamment en parrainant la Singularity University (dirigée par Ray Kurzweil) qui forme les spécialistes NBIC et en s'intéressant au séquençage ADN au travers de sa filiale 23andMe, dirigée par la femme de Sergei Brin, le cofondateur de Google. Mais déjà, face aux défis des NBIC, deux camps se font face, les bioconservateurs et les transhumanistes. La grande question biopolitique concerne la place de l'homme 'actuel' devant l'humanité future 2.0 ...

 
TRANSISTOR Le transistor est le composant électronique de base intervenant dans la plupart des circuits électroniques. C'est un dispositif de type semi-conducteur (il n'est ni tout à fait conducteur d'électricité ni tout à fait isolant et c'est grâce à cette singulière propriété que toute l'informatique fonctionne) constitué de trois électrodes actives et qui se comporte comme un interrupteur: soit il laisse passer le courant (1 VRAI ou OUI) soit le courant ne passe pas (0 FAUX ou NON).
Si les premiers transistors utilisaient le germanium comme matériau semi-conducteur, on est très vite passé au silicium, l'un des éléments chimiques les plus répandus sur Terre (après l'oxygène); il est le constituant majeur de la croûte terrestre sous forme de silicates les minéraux les plus commmuns des nos roches. L'extraction du silicium et sa purification est banalement obtenue à partir du sable.
Le transistor a été inventé en 1947 par J. Bardeen, W.Shockley et W.Brattain et ils ont obtenu pour cela le prix Nobel de Physique en 1956. Les circuits intégrés (ou puces électroniques) ont été inventés en 1958 par J.Kilby.
Tous les microprocesseurs (des ordinateurs ou autres smartphones) sont composés de millions de transistors.

 
TRIANGLES de REULEAUX Le triangle de Franz Reuleaux (1829-1905) est un triangle curviligne obtenu à partir d'un triangle équilatéral, en traçant les trois arcs de cercles centrés sur un sommet et passant par les deux autres. Si a est la longueur du côté du triangle initial, le périmètre du triangle curviligne est égal à πa. La bonne propriété de ce triangle de Reuleaux est qu'il a 'une largeur constante' (comme le cercle): tous les diamètres (segment issu d'un sommet et joignant tous les points du côté opposé) ont la même longueur. De manière plus générale, on appelle courbe de largeur constante , une courbe plane fermée dont la distance entre deux droites parallèles opposées qui lui sont tangentes, est la même quelle que soit l'orientation de ces droites. Il en résulte que le triangle de Reuleaux peut tourner aussi bien entre deux droites parallèles que dans un carré de même côté en restant, à chaque instant, au contact des deux droites, respectivement des quatre côtés.
Déjà présent dans certains manuscrits de Léonard de Vinci (1452-1519) ainsi que dans certaines rosaces gothiques (vitraux de la cathédrale Saint-Sauveur de Bruges, celle qui a abrité les chevaliers de la toison d'or pour l'élection du successeur de Charles le Téméraire), ce triangle curviligne a été cité puis étudié par Léonard Euler (1707-1783) en 1778 sous le nom d'orbiforme. Reuleaux a cependant été le premier en 1875 à l'étudier complètement, à démontrer ses propriétés et à l'employer dans plusieurs mécanismes, en particulier pour la fabrication de forêts qui créent des trous 'presque' carrés. La surface creusée par un tel forêt couvre environ 0,9877003907 de la surface d'un carré réel. Plusieurs brevêts ont porté au fil du temps sur des forêts qui permettent de faire des trous carrés. Le triangle de Reuleaux a été aussi utilisé pour diverses plaques d'égout comme à San-Francisco car elles ne peuvent tomber dans leur propre trou, pour certains moteurs à piston rotatif; diverses pièces de monnaie ont aussi la forme d'un polygone de Reuleaux (heptagone de Reuleaux pour les pièces anglaises de 20 et 50 pence). Les polygones de Reuleaux se construisent de la même manière que le triangle, mais à partir de polygones réguliers à un nombre impair de côté.
Depuis l'époque de Reuleaux de nombreux célèbres mathématiciens ont écrit sur les formes à largeur constante (Lebesgue, Minkowski, Hurwitz, Barbier, Meissner,...) associées aux polygones réguliers à nombre impair de côtés, sur les tétraèdres de Reuleaux (qui ne sont pas de largeur constante), sur les solides associés de Meissner (qui eux sont de largeur constante), et de manière plus générale sur les objets convexes de largeur constante ou d'épaisseur constante en 3D ... Citons pour finir le joli théorème établi en 1860 par l'astronome français Joseph Emile Barbier: toute courbe de largeur constante a possède le même périmètre πa (comme celui de notre triangle de Reuleaux du début).

 
TROU BLANC Un trou blanc, appelé encore fontaine blanche, est un objet susceptible d'exister en tant que solution des équations de la relativité générale (au même titre qu'un trou noir) et qui pourrait être le destin ultime d'un trou noir , dont il en est, en quelque sorte le sosie inversé.
Si rien ne peut s'échapper d'un trou noir, rien ne peut pénétrer dans un trou blanc , qui, contrairement au trou noir, est un objet théorique ...pour le moment. De nombreux articles récents sont publiés sur le sujet: citons par exemple Quantum transfiguration of Kruskal black holes et Small black/white hole stability and dark matter .
La détection effective de ces hypothétiques trous blancs serait une belle avancée de la gravitation quantique ...

 
TROU de VER Un trou de ver ou pont Einstein-Rosen est un objet hypothétique de type tunnel ou raccourci dans l'espace-temps, censé permettre à la matière de se déplacer dans l'espace-temps en dépassant largement la vitesse de la lumière ...et qui se manifesterait d'un côté comme un trou noir et de l'autre comme un trou blanc .
La solution classique (Schwarzschild 1916) des équations de la Relativité Générale décrivant le champ de gravitation d'une étoile sphérique et homogène fut reprise en 1935 par Einstein et Rosen: on pouvait l'interpréter comme un genre de tube reliant deux régions de l'espace-temps, la notion de pont d'Einstein-Rosen (ou trou de ver) était mise à jour.
La même année 1935, le paradoxe EPR (Einstein, Podolansky, Rosen) décrivait pour la première fois le concept d' intrication quantique .
En 1988 le prix Nobel de physique Kip THorne a démontré que les équations d'Einstein de la RG possédaient une solution de type trou de ver traversable. Un peu plus tard (1999) les modèles de Randall-Sundrum (modèle d'espace à 5 dimensions), avec la notion de brane, se sont développés en considérant que les forces de gravitation sont si faibles devant les autres forces qu'elles doivent être concentrées dans une autre dimension.
Plusieurs chercheurs se demandent même si certains trous noirs supermassifs ne sont pas en réalité des trous de ver primordiaux ...pour tester cette idée il faudrait montrer que ces trous de ver ne possèdent pas d' horizon des événements , cette frontière caractéristique d'un vrai trou noir. Rappelons que c'est seulement en avril 2019 que, pour la première fois on a obtenu une image réelle d'un tou noir , plus de 100 ans après qu'il s'agisse seulement d'une solution possible des équations de la RG ...
ER=EPR est une conjecture (L. Susskind et J. Maldacena 2013) proposant que les particules intriquées soient connectées au travers d'un trou de ver; cette conjecture serait peut-être un premier pas vers l'unification de la relativité générale et de la physique quantique ...
Malheureusement un trou de ver est très instable, extrêmement petit (taille à l'échelle de Planck, très inférieur à la taille du noyau atomique) et risque très rapidement l'effondrement... Attendons les nouvelles recherches des experts en théories des cordes , ou en gravité quantique à boucles , à propos des trous noirs, trous de ver et autres trous blancs ...

 
TROU NOIR Un trou noir est un corps céleste dont le champ de gravitation est si intense qu'il interdit à toute matière et tout rayonnement de s'en échapper. Ces objets ne peuvent donc pas émettre de lumière et sont perçus comme étant noirs; ils ne sont pas bien sûr observables directement mais plusieurs techniques d'observations indirectes ont été mises au point. Les trous noirs sont décrits dans la Relativité générale.       Définition d'un trou noir 

Le 11/02/2016 on a confirmé la détection d'ondes gravitationnelles (effectuée avec deux interféromètres LIGO en septembre 2015) produites par la fusion de deux trous noirs situés à plus d'1 milliard d'années-lumière. Un siècle après les prédictions d'Albert Einstein dans sa Relativité Générale, les ondes gravitationnelles, les trous noirs et la collision de trous noirs ont donc enfin gagné une réelle existence par ces mesures directes.
Un trou noir est entièrement décrit par la métrique de Kerr-Newman, c'est-à-dire qu'il est parfaitement déterminé par seulement trois paramètres, sa masse M, sa charge électrique Q et son moment cinétique J et ce, quel que soit son mode de formation et quelle que soit la matière (ou antimatière) qui le compose (ceci exprime le théorème de calvitie ou 'no hair' des trous noirs). On peut ainsi distinguer 4 types de trous noirs (suivant les valeurs nulles ou pas de Q et J).
Le 10/04/2019 la première vraie image d'un trou noir est publiée; elle a été obtenue grâce au Event Horizon Telescope .
Voir aussi la notion de trou blanc .

 
VIRUS Le mot 'virus' est issu du latin et signifie 'poison'. Un virus (biologique par opposition au virus informatique) est une entité biologique qui a besoin d'une cellule hôte dont il utilise les constituants pour se multiplier. Un virus est donc incapable de se multiplier seul par division, c'est un parasite intracellulaire. Il est constitué d'une ou plusieurs molécules d'acide nucléique. 

 
VACCIN Un vaccin est une préparation biologique administrée à un organisme vivant pour stimuler son système immunitaire afin qu'il développe une immunité adaptative et durable contre l'agent infectieux d'une certaine maladie.
Dès l’Antiquité, on avait remarqué que les personnes atteintes une première fois de certaines maladies infectieuses ne tombaient pas malades une seconde fois.
C'étaient les premiers exemples d'immunisation contre une maladie, l'organisme ayant fabriqué les anticorps ad-hoc.
Le premier vaccin a été effectué en 1796 par le médecin anglais Edward Jenner (1749-1823) pour tenter d'éradiquer la variole (maladie connue de très longue date, initialement appelée la petite vérole , responsable de nombreuses épidémies avec chaque fois des milliers de victimes); Edward Jenner est considéré comme le père de l' immunologie .
En 1881, Louis Pasteur (1822-1895) énonce le principe de la vaccination: inoculer des virus affaiblis ayant le caractère de ne jamais tuer et de donner une maladie bénigne qui préserve de la maladie grave ou mortelle concernée. Il venait de créer la notion de vaccin à virus atténué.
Les vaccins les plus connus sont ceux contre la variole, la poliomyélite, antitétanique, antirabique, contre la coqueluche, la rougeole, la grippe ... et depuis peu la Covid-19.
On peut distinguer quatre types de vaccins.
1 - Les vaccins à virus inactivés (agents infectieux tués ou atténués)
Ce sont les plus anciens et les plus classiques des vaccins comme ceux contre la variole ou la rage par exemple.
Contre la Covid-19, les vaccins chinois Sinopham et Sinovac sont de ce type.
2 - Les vaccins à protéines recombinantes
Par l'intermédiaire d'une cellule dont le matériel génétique a été modifié par recombinaison, le vaccin introduit dans l'organisme l'antigène associé à un adjuvant qui donnera le signal d'alerte au système immunitaire. Sont de ce type le vaccin contre l'hépatite B ou le vaccin Pasteur contre la grippe saisonnière.
Le futur vaccin Covid-19 de Sanofi Pasteur est de ce type.
3 - Les vaccins à virus recombinants
La technique consiste à prendre un gène codant la protéine vaccinante (antigène) et à l'insérer dans un virus infectieux débarassé de tous ses gènes pathogènes. On utilise le plus souvent l'adénovirus des rhumes saisonniers.
Contre la Covid-19, sont de ce type les vaccins d'Astra Zeneca, Johnson and Johnson, Spoutnik ...
Aucun vaccin de ce type n'avait jamais été utilisé sur l'homme avant 2021.
4 - Les vaccins à ARN messager (ou ARNm )
Dans chacune de nos cellules, l'ADN produit de l'ARN messager qui transporte l'information pour fabriquer des protéines spécifiques.
Ce type de vaccin active le système immunitaire adaptatif au moyen d'ARNm dont la séquence nucléotidique code une protéine identique ou semblable à un antigène de l'agent pathogène à traiter, mais il ne contient lui-même aucun agent infectieux.
Cette approche vaccinale est à la fois plus sûre (rien de vivant n'est manipulé et pas d'infection introduite) et plus simple que celles des autres types de vaccination et ces vaccins de type 4 sont plus rapidement mis au point et moins onéreux.
Contre la Covid, ces vaccins sont constitués de molécules d'ARN messager de la protéine de spicule (ou péplomère ou spike) S (du SARS-CoV-2) produites en laboratoire par synthèse chimique.
C'est la biologiste hongroise Katalin KARIKO qui a mis au point la technique de l'ARN messager. Elle a été la première à utiliser l'ARN et non l'ADN comme le faisaient tous ses prédécesseurs.
Cette très astucieuse méthode met notre organisme à contribution en lui indiquant comment se défendre face au virus: en lui injectant des brins d'instructions génétiques (les ARNm) la molécule indique à nos cellules (qui sont des micro-usines à protéines) ce qu'il faut fabriquer comme protéine: la protéine S, l'antigène spécifique du coronavirus, la spicule (en forme de pointes sur l'enveloppe extérieure du coronavirus). Cette spicule (inoffensive en elle-même) permet au coronavirus de s'attacher aux cellules humaines pour commencer son agression.
Notre système immunitaire repère alors cette protéine inconnue et étrangère et produit des anticorps et des cellules immunitaires spécifiques pour la combattre (ceci n'entraînera rien de pathogène pour notre organisme). Ces anticorps vont rester dans notre corps au moins un certain temps (1 an peut-être plus ??) et seront présents et actifs lors d'une attaque réelle du virus ce qui nous protègera de l'infection en permettant à notre organisme de se défendre contre un agresseur reconnu et répertorié.
Il faut souligner que cet ARNm ne pénètre jamais dans le noyau de la cellule (donc aucune action sur notre génome) et qu'il est rapidement éliminé par l'organisme.
Il n'est plus nécessaire (comme pour les vaccins de types 1,2,3) de fabriquer en laboratoire une agent pathogène, c'est notre organisme qui se chargera du travail, d'où un vaccin beaucoup plus rapide à mettre au point et facile à produire. Les molécules d'ARN sont cependant beaucoup moins stables que celles d'ADN et cette fragilité peut poser des problèmes de conservation mais les progrès sont rapides à ce niveau.
Par ailleurs, ces vaccins peuvent être assez rapidement adaptés contre de nouveaux variants en embarquant une protéine spécifique de celui-ci.
Aucun vaccin de ce type n'avait jamais été utilisé ni chez l'homme ni chez l'animal avant 2021.
Sont de ce type les vaccins BioNtech-Pfizer et Moderna, ainsi que le vaccin chinois ARCoV.
Voir l' aventure scientifique des vaccins à ARN messager ou l'ARN est-il l'avenir des vaccins ? .

 
  VIRUS INFORMATIQUE Il s'agit d'un logiciel malveillant conçu pour se propager à d'autres ordinateurs en s'insérant dans des programmes légitimes d'un ordinateur ainsi infecté à l'insu de son propriétaire. Son appellation provient de sa forte analogie avec les virus biologiques. Il arrive souvent par mail en fichier attaché, mais peut aussi se répandre via un réseau informatique, un CD ou une clé USB. Certains spams peuvent aussi transmettre un virus. 

 
VIVIANI Vincenzo (1622-1703), mathématicien, physicien et astronome italien, disciple de Galilée est surtout connu pour son théorème et sa fenêtre.
Théorème de Vivani . Dans un triangle équilatéral, la somme des distances d'un quelconque point intérieur aux trois côtés est égale à sa hauteur.
Ce joli théorème se démontre très facilement et Viviani l'a généralisé à tout polygone régulier convexe à n côtés, en remplaçant hauteur par n fois l' apothème .
En 1692, Viviani proposa le problème d'architecture 'de la voûte quarrable': percer dans une coupole hémisphérique quatre fenêtres de telle manière que la surface restante de la coupole soit quarrable (c'est-à-dire que l'on peut effectuer sa quadrature: son aire peut se noter A2, A étant un nombre calculable à la règle et au compas). Wallis, Leibniz et Jean Bernoulli, après avoir essayé des fenêtres circulaires durent considérer l'intersection de la sphère et d'un cylindre et obtenir la 'fenêtre de Viviani'.
La fenêtre de Viviani est une courbe algébrique gauche fermée, intersection d'une spère de rayon R et d'un cylindre circulaire droit de diamètre R, passant par le centre de la sphère.

 
WEB (ou WWW pour World Wide Web) on parle encore de la 'toile d'araignée mondiale' ou de la 'toile'. C'est un système hypertexte public qui fonctionne sur Internet et que l'on peut consulter, sur son ordinateur, à l'aide d'un navigateur (Internet Explorer, Mozilla Firefox, Google Chrome, Apple Safari, Opera, ...). Le Web est né au CERN en 1989 grâce à Tim Berners-Lee et Robert Caillau. Voir comment le premier site Web français a vu le jour .

 
Wi-Fi C'est un ensemble de protocoles de communication sans fil; un réseau Wi-Fi permet ainsi de relier sans fil divers appareils informatiques (ordinateur, routeur, imprimante, décodeur) au sein d'un réseau informatique pour établir divers transferts de données entre eux; la portée est nettement supérieure (jusqu'à 200 mètres..) à celle de la technique bluetooth

 
WIKIPEDIA Wikipédia est l'encyclopédie universelle, multilingue la plus répandue sur internet et accessible en ligne gratuitement.
Elle a été créée par J.Wales et L.Sanger avec les premiers articles en anglais le 15/01/2001 et le 15/05/2001 pour ceux en français.
Le 15/01/2021 est donc le 20 ème anniversaire de Wikipédia . C'est la société américaine à but non lucratif Wikimedia Foundation qui est dépositaire de la marque et qui héberge l'encyclopédie libre wikipédia. Chacun est libre de la rediffuser et tout utilisateur de wikipédia, en tant que lecteur ou correcteur potentiel, peut écrire ou modifier des articles, moyennant certaines précautions et principes de rédaction . Divers critères d'admissibilité seront verifiés par les responsables pour garder ou supprimer l'article proposé.
Wikipédia fonctionne sur le principe du wiki , logiciel de gestion de contenu. Le premier wiki a été créé en 1995 par W. Cunningham et l' histoire de wikipédia montre que le choix d'un wiki a été déterminant pour installer et mettre en ligne wikipédia.
En janvier 2021, plus de 2.200.000 articles sont disponibles en français et plus de 6.000.000 en anglais.

 
ZODIAQUE Le zodiaque est une zone circulaire de la sphère céleste dont l'écliptique occupe le milieu. On distingue le zodiaque astronomique (13 constellations que le soleil semble traverser en un an) et le zodiaque astrologique (12 signes astrologiques de 30° chacun que le soleil semble traverser en un an). On connait bien les signes du zodiaque.

 


Vers l'index des sujets en haut de la page
Page index de SAYRAC

Page cryptage

Page curiosités scientifiques ou technologiques

Page exoplanètes

Page sondage entre Cristaux Liquides-Mécanique Quantique-Ordinateur-Relativité

Page relativité générale

Page systèmes dynamiques et chaos

  Contactez-moi; un petit test numérique vérifiera que vous n'êtes pas un robot!  ou laissez un message EXPRESS