Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

La physique quantique

"Fractal Radiation". Document Agsandrew/Shutterstock.

L'univers des particules élémentaires (I)

Il y a de quoi s'étonner quand on consulte la liste des prix Nobel. Tout au long de l'existence de la prestigieuse Académie suédoise des sciences, il ne s'est pas écoulé une année sans qu'une découverte fondamentale ne soit faite en physique. L'inventivité, l'acharnement et la patience des hommes est phénoménale. Leur travail soutenu mérite notre respect et notre attention.

Nous sommes également quelque part complice de cette aventure. Nous utilisons leurs découvertes pour faire de nouvelles hypothèses et pour créer de nouveaux outils qui feront progresser la science. Sans leurs travaux, Platon aurait encore voix de citer. Mais au fait, que disait-il à propos de l'univers et de la matière ?

Les conceptions actuelles de l'univers ont trouvé leur fondement en Grèce à l'époque d'Empédocle, au Ve siècle avant notre ère. Sur ces traces, Platon affirmait que le feu, l'air, l'eau et la terre étaient les quatre éléments fondamentaux du milieu spatial[1]. Chacun était représenté par une figure géométrique, un polyèdre régulier plus ou moins complexe dont les combinaisons étaient capables de produire les "phénomènes de génération", les substances les plus complexes. "Ces quatre éléments de base étaient si petits, disait Platon qu'ils ne pouvaient être perçus individuellement. Au contraire lorsqu'ils se groupent, les masses qu'ils forment deviennent visibles. [...] tout ce qui touche leurs rapports numériques [...] est réalisé par dieu de façon exacte, qui a ainsi harmonisé mathématiquement les éléments"[2]

A ce propos, Werner Heisenberg s'était étonné en 1955 que cette représentation géométrique et mathématique de la cosmologie avait été conservée jusqu'à aujourd'hui, bien que sous une forme très évoluée. On continue en effet à utiliser des figures géométriques en physique moderne et l'on tient compte de considérations mathématiques, de symétrie, etc pour tenter de représenter le Monde.

Mais le modèle de Platon n'était pas parfait. L'eau, l'air et le feu pouvaient se transformer les uns dans les autres mais pas la terre qui pouvait se décomposer. Aristote, le meilleur élève qu'il ait eu soutenait dans sa critique[3] que son maître devait accepter "de soumettre tous les éléments à la génération mutuelle à partir de la dislocation des surfaces. Car ce qui est rationnel relève aussi de l'expérience sensible".

Platon restait impuissant à expliquer le rapport des surfaces ou des volumes des formes géométriques différentes du cube. Son modèle cosmologique fonctionnait quasiment bien en deux dimensions, mais dans l'espace il devait faire appel au démiurge[4]. L'expérimentation étant encore à ses balbutiements, les mathématiques étaient primitives et les outils de mesures ne disposaient pas encore d'étalon de référence. Dans ces conditions, il n'est pas exagéré de dire que jamais Platon n'a soumis ses théories au verdict de l'expérience comme l'aurait souhaité Aristote.

Si Platon aurait sans doute renié ce modèle de réaction subatomique, Démocrite l'aurait peut-être apprécié. Il s'agit de la mise en évidence des quarks et des gluons dans l'annihilation mutuelle d'un électron et de son antiparticule.

A la même époque, le philosophe grec Démocrite considérait déjà que la matière était constituée d'atomes qui se déplaçaient dans le vide de façon mécaniste. Son intuition ne sera reconnue que... 2200 ans plus tard par Lavoisier. Cette similitude entre les théories grecques et contemporaines est étonnante et on retrouve dans le "Timée" de Platon plusieurs expressions qui supportent la comparaison avec nos théories actuelles. L'intuition de ce génial philosophe nous guidera longtemps.

De nos jours, grâce à l'invention des accélérateurs de particules, des cyclotrons, synchrotrons et autres collisionneurs, les physiciens ont très vite assimilé la méthode de travail qui leur permettait de découvrir de nouvelles particules élémentaires et d'expliquer le comportement étrange de certains noyaux. En fait, à partir des traces photographiques des particules (jadis)et aujourd'hui de leur reconstruction numérique, de leurs effets électriques, de leur diffusion angulaire et de la répartition des énergies, les physiciens peuvent déterminer la charge et le poids relatif des particules et déduire les propriétés des structures qui ont provoqué ces processus. La méthode est très complexe et comme nous le verrons, fait appel à des technologies de pointe qui font du CERN installé en Suisse près de Genève, le pôle mondial de la recherche en physique des particules.

Après plus d'un siècle de recherches et de découvertes, en étudiant les débris du Big Bang, les physiciens ont pu regrouper les particules en un certain nombre de familles. D'un autre côté, grâce aux accélérateurs de particules, théoriciens et expérimentateurs connaissent à présent les énergies requises pour créer la matière[5].

Champ et particule

Précisons que les physiciens ne parlent jamais de "particules" mais plutôt de "l'excitation des champs" et donc de théorie quantique des champs. Dan ce cadre, parler "de l'univers des particules élémentaires" n'a pas de sens mais au moins tout le monde comprend de quoi il s'agit.

Pour rappel, le champ est un concept fondamental en physique quantique. Comme une onde se propage dans l'espace, le champ remplit l'espace et chaque point de l'espace peut être associé à un champ. Les fluctuations du champ peuvent être interprétées comme des particules virtuelles émergeant et disparaissant continuellement dans le vide quantique. Lorsqu'un champ quantique est excité, cela signifie qu'il y a une perturbation dans le champ qui se propage dans l'espace. Cette perturbation peut se manifester sous forme de particules réelles ou virtuelles, selon le contexte.

Ainsi, un proton est une perturbation positive du champ électrique et du champ gravitationnel tandis que le photon est une perturbation des seuls champs électrique et magnétique.

Une particule est un concept mécaniste fidèle à la conception atomique de Bohr (1910) qui représente les stuctures élémentaires de la matière à l'image de billes présentant différentes propriétés telles que la masse, la charge électrique, le spin, etc., mais qui élude totalement les propriétés ondulatoires de la matière.

En réalité, la "particule quantique" n'est pas un objet solide similaire à une petite bille. Bien que la matière donne souvent l'impression d'être solide en raison de ses propriétés, il ne faut pas se fier à son intuition.

Selon la théorie quantique des champs, une particule est un paquet d'ondes évoluant localement à travers un ou plusieurs champs. Plus précisément, c'est la manifestation locale de l'excitation des champs fondamentaux. Par exemple, les électrons, les quarks et les photons sont tous qualifiés de particules. Mais se sont en réalité des excitations quantiques de leurs champs respectifs : le champ électrique, les champs de gluons et de Higgs ainsi que le champ électromagnétique.

En résumé, la principale différence réside dans le fait que les particules sont une approximation intuitive matérialisant les excitations des champs sous forme d'entités individuelles ayant des propriétés distinctes, tandis que les véritables évènements quantiques, les excitations des champs sont des manifestations plus abstraites de la dynamique des champs quantiques, qui peuvent ou non se manifester sous forme de particules observables.

Ceci dit, il est difficile voire impossible de se représenter l'excitation d'un champ. On peut l'imaginer comme une quantification de l'énergie (de petits paquets discrets d'énergie se déplaçant à travers le champ), la visualiser mathématiquement sous forme d'ondes stationnaires ou se propageant ou encore par des expériences de diffusion et d'interaction (les particules interagissent les unes avec les autres en échangeant des quanta qui sont des excitations du champ). Mais comme on le constate, on revient inévitablement à des concepts d'ondes et de particules plus facile à saisir. Nous continuerons donc d'utiliser le terme "particule" pour faciliter la compréhension et le terme "champ" quand le contexte l'exigera.

Taxinomie quantique

Pour comprendre la vocation des physiciens[6] et comment surgissent les découvertes en physique des particules, il est nécessaire de se pencher tout d'abord sur la "taxinomie quantique", la science de la classification, qui va nous permettre de regrouper les particules en différentes familles. Ce classement est nécessaire car il permet de mieux saisir les raisons pour lesquelles un physicien émet une nouvelle hypothèse, croit par exemple en l'existence d'une nouvelle particule ou s'acharne vingt heures par jour à réaliser une expérience répétitive a priori marginale.

Avant d'aborder les théories de symétries qui nous permettront de comprendre les propriétés de la matière et d'étudier la genèse de l'Univers, de nombreuses questions se posent encore à propos de la structure de la matière et des conceptions formelles qui tentent de la parquer sous forme de modèles.

Chacun sait qu'il n'existe pas qu'une seule méthode pour classer les objets de façon hiérarchique. Toute classification a un sens car si l'automobile est un moyen de transport, l'avion l'est aussi mais en plus il peut voler. Ce véhicule pourrait donc également être classé à la rubrique aéronautique. La question est donc de savoir où doit-on classer le photon qui est à la fois onde et particule ? La question n'est toujours pas résolue.

Rappelons qu'en 1969, Richard Feynman résolu le problème en inventant le "parton" pour décrire ce genre d'entité mixte et nommer toutes les entités ponctuelles constituant les hadrons appelées de nos jours les quarks et les gluons (voir page suivante). Cela facilitait l'analyse des collisions à haute énergie entre particules et lui permit de modéliser leurs interactions. On y reviendra.

Plutôt que de concevoir un système de classement particulier, la physique quantique est peut-être l'exception dans ce domaine. Tous les phénomènes sont regroupés dans des interactions entre particules : particules réelles, particules virtuelles et même les bosons vecteurs.

Quelle classification devons-nous choisir ? Nous ne pouvons pas utiliser le terme "hiérarchique" car il est trompeur dans la mesure où il suppose l'existence d'une arborescence, d'un emboîtement à l'infini, qui n'est pas fidèle à la réalité n'en déplaise à Fritjof Capra. Cette démarche devra cependant être nuancée si nous désirons trouver une théorie unifiée qui expliquerait l'existence de toutes les particules...

Les physiciens ont adopté une classification ordonnée selon des propriétés objectives : par exemple l'énergie de repos des particules et le type d'interactions auxquelles elles sous soumises. Ces valeurs sont universelles et déterminent l'état de la matière, tant la masse, la durée de vie que l'apparentement des particules - et non pas leur filiation - avec certaines autres particules comme le montre le tableau présenté à gauche qui est le clé du modèle Standard et le thème central de cet article. Les physiciens ont également découvert des symétries (de jauge) relatives aux interactions entre particules qui exliquent l'invariance de certains systèmes. On y reviendra.

Nos outils

La chambre à bulles

Quels sont nos moyens ? Il faut remonter en 1952, époque à laquelle Donald Glaser, alors âgé de 25 ans, inventa un dispositif de détection des particules qui allait ravir des promotions de chercheurs : la chambre à bulles. Dans le même esprit que la chambre à brouillard sursaturée, il s'agit d'une enceinte fermée et remplie d'hydrogène liquide sous pression à -253°C. Au passage d'une particule chargée, un dispositif déclenche la détente de la pression qui règne dans la chambre, provoquant la libération d'ions par arrachement des électrons. Cette ionisation amorce la formation de petites bulles tout le long de la trajectoire de la particule. Ces bulles sont ensuite éclairées et photographiées pour permettre d'identifier la particule à l'origine de la trace.

La plus grande chambre à bulles fut BEBC (Big European Bubble Chamber) qui mesurait 3.7 m de diamètre et 4 m de haut. Utilisée entre 1973 et 1984, elle permit à près de 600 chercheurs dans le monde d'analyser quelque 6.3 millions de photographies argentiques.

Ensuite on inventa une quirielle de détecteurs toujours plus sophistiqués en commençant par la petite chambre multifils de Charpak en 1968, le scintillateur à Iodure de Césium (équipant le multidétecteur INDRA) pour en arriver à des installations demesurées comme ATLAS (acronyme de A Toroidal LHC ApparatuS) intégré au collisionneur LHC (Large Hadron Collider ou Grand Collisionneur de Hadrons) entré en service en 2008. Notons que le LHC utilise toujours des chambres à fils, notamment pour détecter les muons.

A voir : Radioémission de l'uraninite dans une chambre à brouillard thermoélectrique

Radioémission de l'uranium et du thorium

La chambre à bulles, CNRS/Cité des Sciences et de l'Industrie

My Trip to CERN, John Waker, 2013

Ci-dessus, la chambre à bulles Gargamelle qui permettait de tracer le passage des ions et donc de suivre la trajectoire des particules. En 1973, elle permit de découvrit les courants neutres (cf. cette photo). Ci-dessous, une image prise dans la chambre à bulles BEBC en 1973. Aujourd'hui ces dispositifs sont remplacés par des détecteurs électroniques et des ordinateurs. Documents CERN.

Electronique et automatisation

Si la "chambre à bulle" permet de tracer le passage des ions et donc de suivre la trajectoire des particules, l'ère de la photographie argentique et des mesures manuelles est révolue. Aujourd'hui les détecteurs sont couplés à des ordinateurs, si bien que le détecteur ATLAS a un objectif beaucoup plus ambitieux. Il tire profit de détecteurs spécialisés, les uns sensibles aux photons ou aux électrons, les autres aux jets de particules hadroniques ou encore aux mésons émis et lancés à grandes vitesses dans l'accélérateur de particules.

Les signaux émis lors des diverses expériences sont transmis à des ordinateurs qui appliquent des algorithmes tenant compte des lois de la physique afin de reconstruire les trajectoires numériquement et débroussailler le travail des physiciens en réalisant les premières mesures qu'ils vont inlassablement répéter pour les milliers de milliards d'évènements qu'ils enregistrent. C'est un travail fastidieux mais routinier que les physiciens ne peuvent pratiquement plus réaliser à la main tellement le volume de données à traiter est élevé.

Progrès oblige, le CERN déclassa les chambres à bulles Gargamelle en 1969 et BEBC en 1984 et décida ensuite de les exposer dans le jardin du "Microcosm" qui entoure le site. Ces deux outils aux formes futurismes un peu désuettes sont devenus des oeuvres d'art de l'architecture industrielle qui attirent toujours les curieux et les passionnés !

Le LHC

Le collisionneur de particules du LHC (Large Hadron Collider) est aujourd'hui la plus puissante installation de ce type au monde. Il a doublé son niveau d'énergie incidente en 2015 pour atteindre 13 TeV soit 2 microjoules par nucléi, et libère donc une énergie de 26 TeV lors des collisions frontales. Bonne nouvelle, le LHC devrait être porté à 14 voire 15 TeV d'ici quelques années.

A titre de comparaison, un niveau d'énergie de 102-104 GeV est de l'ordre de grandeur de celle qui régnait dans l'Univers primordial environ 10-10 s après le Big Bang, lorsque la température était d'environ 1015 K. Actuellement le LHC est capable de reproduire des conditions similaires à celles existant quelque 10-12 s après le Big Bang. Ceci explique pourquoi les cosmologistes attendent beaucoup du LHC afin que les physiciens les aident sur base expérimentale à mieux comprendre les phénomènes qui se sont déroulés au cours de la formation de l'Univers.

A voir : LHC animation: The path of the protons

A gauche, vue aérienne des installations du CERN près de Genève en Suisse. L'anneau du LHC mesure 27 km de diamètre. A droite, schéma du détecteur ATLAS du LHC qui étudie notamment les collisions proton-proton à l'échelle du TeV. Il mesure 46 m de long et 25 m de haut. Il est utilisé par 2100 chercheurs de 41 pays (2012). Les signaux émis lors des émissions ou des collisions sont captés par des détecteurs spécialisés qui transmettent les données à des ordinateurs qui reconstruisent les trajectoires sur base des lois connues et effectuent les premières mesures. Ci-dessous, coupe schématique dans l'anneau accélérateur. Documents CERN et CERN/Big Science adapté par l'auteur.

Comment fonctionne le LHC ? L'installation du CERN comprend en fait 4 anneaux. Le faisceau de particules est constitué de protons provenant de bouteilles d'hydrogène. Le faisceau est d'abord injecté dans le Proton Synchrotron Booster (PSB) qui accélère les protons jusqu'à 1.4 GeV, suivi par le Proton Synchrotron (PS) qui porte le faisceau à une énergie de 25 GeV. Les protons sont ensuite envoyés au Super Proton Synchrotron (SPS) où ils sont accélérés jusqu'à 450 GeV.

Finalement, les protons sont transférés vers les deux tunnels du LHC où les particules sont injectées en sens opposés et où leur énergie est portée à 6.5 TeV. Dans des conditions normales, les faisceaux de protons circulent dans le LHC pendant de longues périodes.

Notons qu'il existe également un LHCb (Large Hadron Collider beauty) dédié à l'étude du quark b qui permet d'explorer les subtiles différences entre matière et antimatière. Ce détecteur mesure 21 m de long, 10 m de haut et pèse 5600 tonnes. En 2022, le LHCb est utilisé par 1565 chercheurs et techniciens (deux fois plus qu'en 2013) provenant de 20 pays.

A tout moment, les deux faisceaux peuvent entrer en collision dans les détecteurs ALICE, ATLAS, CMS and LHCb, dans lesquels l'énergie totale au point de collision atteint 13 TeV. Les collisions se produisent toutes les 25 nanosecondes. Un système électronique ultra rapide réalise ensuite la sélection des évènements dont les données sont envoyées aux ordinateurs pour analyses et reconstruction. Une copie des "Big Data" brutes est envoyée au Computing Grid (WLCG).

Comme le rappelle le CERN, le vide obtenu dans les tubes des faisceaux de particules du LHC n'est pas le plus poussé qu'on peut obtenir sur Terre (on considère le vide comme un espace comprenant ~100 particules/cm3 mais il existe dans l'univers des endroits beaucoup moins denses). Les physiciens veulent simplement contrôler les faisceaux de particules pour éviter qu'ils n'entrent en collisions avant d'atteindre leur cible, ce qui nécessite une densité d'environ 3 millions de molécules/cm3 soit une pression réduite à 10-10 - 10-11 mbar (au moins 10-10 Torr ou 10-10 millimètre de mercure), ce qui est inférieur à la densité (ou pression) régnant sur la Lune.

A gauche, le détecteur ALICE du LHC du CERN. Cette expérience permet d'étudier l'état de la matière à hautes énergies et hautes températures proches de celles régnant juste après le Big Bang. A droite, le détecteur LHCb (b pour beauty). Il permet d'étudier les propriétés des particules et des anti-particules ainsi que les désintégrations rares des mésons b et c. Documents CERN/Big Science adapté par l'auteur et CERN/IN2P3.

Concernant l'infrastructure et les ressources, pour citer un ordre de grandeur, le détecteur ATLAS mesure 46 m de long, 25 m de hauteur et 25 m de large et pèse 7000 tonnes (autant que la Tour Eiffel). Il comprend 100 millions de canaux électroniques et 3000 km de câbles. 3000 physiciens de 38 nations et appartenant à 174 institutions participent à cette expérience. ATLAS génère plus de 65 TB de données chaque seconde, soit l'équivalent de 100000 CD (une pile de CD haute de 125 m) chaque seconde ! En un an, cette pile ferait 4 fois la distance Terre-Lune. Face à autant d'informations, actuellement ATLAS n'enregistre qu'une fraction des données, uniquement les évènements significatifs à un taux d'environ 18 GB/minute soit l'équivalent de 27 CD/minute.

Les Big Data du LHC et le réseau distribué du WLCG

Selon Tim Bell, responsable de l'infrastructure au CERN, la quantité de données produite en un an par le LHC est d'environ 30 petabytes (2015) et devrait bientôt doubler. Gérer ces "Big Data" est un vrai défi.

Lors d'une collision entre protons, la caméra de 100 megapixels du LHC enregistre 40 millions de photographies par seconde, générant 1 petabyte de données par seconde ! Aujourd'hui, le CERN peut à peine traiter 1% des 95 TB de données générées quotidiennement par le LHC.

Ici on parle de vitesse de calcul atteignant quelques petaFLOPS (1 million de gigaFLOPS), quelques facteurs au-dessus des performances du projet LHC@home ou SETI@home !

Aucun superordinateur ne pouvant gérer seul la totalité des informations, le CERN a mis en place un réseau d'ordinateurs distribué mondialement, le WorldWide LHC Computing Grid, dont le coeur ou Tier 0 est à Meyrin (Genève). Ce site distribue les données brutes à tous ses partenaires par Internet (rappelons que c'est dans ce but que l'architecture distribuée d'Internet fut initialement inventée au CERN en 1991).

A gauche, la salle de contrôle du CERN lors de la première collision le 30 mars 2010. A droite, les serveurs du Tier 0 du CERN enregistrent une copie des données brutes du LHC et les distribuent aux 11 sites Tier 1 distribués à travers le monde. Documents CERN.

Le Tier 0 exploite un data center constitué de 88000 coeurs de processeurs. Il est épaulé depuis 2014 par le data center de Budapest en Hongrie qui dispose de 300000 coeurs de processeurs. En 2015, le Tier 0 stockait en ligne 30 petabytes de données sur disques durs et 70 petabytes complémentaires sur plus de 45000 tapes. Depuis le 29 juin 2017, le principal data center du CERN stocke 200 petabytes de données sur tapes. Ces archives sont disponibles en ligne et les physiciens souhaitent les conserver 20 ans.

Le LHC étant devenu de facto l'outil incontournable des physiciens des particules élémentaires, il est relié à plus de 260 sites informatiques et 11000 chercheurs à travers le monde (Tier 1, Tier 2 et Tier 3) analysent les informations recueillies au cours des expériences.

Parmi les 11 sites principaux ou Tier 1, il y a les installations de l'institut IN2P3 du CNRS et celles du Fermilab. Il y a 140 sites de niveau Tier 2 dans le monde, essentiellement des universités et des instituts scientifiques, tandis que le Tier 3 est constitué par les scientifiques individuels.

Etant donné que la quantité de données à traiter ne cesse de croître, ce réseau distribué a été étendu et se perfectionne continuellement dans le cadre du projet européen DataGrid, rebaptisé EGEE en 2004.

En 2013, le CERN augmenta la capacité de traitement de son data center décentralisé au Canada (Triumf atlas) afin de pouvoir traiter des fichiers de données (data set) de 125 terabytes avec un taux de transfert de 5 Gbits/s entre serveurs.

Salle de contrôle de TRIUMF au Canada.

Le futur FCC de 100 TeV

A terme, l'Europe envisage la construction du Futur Collisionneur Circulaire ou FCC (Future Circular Collider) à côté du LHC. Il fera ~100 km de circonférence et atteindra 100 TeV lors de collisions pp (cf. CERN Courier, June 2018, pp.15-19 et May 2017, p34). Mais rien n'indique aujourd'hui que cet ambitieux projet se concrétisera.

Le RHIC du BNL

En deuxième place vient le collisionneur à ions lourds RHIC du Brookhaven National Laboratory installé à Upton, dans l'état de New York, aux Etats-Unis. Cette installation dispose également d'un anneau d'accélération et est capable de générer jusqu'à 500 GeV dans le centre de masse (2009). Il permet d'étudier les collisions entre ions comme dans cet exemple spectaculaire de collision frontale vue de profil entre deux faisceaux d'or de 30 GeV dans le détecteur STAR du RHIC. Cette installation est cependant 28 fois moins puissante que le LHC.

Pour mémoire, l'accélérateur Tevatron du Fermilab installé aux Etats-Unis près de Chicago, fut fermé en 2011. Il disposait d'un anneau accélérateur de 6.3 km de diamètre et pouvait atteindre une énergie de 8 GeV dans le centre de masse. On lui doit la découverte du baryon Ωb- d'une masse d'environ 6054 MeV/c2 par la Collaboration D0, équipe dont nous reparlerons.

Aujourd'hui tant le BNL que le Fermilab participent au développement du LHC, soit en fournissant du matériel lourd (le BNL fournit par exemple des aimants supraconducteurs de secours) soit du temps CPU.

Le projet européen XFEL

Il existe d'autres accélérateurs de particules à travers le monde et les physiciens du CERN collaborent avec les chercheurs de ces laboratories. Nous verrons plus loin qu'il existe également un autre accélérateur de particules en Europe, le projet XFEL installé à Hambourg en Allemagne qui remplace depuis 2017 l'ancien système HERA.

Fort de ces théories et équipé de ces moyens techniques de dernière génération, le physicien peut enfin essayer d’unifier tous les champs au sein d’une théorie harmonieuse.

L’idée d’unification est dans l’air depuis les années 1930, lorsque Einstein et Heisenberg annoncèrent séparément leurs intentions à ce sujet. Einstein était encouragé par les succès de la théorie de la relativité générale et recherchait une voie similaire pour décrire les champs quantiques des particules mais n'y arriva jamais. Le but avoué de Heisenberg était plus limité, cherchant à décrire les nucléons (les protons et les neutrons) et les fermions (les électrons et leurs partenaires).

Voyons quelles ont été les principales étapes de cette quête encore inachevée et ce que les physiciens ont déjà découvert.

Prochain chapitre

Le modèle Standard

Page 1 - 2 - 3 - 4 - 5 - 6 -


[1] Dans "Timée" (35 à 56) Platon utilise le mot "stoikheion" pour "élément" qui signifie aussi comme l'a bien compris Galilée les lettres de l'alphabet, les caractères. Platon utilise également "khôra" pour définir la "matière" que Luc Brisson ("Le même et l'autre dans la structure ontologique du Timée", Paris, 1974) traduit par le mot "milieu spatial" car il définit à la fois ce en quoi les choses se trouvent et ce de quoi elles sont faites.

[2] Platon, "Timée", 56b.

[3] Aristote, "Traité du Ciel" (De Caelo), 306a, Les Belles Lettres, 1965.

[4] Platon aurait dû extraire des racines carrés décimales et des racines cubiques pour calculer le volume du tétraèdre (le feu) et des autres figures. Seule réponse simple, le volume de l'hexaèdre à mi-chemin entre le feu et l'air dont le volume est égal au cube du côté.

[5] F.Close, M.Marten et C.Sutton, “The Particle Explosion”, Oxford University Press, 1987.

[6] "Vocation" est bien le vocable à utiliser pour qualifier une profession où les chercheurs sont souvent amenés à travailler vingt heures d'affilées ou sont rappelés au laboratoire à 3h du matin. Seul, opposé à tout un comité, le chercheur conduit sa bataille, sans avoir la protection d'une autorité morale (à part son directeur). Mais cela en vaut la peine car celui qui est assis devant l'écran de son ordinateur à 3h du matin et découvre soudainement un phénomène tient un savoir que plus de 7 milliards d'habitants ignorent... L'émotion de la découverte vous met en contact direct avec la nature; cela vaut bien quelques contraintes.


Back to:

HOME

Copyright & FAQ