Bienvenue sur mon site !
accueil

blog. Sciences pour tous les 51 prédictions  Les 53 énigmes de l'Univers Condensat Bose Einstein  l'Univers miroir il était une fois, l'univers.. La quintessence
Le zéro absolu et le OU exclusif, n'existent pas en physique. Le zéro relatif et le ET sont les clés vers la compréhension du monde, au delà de la simple description.

loi de Koide-Mareau éclaté du modèle oscar

Dernière mise à jour : 07 octo 2017  


Sommaire

Il était une fois, l'univers  à partir de rien ...

   Préambule


01. La dualité réductionnisme et holisme
02. Les graves erreurs épistémologiques
03. La dualité de localité
04. Expérience de pensée sur la dualité
05. Le proton, objet physique ou être mathématique ?
06. L'univers vu par ses dimensions physiques
07. L'oscillateur dual quantique
08. Les graves renoncements de l'école de Copenhague
09. Premier aperçu du "rien" dual
10. Le flux de synchronisation forme le BEC fossile
11. Fonctionnement du BEC avant saturation
12. Aparté sur le théorème d'incomplétude de Gödel
13. Saturation du BEC fossile et annihilation
14. Gravitation et matière noire, une cause commune 
15. Mitose fractale et collisions précoces
16. Masse de Planck, proton et naissance du temps

17. L'espace-temps, un continuum de BECs.
18. Mitose et 
π-ADN universel
19. Le puits subquantique élémentaire
20. Le puits subquantique et le boson W
21. L'énigme de la masse des neutrinos
22. Comment bat le coeur de l'électron, ex-tachyon ?
23. L'oscillation des neutrinos
24. Comment galope un photon ?
25. Collision de galaxies = matière noire 
26. Dimension des grandeurs physiques
27. La relativité restreinte
28. La relativité générale
29. La cause de la relativité générale
30. La  dualité gravitationnelle
31. La cause physique des quarks

32. La clé par la constante [ML]

33.  La subtilité du continuum MLT
34.  Architecture du proton
35.  Effet tunnel supraluminique et onde perturbation
36.  La Perturbation est la clé de l'existence
37.  Le muon et la loi de Boltzmann sur l'information
38.  La théorie des cordes
39.  Etat intermédiaire, onde - corpuscule
40.  Constante de structure fine issue du BEC-0 2D
41.  La vie à l'image de l'univers
42.  L'héritage des oscillateurs stochastiques
43.  Un oscillateur nommé Univers
44.  L'échelle ξ de l'univers et ses mesures effectives
45.  Ω, la cause profonde du temps
46.  Higgs confirme OSCAR
47.  Le déterminisme du rien stochastique
48.  La réduction du paquet d'onde
49.  Abécédaire des lacunes du modèle standard
     a b c d e f g h i j k l m n o p q r s t u v w x y z 

50. Résumé :    0     2   3   4   5   6   7   8   9   10  

51 Prédictions    52 Conclusions  →   1   2    3    4    5     6     7     8  81

---


Avertissement

Il faut voir à quel point le mot « rien » est lourd de sens. Dans sa version populaire, il est facile à comprendre car à notre échelle macroscopique, le « rien » est juste l'absence d'une quantité bien définie. On verra très graduellement le sens élargi et profond de ce « rien » à partir duquel tout peut se créer. Il existe une sorte de croyance qui déclare sans preuve, qu'il serait impossible de mesurer ce qui apparaît comme étant « hors de portée ». Cela va à l'encontre du fait que toutes les mesures quantiques ont un caractère indirect. La rigueur exige la loi suivante : plus la mesure est indirecte, plus il convient de la justifier par une cascade convergente dans la cohérence globale. La clé de cette double rigueur est dans la dualité {réductionnisme-holisme}. Cela revient à une dualité d'échelle ou dualité de localité. 

Si la simple analyse des effets physiques énigmatiques vous suffit, alors ne lisez pas ce livre, car il s'intéresse aussi, à découvrir la cause de ces énigmes.


Préambule

La physique fondamentale et les questions concernant les mystères de l'univers ne doivent pas rester dans le giron d'une seule minorité dominante mais élargies à tous les citoyens. Cependant ce domaine est traditionnellement empreint de mathématiques ardues qui sont de nature à décourager le néophyte. On connait par ailleurs l'importance des débats transverses via une compétence de généraliste.  Mais la maîtrise globale de la physique est complétement éparpillée, dispersée. Les spécialistes, par nature, ont des compétences pointues dans des domaines limités. On manque cruellement de chefs d'ochestre pour ordonner la musique de la physique. La physique est l'univers et l'univers est unique, non dispersé.  De ce fait, la physique est en crise depuis plus de trente ans et le citoyen lambda – et même certains spécialistes – l'ignorent superbement.

Alors comment faire pour ouvrir ce domaine à tous en évitant le nécessaire langage mathématique permettant de le formaliser ? La méthode employée ici se présente en deux étapes. Une première étape a consisté à écrire un livre en 2012, L'univers miroir, décrivant un modèle complet, « avec équations » , doté d'une bibliographie et d'un lexique. Cet ouvrage devient la référence de cet ouvrage en cours  dont les descriptions et explications sont de nature littéraire. De plus il sera proposé au lecteur une notation de forme [n] qui renverra vers une explication plus fournie, en fin de livre. Ainsi le lecteur, dérouté par les mathématiques, pourra poursuivre sa route en mode purement littéral. J'ai, par le passé, beaucoup critiqué certains livres de mathématique qui entamaient  un sujet par... les équations plutôt que par l'explication. Juste de quoi  dégoûter les élèves. C'est pourquoi, quand j'enseignais je suivais scrupuleusement le chemin suivant : a) donner envie (analogie la faim du ventre) ; b) manipuler et s'approprier ; c) intellectualiser en formulant d'une manière abstraite et donc mathématiquement. Chacune de ces phases devant passer par des errements et des erreurs. Ce sont les échecs et les corrections successives qui amènent, à terme, la lumière et rien d'autre. 

La physique doit se comprendre avant de passer à son expression mathématique. Cette dernière doit être au service de la physique et surtout ne pas la remplacer. C'est malheureusement ce qui se passe actuellement. Comment ? Le spectre des connaissances accumulées est tel, qu'il a fallu subdiviser les sciences par nature. Ensuite la subdivision s'est poursuivie jusqu'à créer des spécialisations y compris dans la même branche de la physique. La somme des connaissances en physique est telle, que personne ne peut à la fois en connaître chaque détail rigoureux et la vue globale. Toutes ces connaissances de la physique universelle, sont sous forme de millions de publications hyper spécialisées. Les détails sont tellement poussés que seul le langage mathématique est pertinent pour espérer des communications transverses. Le problème est qu'il y a de moins en moins de communications d'une spécialité à l'autre. Les limites de la trop grande rigueur amène à tuer la communication transverse. La vue générale (non triviale) est devenue très difficile.

Mais il y a pire !

Il y a ce que l'on a appelé : « la redoutable efficacité des mathématiques ». Certains physiciens, passés maîtres dans l'art de manier les équations mathématiques, s'en servent, non plus pour décrire la physique mais pour la remplacer (!). C'est ainsi que l'on a considéré certains « objets »  physiques comme des « êtres mathématiques ».  Alors bien sûr on se défend en disant qu'il ne s'agit que de modèle..., mais petit à petit le « modèle » se substitue  avec ce que l'on croît être la réalité physique. Le plus grand des dangers, est de faire l'amalgame entre le zéro mathématique et le zéro physique.  Heureusement,  je ne suis pas le seul physicien à dénoncer cela. 

Il existe trois types de zéro :

Le zéro mathématique absolu (et pratique) dont l'inverse est l'infini

Le zéro physique local jamais atteint de par la loi d'indétermination

Le zéro physique issu de la résultante nulle de l'oscillateur 1D dual.

Nous allons montrer que l'univers est né du zéro parfait de l'infinité d'oscillateurs duaux, les représentants du « rien ».

sommaire

1.  La dualité {réductionnisme / holisme}

La plupart des livres de vulgarisation, partent de l'instant présent pour ensuite remonter le temps pour aller vers le plus général. Cette méthode n'est pas du tout adaptée à la pédagogie car elle part du plus compliqué vers le plus simple. Bien sûr ses défenseurs argumentent en disant que la confrontation « théorie– expérience» n'est possible que localement. C'est la méthode purement réductionniste. L'alternative est la méthode dite holiste (vue d'ensemble). La méthode holiste a été abandonnée car elle était empreinte de flou artistique. On lui a préféré la rigueur expérimentale locale. Au début du 20eme siècle, on n'avait aucun moyen de vérifier les grandes échelles et il était donc raisonnable de choisir la voie réductionniste. 

Mais aujourd'hui, on possède des moyens technologiques énormes pour expérimenter à toutes les échelles.  Alors faut-il retourner à la voie holiste ? Non il faut exploiter la dualité, confronter les deux voies. Mais ce choix de type binaire (oui ou non) est resté en place, plutôt que d'exploiter les deux voies. Dans tous les domaines, on peut constater les ravages de la sanction binaire. L'univers et à la fois local et non  local (donc le détail est lié au global). 
Voici un exemple : au cours du 19ème siècle, les biologistes ont polémiqué durant près de cent ans, pour savoir qui était responsable des caractères de la filiation : le spermatozoïde ou l'ovule. Quelle question idiote ! C'est la voie duale qui est la source de toutes les réponses de la physique de l'univers. L'univers et tout ce qu'il contient, est foncièrement dual. Nous ne sommes pas « poussière d'étoile » comme on a pu le dire mais nous sommes les enfants de l'univers. On n'en parle pas assez ! Tout ce qui se trouve dans l'univers, y compris la vie, n'est que copie conforme.

Pour comprendre l'univers et ce qu'il a enfanté, il faut passer par la clé de la dualité. Donc les biologistes ont fini par comprendre que la solution est de type dual. Il n'y a pas d'exemple où la solution puisse être autre chose que duale. La biologie, au sens large, nous montre cette dualité. Cette dernière vient déjà de la mitose. Elle est une succession de divisions par deux. Elle est la clé de la vie.

Alors quelle est la dualité dans l'approche physique ? C'est bien sûr la confrontation entre les voies de recherche {réductionniste + holiste}. Cela vous paraît évident ? Eh bien sachez que ce n'est pas partagé. Le genre humain préfère le monisme au dual. Des chercheurs ne jurent que par le réductionnisme et d'autres que par le holisme. Alors la première clé de l'univers est-elle la dualité ?  Oui tout part de là.

Pour bien comprendre la démarche duale (locale + non locale), il existe deux (sic) règles essentielles :

1/ partir des lois physiques les plus fondamentales.

2/ vérifier en permanence si les conclusions de l'approche sont cohérentes et mesurables et ce en invitant à la place d'honneur, la dualité de localité. On arrête de spéculer.

Mais avant de détailler les lois essentielles de la physique, je voudrais parler de l'universalité de la dualité. Par exemple on peut déjà aborder ce qu'est le dual de l'univers observable. Sans anticiper sur ce qui va suivre, on peut dire que l'univers actuel, est en phase de désordre (entropie croissante). On s'attend donc que son état dual soit en phase de décroissance du désordre (entropie en décroissance). Mais celui-ci n'est pas directement observable. Mais peut-on espérer l'aborder quand même ? Oui et nous verrons très précisément comment l'univers suit un cycle entre ces deux états. Vous verrez que cette version cyclique est moins naïve que celle décrite comme un «rebond ».  En ce moment l'entropie court au désordre et quand elle sera maximale, sa courbe s'inversera et tendra vers l'ordre parfait. Attention on ne se contentera pas de dire : « c'est le cycle de l'entropie » mais on dira exactement pourquoi et surtout comment cela se mesure.  


Tableau 1-1 Voici quelques éléments physiques et leur dual respectif.

éléments

le dual correspondant

univers observable* : entropie ↑

univers primordial : entropie ↓

localité (espace)

non localité (relative)

inertie (masse)

accélération

raideur (ressort)

souplesse

temporel (le temps s'écoule)

intemporel

ponctuel (longueur ou rayon = 0) ; interdit en physique

infini ; interdit en physique

décrire (se contenter de...)

expliquer

stochastique (tend vers le désordre)

synchronisation (tend vers l'ordre) 

*Les lois de l'entropie disent clairement que la croissance de l'univers, implique un système isolé donc limité. S'il est limité, l'univers observable ne peut pas être infini. Il existe cependant des physiciens qui « croient » quand même à son infinité. Comme le montre le tableau, le dual de l'infini est le ponctuel. Alors ces mêmes physiciens, considèrent que les particules élémentaires sont ponctuelles. En fait le calcul mathématique sait résoudre ce type de concept, interdit en physique. Ce qui est grave c'est ce type de démarche : a) on ne connaît pas la taille d'une particule ; b) on spécule en disant qu'elle est ponctuelle ; c) on sait résoudre mathématiquement les conséquences de la spéculation, de type infini ; d) on est triomphant. Pas moi.

sommaire

2.  Les graves erreurs épistémologiques

L'univers nous montre clairement la dualité de localité. Cela dément totalement le principe cosmologique. Que dit Wikipédia à cet égard ? : « Le principe cosmologique est l'hypothèse aujourd'hui généralement considérée comme vérifiée selon laquelle l'Univers est spatialement homogène, c'est-à-dire que son apparence générale ne dépend pas de la position de l'observateur. Il a pour conséquence que l'Homme n'occupe pas de position privilégiée dans l'Univers, en opposition avec la théorie géocentrique (aujourd'hui abandonnée), mais en accord avec le principe copernicien. En pratique, le principe cosmologique présuppose aussi que l'univers est isotrope, c'est-à-dire que son aspect ne dépend pas de la direction dans laquelle on l'observe (par exemple son taux d'expansion ne dépend pas de la direction) ». Cette formulation (réductionniste) n'est pas assez rigoureuse car elle ne tient pas compte de la dualité de localité. Cette dernière dit que si toutes les localités sont effectivement identiques, elles sont cependant, très différentes de la non localité (voir chapitre 4, l'expérience de pensée). Mais il faut définir ce qu'est la non localité car elle fait l'objet d'une grande confusion ! Certains l'ont comprise comme étant absolue ! Nous allons montrer au fil de ce livre, que la notion d'absolu est incompatible avec la physique. Elle ne concerne que les nombres. La non localité physique est explicitement relative. Elle exclut la dualité de type {c ↔ }, soit la vitesse de la lumière opposée à une vitesse d'information, infinie. La dualité de localité de l'univers est sous la forme :{c ↔ c0}. Elle remplace l'infini par une vitesse supraluminique finie et limitée à une information d'état (voir intrication plus loin). On montrera comment et pourquoi, la constance de la vitesse c, est régulée par la non localité relative.

Notre science moderne vient d'une part, de la relativité d'Einstein et d'autre part, de l'école de Copenhague via la théorie quantique. Tout s'est tramé au début du siècle dernier. Voici quelques noms des acteurs :  Bell, Bohm, Boltzmann, Niels Bohr, Werner Heisenberg, Pascual Jordan, Max Born, Pauli, Fermi, Planck, Dirac, Pauli, Schrödinger, Compton, Eddington.... Ces deux théories qui donnent chacune quelques succès, ne s'accordent pas. Il y a notamment le côté lisse de l'espace d' Einstein, non conforme au côté granuleux de celui de la théorie quantique. Il manque une clé et on la cherche désespérément depuis près d'un siècle. Nous allons montrer que cette clé se trouve dans le concept de dualité de localité.

Devant certains défis que nous décrirons, les « maîtres » ont prononcé cette phrase inouïe : « il ne faut pas chercher à comprendre ». Ces inventeurs de la théorie quantique – qui par ailleurs donne des résultats indéniables – ont capitulé devant certaines expériences qui semblaient trahir les lois fondamentales de la physique. Par exemple, ne pouvant mesurer le rayon « classique » de l'électron, et ne pouvant mettre en avant une explication, ils ont arbitrairement considéré : a) que ce dernier était nul et b) que la physique classique ne s'appliquait pas à ce niveau. Nous allons montrer que ce sont deux très graves erreurs qui ont mis la physique dans l'impasse dans laquelle elle se trouve aujourd'hui. Certains dont Einstein ont dénoncé cette méthode.

La rigueur à l'époque, semble très aboutie : on réalise des expériences physiques et on cherche à les relier entre elles pour en tirer des lois générales et ce, le plus rigoureusement possible. Pourquoi ais-je employé le mot semble ? Tout simplement parce que cela porte implicitement une spéculation. On décrète que la validité de ces loi est générale. Cette spéculation s'appelle le principe cosmologique. Ce principe fait l'amalgame entre le local et le non local. On sait maintenant que cela n'est vrai que si l'on compare un local lambda à un autre local lambda'. Si toutes les localités sont les mêmes, elles sont chacune très différentes de la non localité. C'est avant tout, une démarche de prudence. Il y a là un facteur d'échelle qui n'a pas été pris en compte.

Il y a notamment les expériences (locales) de création de paires de particules. Pour le moment, nous allons traiter les seules paires proton-antiproton et électron-positron. En injectant de l'énergie au bon niveau (E = m c²) , on sait créer ce type de particules et d'autres. Cette création locale entre matière et antimatière est toujours instable. Les deux entités confrontées s'annihilent toujours. Or on voit que l'univers est rempli de protons et d'électrons – de création non locale – qui sont très stables. Il y a bien une dualité fondamentale de localité. Cette clé est essentielle pour comprendre. Et pourtant, cherchez sur internet, vous ne trouverez que peu de liens pour la locution : « dualité de localité ».


sommaire


3.  La dualité de localité


Cette subtilité est passée à l'as.... Rappelez-vous comme on a du mal avec la dualité en général. Remarquez, on ne peut pas jeter la pierre aux savants du début du siècle dernier car ils ne pouvaient connaître les résultats d'une expérience réalisée dans les années 1980. Sans en donner le détail tout de suite, nous allons dire que cette expérience, réalisée par monsieur ASPECT, n'est toujours pas interprétée correctement par une majorité de la communauté scientifique. Alors vous allez me dire : si eux – champions de mathématique – ne comprennent pas, alors je n'ai aucune chance. Eh bien si, vous allez comprendre.

C'est le même problème que celui qui a fait l'objet de la polémique sur la filiation. En niant la dualité, matheux ou pas, on ne peut comprendre. Je connais tellement de matheux (pauvre privilège de l'âge) qui comprennent mal la physique. Donc cette expérience, hyper importante, à été interprétée à minima comme suit : l'univers est non local. Qu'est-ce que cela veut bien dire ?

Voici un premier jet de l'explication : a) on se débrouille pour mettre deux particules (A, B) dans le même état quantique. Elles sont mariées ou intriquées. En fait, on ne peut connaître que l'état (A, B) mais pas séparément A ou B. Leur état, sensé varier tout le temps, ne peut-être connu qu'après l'opération de mesure. On envoie A et B dans deux directions opposées à une grande distance.

Si on mesure l'état de A, alors « aussitôt » l'état de B est conforme. J'ai mis le terme « aussitôt » entre guillemets car c'est là où tout déraille. Le problème est que l'information de l'état A → B est allée plus vite que la lumière. Messieurs Mermin et Bricmont ont cherché à classer l'état de désarroi de la communauté scientifique. En résumé voici les 5 grands axes d'interprétation :

Tableau 3-1

groupes

argument

contre argument

1

une équation importante dit bien que l'état est conservé mais sans préciser la distance.

oui mais cela n'explique rien puisque cette équation (Schrödinger) le dit par défaut. Elle implique une vitesse infinie !

2

il y a des variables cachées locales qui transportent un message de cohérence entre les deux

non cela a été largement démontré par monsieur BELL pas de variables cachées locales

3

Le temps est inversé et fait remonter l'info

belle spéculation mais qui débouche sur une vitesse infinie !

4

Ce n'est pas important et je regarde ailleurs

c'est facile d'éluder !

5

l'état des particules est porté par la trame d'espace-temps par des tachyons supraluminiques.

Je suis en accord avec cela ! En effet, toutes les autres solutions débouchent sur une vitesse infinie.

Il y a un autre argument qui sera développé dans la suite de ce livre. Il montre sans ambiguïté pourquoi il existe une sous structure supraluminique. De plus non seulement elle ne viole pas la constante de la lumière mais elle la régule. Mais notez bien la folie : Ceux qui rejettent les tachyons qui vont trop vite... acceptent la vitesse infinie issue de leur spéculation (!). Vive la logique.

Il faut bien distinguer les variables cachées locales des variables cachées non locales. Et là encore, on trouve des physiciens qui concluent dans l'amalgame. Ils disent :  « pas de variables cachées donc pas de tachyons ». En ignorant la dualité de localité, ils se privent de comprendre. De toute façon, l'école de Copenhague leur a enseigné : "ne pas chercher à comprendre".

Mais revenons à nos chercheurs de Copenhague. Ils n'ont pas connaissance de cette expérience qui s'est passée bien plus tard. Alors quand monsieur FERMI a constaté que certaines particules ne voulaient pas se condenser (se grouper), ils les a classées dans une famille qu'il a nommée les FERMIONS. Elles n'aiment pas vivre ensemble. Dans le même temps monsieur BOSE a classé d'autres particules appelées BOSONS. Celles-ci au contraire, ne demandent qu'à s'assembler, se condenser. Elles forment même des Condensats de BOSE EINSTEIN, appelés BEC. Ensuite monsieur DIRAC nous a expliqué que l'électron de charge négative possède un élément d'antimatière de charge positive, qui s'appelle positron. S'ils se rencontrent, ils s'annihilent. Leur masse disparaît et l'énergie s'évacue sous la forme de deux photons. Que retient-on de cela ? il est impossible que des paires positron-électrons puissent cohabiter puisqu'ils ne sont pas des bosons. Alors de quoi sont faits les protons ?

C'est là que se situe la grande erreur épistémologique ! Car cela n'est vrai que localement. Alors vous allez me dire pourquoi c'est faux non localement ? Il faut être clair. Oui mais d'abord un petit résumé :

Tableau 3-2

les fermions fondamentaux

création locale

création non locale

proton

créé en injectant de l'énergie mais sont instables

stable et forme tout l'univers

antiproton

?

électron –

créé en injectant de l'énergie mais sont instables

stable

anti électron (positron +)

?

Quand un neutron (neutre) change d'état, il se transforme en un proton de charge +, un électron, un neutrino. Le proton « pèse » 1836,15 électrons et il a la charge d'un positron ! On serait tenté de dire qu'il est fait de paires électron-positrons mais FERMI nous dit que ce n'est pas possible ! Même pas en rêve ! Eh bien si, en rêve ou plutôt en expérience de pensée à la Einstein (voir ci-après).

  • La première question qui vient : le tableau dit que la stabilité est liée à la non localité et que l'instabilité, est liée à localité.

  • La seconde question : n'y aurait t-il pas une congruence entre fermion-boson et localité ? Oui mais là on ignorait la non localité à Copenhague. Mais maintenant on ne l'ignore plus. Oui mais on reste sur nos acquis, il faut arrêter les questions ! Non il n'en est pas question.....

Alors que reste-il de vrai dans la théorie quantique ? Pas de souci, une très grande partie. Mais attention, la dualité de localité va tout chambouler. On voit bien que l'électron est une particule spéciale. Voyons le chapitre suivant.

sommaire

4.  Expérience de pensée sur la dualité de localité 

Les acteurs : Boson → comme une corde formée de 2 tachyons opposés et oscillants d'une manière symétrique, autour d'un point zéro central.

Posons – sans le démontrer pour l'instant – qu'à un moment donné, l'univers était sous forme d'un immense BEC. Rappelez-vous, une condensation de bosons. C'est une grande bulle formée de bosons primitifs. Que sont ces bosons ? Il sont des oscillateurs duaux (sic) formés de deux tachyons opposés. Nous allons admettre provisoirement qu'ils oscillent autour d'un point zéro commun situé au centre la bulle. Je vous rassure nous verrons comment arrive cette bulle et ce, d'une manière très détaillée avec des lois physiques bien connues. A l'approche du point zéro, les tachyons repartent de plus belle vers la périphérie de la bulle. Ils ralentissent puis retournent au point zéro où les deux masses tendent vers zéro. C'est justement ce qui leur donne des "fourmis dans les jambes", i.e. une nouvelle impulsion, les éloignant à nouveau. leur charge électique les maintient attachés, comme un ressort. Ils gardent tous la même amplitude et c'est ce qui forme le rayon du la bulle-BEC. Ils sont très nombreux et forment des couches successives qui se croisent. Des forces électriques transverses les tiennent parfaitement à distance et les intervalles sont conservés. Cet ensemble forme une trame qui matérialise l'espace-temps. On montrera en son temps,  pourquoi et comment ce BEC s'enrichit tellement de bosons, arrive forcément à saturation. Cela veut dire que les intervalles se réduisent tellement que les tachyons voisins (localement) se superposent.

Catastrophe ! les masses s'additionnent tandis que les charges s'annulent (par masquage). Les charges étaient les « ressorts de rappel » qui maintenaient ensemble les tachyons dans les bosons oscillants. La brisure de symétrie (ressorts cassés)  se traduit par une brisure de localité. Le lien interne entre chaque tachyon passe de local étendu à non local. La nouvelle localité est celle, active entre voisins.

Que se passe-t-il localement ? les tachyons voisins (+ et –) s'attirent mais ne s'annihilent pas. Pourquoi ? Parce que cela ne peut se produire qu'avec leur alter ego à l'opposé, dont ils sont séparés. Donc, localement, ils ne « voient » plus leur alter ego, chacun situé à l'opposé. Ils se comportent alors (entre voisins) comme des bosons. En fait on montrera précisément (avec les lois connues) pourquoi la séparation des tachyons les transforment en électron-positrons. On note en passant que seuls les tachyons de la première couche (première à être saturée) se transforment en matière. Les autres – ultra majoritaires, – continuent de matérialiser l'espace-temps. Il n'y a qu'une seule source à toutes choses. Ah oui mais où est la dualité ? Elle s'exprime toujours et encore dans l'oscillateur boson dual, formé de deux tachyons opposés. On verra plus tard que le quantum du « rien » est un boson dual où masse, espace, temps, s'annulent strictement. Mais à ce stade stochastique, rien n'est encore synchronisé.... C'est en cours..... L'entropie va décroître.... On verra les détails plus loin.

Figure 4-1 La séparation des tachyons formant les bosons oscillateurs, revient à briser la localité à grande échelle. Elle se divise donc en autant de localités réduites (entre voisins). Les tachyons (+ et –) voisins se comportent alors comme des bosons et peuvent se condenser sans s'annihiler. Ils deviennent des paires électron-positrons. Si les opposés (angle 180°) venaient à se rencontrer, il y aurait annihilation complète de chaque paire (100%). Mais si la rencontre concernait des paires dont l'angle relatif est par exemple de 18°, alors les paires concernées seraient annihilées chacune à 10 %. Les 90 % restants seraient alors dégénérés. C'est la  perte du quantum électron. Une sorte de gravats incapable de servir de brique élémentaire pour construire des atomes bien visibles.... On devine déjà la cause de la matière noire....A voir plus loin...  En plus, on résout l'immense problème de la non symétrie apparente de l'univers.... On verra qu'en fait, cela résout plus de 20 grandes énigmes, directement, en suivant juste les lois  de la physique.         

Et voilà FERMI n'avait pas pu voir cela : la dichotomie boson-fermion n'est valable que localement. Séparés de leur alter ego, les positrons et électrons voisins, se comportent comme des bosons. Ils s'associent. Ils forment les protons [1].

Mais cette expérience de pensée n'ayant pas été faite, la dualité de localité a été éludée. Alors, contraint et forcé, on a imaginé un proton, comme un être mathématique qui répondait à une certaine façon de s'associer en éléments plus lourds (Monsieur Gell-Mann). Cela a mené à la découverte des quarks de charges, 1/2, 2/3. L'observation scrupuleuse et le génie de Gell-Mann a permis de les prévoir. Ensuite, on les a effectivement mesurés. Problèmes : a) leur masse est beaucoup trop faible pour expliquer celle du proton ; b) d'où sortent-t-ils ? On s'en fout ! Pas moi.

Les quarks ne sont stables que s'ils sont confinés. Dès qu'on essaie de les isoler ils disparaissent très vite. Il vient de suite qu'ils sont induits....et non constitutifs. Là encore on a confondu la cause avec l'effet. Le mode de construction des atomes lourds amène à penser que des quarks de charge 1/3, 2/3, existent au sein des protons. On ne s'est pas posé la question : sont-ils induits où constitutifs ? Comme on avait rien à se mettre sous la dent, on a sauté sur la deuxième solution.

sommaire

5.  Le proton, objet physique ou être mathématique ?

Nous avons vu les avantages et les inconvénients de la méthode purement réductionniste. Elle ne cherche pas les causes et s'attache seulement aux effets. Ainsi en 1920, Rutherford découvre le proton en utilisant une chambre à brouillard. La technique est la suivante : on provoque des collisions et on observe les effets. Ces derniers sont toujours sous forme de trajectoire dont la courbure trahit les paramètres physiques de la particule étudiée. On s'aperçut que les assemblages de protons et neutrons formaient l'ensemble des atomes de la matière. Cependant on avait remarqué que les protons, neutrons et leurs assemblages, ne réagissaient pas comme l'électron. A une certaine distance du noyau, on détectait un seuil où apparaissait une force plus grande que celle attendue de l'électromagnétisme.

On l'appela force forte.

Les particules ayant cette force forte, furent appelées hadrons. Les autres, comme l'électron ou le muon, furent nommées lepton. Des hadrons peuvent être FERMIONS ou BOSONS alors que les leptons ne peuvent qu'être FERMION. La méthode réductionniste consiste à observer les effets et de les classer par famille. Dans ce but, en 1961, Gell-Mann proposa de classer les particules selon la théorie mathématique des groupes. Cette théorie est intéressante car elle est motivée par le concept de symétrie appliqué aux nombres. Or ce concept de symétrie est essentiel en physique. Il est même une des clés de la physique et donc de l'univers. Rappelez-vous nos bosons-2 tachyons. Ils sont classés selon la symétrie C2. Il s'agit de deux éléments engendrés par une symétrie centrale. Mais attention, il ne s'agit que de nombre. En observant la famille des éléments périodiques (tous les atomes), Gell-Mann a remarqué que son organisation ressemblait à un certain groupe de symétrie, appelé SU(3).

En suivant ce chemin, il a trouvé qu'une certaine combinaison, permettait de retrouver toutes les autres. Il a inventé des « briques de symétrie » qu'il a appelé quarks. Cette théorie met en avant le nombre magique, huit. En bombardant les noyaux, on a effectivement détecté trois petits « points durs » au sein des hadrons. Pour que cela fonctionne bien, ces « briques de symétrie » devaient présenter des combinaisons de charges électriques selon : (–1/3, +2/3) de la charge élémentaire de l'électron. Par exemple : –1/3 + 2(2/3) = + 1 pour le proton et : +2/3 + 2(–1/3) = 0 pour le neutron. Cela marche pour tous les hadrons, c'est un triomphe. Vraiment ? Le proton est-il un être mathématique ? Est-il utile de s'intéresser aux causes de cet objet physique ? Est-il constitué de quarks ou ces derniers sont justes induits par une loi physique ? Pourquoi cela ne marche-t-il pas pour les leptons ? Répondez Gell-Mann, les gens veulent savoir !

Donc messieurs Fermi et Gell-Mann, nous ont interdit de voir les protons (et neutrons) comme étant composés de paires électron-positrons. Tout paraît leur donner raison. Sauf l'essentiel, le principe du rasoir d’Ockham. Ce principe stipule qu'une bonne théorie doit apporter de la simplicité (mais pas du simplisme). Or ici c'est la complexité qui est au rendez-vous ; a) on compte plusieurs dizaines de types de particules « élémentaires » ; b) on ne dit pas comment sont créés les quarks ; c) on invente un autre être mathématique, le « gluon » pour « expliquer » la force forte ; d) on aboutit à un univers totalement asymétrique (pas d'antimatière). Ces conclusions sont totalement inacceptables ! L'univers est parfaitement symétrique, c'est sa première règle. Ainsi, le modèle mathématique du proton, serait fait de 8 gluons (bosons) couplés avec 3 quarks. Les gluons seraient de masse nulle et les quarks ne « pèsent » moins de 2 % de la masse du proton. Les gluons (!) colleraient les éléments constitutifs du proton mais on ne sait pas comment ni pourquoi.

On a soulevé le problème de la masse du proton et il faut en parler. Monsieur Higgs a considéré que le « vide » possédait un « champ » de type scalaire (isotrope où invariant avec la direction) qui donnerait de la masse aux particules. Comme tous les échanges avec le « vide » il faut un boson vecteur. On sait déjà qu'un neutron devenant proton, libère un électron + neutrino. Il laisse apparaître furtivement une particule lourde le boson de jauge W. En passant, il vaudrait mieux donner un nom honnête à ce « vide » qui ne l'est pas. Nous sommes quelques uns à l'appeler le subquantique. De plus tous les champs sont portés par une trame d'espace-temps, faite de boson-2-tachyons. (Voir la non localité limitée de l'intrication).

Analogie : une pierre jetée dans l'eau forme un creux furtif (boson W) puis apparaissent des ondes concentriques qui répartissent graduellement l'énergie du creux, à toute l'étendue de l'eau. Il faut savoir que la masse du neutron est plus grande que celle du proton et l'électron. Le neutrino est sensé représenter cette différence. Attention, cette analogie a ses limites. Monsieur Higgs a pensé que la masse du proton pouvait provenir de ce champ. Lequel ? Celui de création locale ou celui de création non locale (stable) ?  Il ne le précise pas car il n'a pas réalisé l'importance cruciale du critère de localité. Comme tout champ, il se traduit par une certaine résonance, matérialisée par un boson vecteur. C'est donc bien le boson de Higgs. Théoriquement, on avait aucune idée de sa masse. Mais en bombardant des particules dans les collisionneurs, on a pu voir des « résonances » qui signaient une certaine masse pour le Higgs entre deux valeurs floues, dans un premier temps.

Compte tenu de la somme des résultats déjà acquis, on a pu ensuite, situer le boson de Higgs entre deux bornes autour de : 125 GeV. C'est quoi GeV ? On a G, comme giga ou milliard ou 9 zéros soit 1 suivi de 9 zéros, soit « 10 puissance 9 » soit : 109 ; ensuite on a : eV, comme électron volt. C'est juste l'énergie : me, divisée par la charge élémentaire de l'électron, e.* Alors on a triomphé lorsque l'on a mesuré un « pic » situé à 125 GeV. Cette valeur n'était prévue qu'en rapport avec la somme des essais précédents. Alors existe-t-il vraiment ? La réponse est oui. Est-ce lui qui donne la masse au proton ? Quel proton ? Celui instable de création locale ou celui stable formant la matière visible de l'univers ? C'est là que le bât blesse ! Cette différence fondamentale entre particule stable (création non locale) et particule instable (création locale), est totalement ignorée. On n'explique toujours pas la masse du proton stable.

* exprimé en coulomb, cette charge est l'unité de l'électron. Cette unité, électron-volt (eV), est pratique pour l'expérimentateur. Mais il serait plus pragmatique de parler en nombre sans dimension, exprimé en unité électron. Par exemple l'électron qui fait 511 000 eV, devrait plutôt représenter l'unité. Ainsi un proton fait 1836,15, un muon fait 206,76 unités électron. L'électron est l'unité naturelle de masse, espace, temps, [M, L, T] de l'univers. Cette unité est dérivée du tachyon. 

sommaire


6. L'univers vu par ses dimensions physiques 

Le néophyte est souvent rebuté – outre les équations mathématiques – par la signification des paramètres physiques. Nous allons voir les combinaisons que l'on peut faire avec les 4 acteurs principaux de la physique. Dans le concept des dimensions, on ne s'occupe pas des nombres qui ajustent les relations. On ne s'occupe que de la cohérence du jeu de construction. Ces 4 acteurs de la physique sont un peu comme les 4 nucléotides (A, C, G, T) de l'ADN. Avec ce simple alphabet de base, l'ADN contient des milliards d'informations. En physique fondamentale, les bases s'appellent [M, L, T, Q] pour masse, longueur, temps et charge. La mise entre crochets, précise qu'il s'agit de dimensions sans chiffrement. Dans cette démarche, on ne regarde que la cohérence des combinaisons des 4 acteurs.

A quoi ça sert ? Déjà cela simplifie grandement les relations physiques. De plus, cela permet de vérifier facilement la cohérence d'une relation. Par exemple on sait qu'une vitesse est le résultat d'une longueur divisée par un temps [L / T]. Si dans une combinaison on attend une vitesse et que l'on aboutit par exemple, à [L T] alors on sait qu'il y a une erreur. Regardons de plus près les 4 acteurs de base. Il y a d'abord la masse dont la dimension s'écrit [M]. La masse est une notion d'inertie. C'est d'ailleurs comme cela qu'on peut la mesurer. Quel est le dual de l'inertie [M] ? C'est l'accélération. Plus un corps est difficile à accélérer, plus il est inerte. Mais nous allons montrer que tout ce qui est quantique ou subquantique, est sous forme d'oscillateur. Or un oscillateur ne fait qu'accélérer et freiner d'autant plus que sa fréquence est élevée. Ainsi, dans ce cadre, le dual de l'inertie est la fréquence. Elle s'exprime par l'inverse du temps [1 / T]. Plus la fréquence est élevée moins le temps de cycle est grand. Une petite précision : la forme [1 / T] se simplifie en [T–1].

Ensuite nous avons la longueur [L]. Dans le cadre de l'oscillateur à une dimension ou 1D, on l'appelle l'amplitude spatiale. Dans l'oscillateur, la masse et l'amplitude, sont intimement liées. Cependant il nous faut bien distinguer l'oscillateur macroscopique, telle que la corde de guitare, d'un oscillateur quantique. Par exemple, pour une guitare, plus la masse et la longueur d'une corde sont grandes, plus la note est grave. On peut régler artificiellement la longueur ou changer la masse et la qualité de la corde à volonté. Tandis que l'oscillateur électron, ne s'ajuste pas. Son harmonie implique des paramètres bien précis et constants. Pour la corde de guitare, on a besoin de voir ce tableau :

Tableau 6-1

paramètres

commentaires

M

L

T

vitesse, v

longueur/temps = l / t


1

1–1

accélération, g

longueur/temps² = l / t²


1

12

masse linéique, d

masse/longueur = m / l

1

11


impulsion, p

masse × longueur / temps = m l / t

1

1

11

force, F

masse × accélération = m g

1

1

1–2

raideur, K

force / longueur = F / l

1


1–2

Quand on achète un câble, on doit stipuler sa masse linéique, sa force et sa raideur.


Q
uand on cherche la qualité d'une corde de guitare (ou d'un câble de téléphérique) on regarde sa masse linéique (d = masse par mètre) et sa force par mètre soit sa raideur, K. On voit bien que le temps d'un cycle est augmenté par la longueur et la masse. Donc le temps est proportionnel à : longueur × masse/mètre, soit M. En revanche, la raideur K est de nature à diminuer le temps d'un cycle. Il faut donc diviser par la raideur K. On a : d × longueur / K = [M] / [M T2] = [T2]. On voit de suite que le dual de la masse est la fréquence (élevée au carré). La raideur exprime cette dualité [M T2]. On a bien la notion d'inertie qui s'oppose à toute variation (la fréquence au carré). La raideur qualifie un ressort ou un oscillateur. Avec le tableau 6-1, on peut même savoir de quoi dépend la vitesse de propagation de l'onde, dans la corde de guitare. On voit de suite que si la « mollesse » n'est pas un facteur de rapidité, la raideur en est un. La masse est de nature à ralentir. On a donc un début de solution : K / masse ou raideur sur inertie. Mais on voit bien que la vitesse [L / T] exige une notion de longueur [L]. Si on fait [M / T²] × [L²] / [M], les deux masses s'annulent et on obtient bien le carré d'une vitesse : [L² / T²]. On peut également simplifier en mettant la force F, en écrivant : v² = F l / d. Les combinaisons des dimensions physiques, sont un aide précieuse pour comprendre la physique. On peut mesurer le temps d'un cycle sur un long câble tendu. Vous posez : = M L/ F avec M la masse du câble et F la tension. Admettons que vous connaissiez la tension F (en Newton) et que vous mesuriez (aller-retour de l'onde). Il suffit de produire un choc sur le câble et mesurer le temps du retour de l'onde (le choc est renvoyé par l'appui de l'autre extrémité). Ainsi vous pourrez calculer la masse. Si vous connaissez la masse par mètre (catalogue) et la tension, alors vous aurez la longueur de la portée [L].  

sommaire


7. L'oscillateur dual quantique

Parlons maintenant de l'oscillateur dual quantique. Nos anciens de l'école de Copenhague, ont dit que l'équivalent électrique de la raideur mécanique, est lié à la charge Q. Ils ont écrit : Q² = f [M L] et plus précisément : = f(me ƛe). Ainsi Q² = Q × Q indique l'influence de deux charges en vis à vis. S'il y a deux charges alors l'oscillateur devrait-être dual.... comme le boson-2-tachyons. Nos anciens ont dit que l'harmonie n'est atteinte que si la « raideur » électrique, est adaptée à [M L]. C'est différent de la corde de guitare dont la notion de temps est déjà inscrite dans la raideur K = [M / T²]. L'oscillateur électron, ne peut que s'adapter à : = f [M L]. Dont acte ! La charge élémentaire, e est bien historiquement, déterminée par les seuls paramètres de l'électron : = f(me ƛe). Cette évidence est pourtant souvent niée, voir ici où l'on dit : « La charge élémentaire est, en physique, la charge électrique d'un proton ou, de façon équivalente, l'opposé de la charge électrique d'un électron. Elle est notée e »Cette tournure de phrase est typiquement faite pour banaliser le rôle crucial de l'électron. Nous allons voir que ce n'est pas la seule tentative de banalisation.

Nos éclaireurs du siècle dernier, avaient compris que l'énergie de masse de l'électron (E = m c²) doit-être équivalente à son énergie électrique. Nous ne faisons pas d'équation ici mais sachez qu'ils attendaient la même énergie avec : E = f(e²/ro). Mais catastrophe (!), ce rayon ro dit « rayon classique », ne se mesure pas ! La belle symétrie ne semble pas au rendez-vous ! La démarche réductionniste est mise en échec par la non égalité apparente, entre l'énergie massique (le fameux m c²) et l'énergie électrique. La crise est sévère ! Alors, faute de mieux, on a déclaré : « il ne faut pas chercher à comprendre le mystère quantique.....» . On prête même à Paul Dirac, cette déclaration « Shut up and calculate ! », soit « ferme-la et calcule » ! Mais le modèle Oscar a-t-il une explication à ce grave manquement à la symétrie ? Oui et nous verrons qu'avec l'approche duale {holisme + réductionnisme}, la réponse devient évidente. Sur le BEC fossile, le rayon ro est juste l'intervalle élémentaire avant l'annihilation du facteur (1D) = 137,035999.... Après annihilation, cet intervalle devient le fameux ƛe , que l'on sait mesurer. Autrement dit, cette belle symétrie, initialement liée au rayon ro, est maintenant liée à ƛe . Le lien [2] le confirme par une relation bien connue.

Devant cet échec, on s'est réfugié dans le mystique en concluant : « les lois de la physique des particules, sont impénétrables..... ». A très petite échelle, la physique classique n'est plus continue. Elle est quantifiée pour toutes les particules. Et monsieur Planck de proposer sa constante de Planck, ħ. Elle convient tellement à toutes les particules, qu'on en a « oublié » son origine. elle vient du seul électron, tout comme la charge élémentaire ! Elle est donnée par : ħ = me c ƛe. Alors on s'est juste persuadé qu'elle pourrait aussi venir du proton. Mais ce n'est pas vérifié du tout ! (on verra même qu'en cherchant cela, on confirme la composition du proton en paire électron-positrons). On assiste alors à un tour de passe-passe incroyable ! On a deux éléments contradictoires :

a) la charge élémentaire, e et la constante ħ, représentent la brique élémentaire de toutes les particules.

b) leur source est vérifiée comme étant l'électron mais cela semble interdit par Gell-Mann et Fermi.

Que faire ? On a carrément éludé la source électron.

Et l'oscillateur dual dans tout ça ? Il est la clé pour passer de « rien » à « tout » ! On a éludé l'électron comme brique élémentaire alors qu'il est en plus, l'aboutissement du tachyon. Revenons à notre expérience de pensée et à notre BEC fossile. On a vu qu'il était composé d'oscillateurs appelés boson-2-tachyons. La belle loi de symétrie est là dans sa plus simple expression. Deux tachyons – confinés dans le boson – s'annulent parfaitement dans le référentiel boson ! Et oui, il n'y a pas d'espace, pas de temps, pas de masse, il n'y a rien ! Attention ce « rien » n'est pas une valeur absolue. Il est « rien » dans le référentiel boson. En revanche, dans chacun des référentiels tachyons, [M , L , T] sont bien présents. Cela veut dire qu'ils possèdent les ingrédients pour osciller mais que rien ne « transpire » à l'extérieur. Ce boson-2-tachyons est la seule représentation du zéro physique. Tant que la saturation n'a pas eu lieu, le BEC-fossile, composé de ces bosons, est fantomatique. Avec les simples notions de dualité, confinement et référentiel, nous venons d'entrevoir ce qu'est le « rien » fondamental. Mais il reste la question cruciale : d'où viennent ces bosons, la cause profonde ? Nous allons répondre avec tous les détails souhaitables. Mais avant, il nous faut comprendre quelques points sur les erreurs épistémologiques de la physique fondamentale.

La clé de l'oscillateur dual est fondamentale. Il existe une égalité physique mal connue:  me ƛe = mP lP = ħ / c. Elle compare l'électron avec les unités de Planck [ML] (dont on reparlera en détail) Elle est très importante, pour les raisons suivantes :

  1. elle est précise (ħ/c) ;

  2. elle confère un rôle central à l'électron ;

  3. elle indique que le produit [M.L] est constant ;

  4. elle implique que [M.L] est indivisible ;

  5. elle est cohérente avec un mode oscillateur 1D, dans le cadre de la dualité onde-corpuscule ;

  6. elle peut se voir comme un moment d'inertie en 1D ;

  7. la partie [L] du moment [M.L], est vectorielle.

Ainsi les deux groupes en opposition peuvent s'annuler grâce au caractère vectoriel de [L]. Par ailleurs, si M → 0 alors L → .

.

.

8. Les graves renoncements de l'école de Copenhague

Résumons la situation. La charge élémentaire universelle (e) est objectivement, issue de l'électron. Le rayon classique de l'électron (non mesurable aujourd'hui), provoque la grave crise de symétrie. Monsieur Planck sort sa fameuse constante ħ = me c ƛe, fonction de l'électron. Son côté pratique fait totalement oublier que son universalité vient de sa source électron. D'autant que Fermi et Gell-Mann, interdisent l'électron comme quanta ou brique élémentaire du proton. Le refus de la dualité {réductionnisme-holisme} prive nos anciens de comprendre ces point essentiels :

a) l'évolution du rayon classique vers le rayon de Compton, via l'annihilation sur le BEC-fossile,

b) la loi de Fermi est strictement locale,

cl'annihilation originelle est parfaitement symétrique,

d) la non localité – non absolue – induit une dualité de vitesse finie, de propagation.

Ce dernier point, implique l'existence d'une vitesse supraluminique non infinie et donc, l'existence des tachyons. Il résout également la crise de l'inflation. On a sorti cette spéculation car on a remarqué que la température de l'univers était homogène. On en a déduit que l'ensemble de l'univers a été un moment, en contact direct, puis s'est étiré d'un coup, comme par magie ! Et pourtant, en faisant la simple expérience de pensée (chapitre 4), on évite cette transgression heuristique en découvrant la simple dualité de localité. Encore une fois, on se voile la face en croyant que la rigueur puisse être atteinte par la seule voie réductionniste. Par définition, elle ne traite la grande échelle qu'à coup de spéculations.

La voie du monisme est tellement ancrée dans le genre humain, que l'on a rejeté la dualité. On s'est détourné des objets physiques du réel, pour se jeter éperdument dans la construction d'êtres mathématiques. Ces derniers, manipulables à souhait, ont permis néanmoins de décrire les expériences et même de faire quelques prédictions. Les empiristes se sont gargarisés de ces quelques prédictions en déclarant que la prédiction est le Graal du physicien. A l'époque les protestations des réalistes (comme Einstein) n'avaient guère de portée car personne ne mettait en doute la validité de l'expérimentation locale. La dualité de localité n'était même pas évoquée.

Revenons sur l'affirmation : prédictions Graal. Passons sur l'aspect mystique, guère seyant au physicien. La mathématique est très douée pour décrire correctement les expériences et les liens logiques entre les différents effets. Il est donc normal qu'elle puisse aboutir quelques fois, à des prédictions. Mais il arrive souvent que les effets mesurés soient confondus avec les causes. Exemple : Monsieur Gell-Mann constate avec raison, une loi de construction des particules amenant sur la piste des quarks. A ce stade on doit se poser la question : est-ce un effet ou une cause ? Homme occidental, dominant, qu'as-tu choisi ? Et bien comme d'habitude, l'effet. Alors la cause qui induit les quarks est passée à l'as. Cela ressemble à la médecine occidentale : on a beau dire depuis des siècles, qu'il faut soigner les causes et dans la pratique, on s'occupe surtout des effets ! Chassez le naturel et il revient au galop...

Ces quelques prédictions sont émaillées d'apparitions de nouvelles énigmes et de plus de 18 paramètres libres. C'est quoi un paramètre libre ? Ce sont des nombres, posés de manière heuristique, pour combler les trous d'incompréhension. Chaque fois que les résultats démentent ce que l'on attend, on s'arrange avec un nombre opportun qui permet de « résoudre » à tout prix. La déraisonnable efficacité des mathématiques, règne depuis l'école de Copenhague, en contournant certaines lois fondamentales de la physique. Gell-Mann a proposé les quarks comme composants des protons, en éludant le fait qu'ils pouvaient être induits. Cet « oubli » est d'autant plus suspect que les quarks refusent de rester stables, lorsque l'on cherche désespérément à les isoler. Tout ce que l'on peut mesurer va dans le sens de l'induction des quarks. Le présent modèle montre comment nait l'induction des quarks et ce, en accord avec les observations.


Alors la théorie quantique est entièrement fausse ? Non elle manque juste de perspective concernant la dualité de localité. Par exemple le grand mathématicien Newton, a posé une loi simple sur la force qui attire deux masses, la gravitation : F = G m1 m2 / r². Cette loi est assez vraie mais sa validité est typiquement locale. Elle ne prévoit pas que l'information de l'influence des masses puissent être limitée par la vitesse de la lumière. Son incomplétude porte en elle une notion d'infini. Tous les grands mathématiciens qui ont suivi cette découverte, n'ont pas vu ce défaut. Il convient de garder en tête que l'objet univers, n'est pas une abstraction, mais du domaine du réel physique.

Ensuite Einstein a revu la loi de Newton à l'aulne de la limite c. Là aussi on a oublié de prendre en compte, la localité. Il n'a pas fait état des limites du domaine de validité. Pire ! Par la suite, on a construit un modèle d'univers où la cause de sa matérialité a été attribuée à la gravitation ! Il y a encore des physiciens qui croient (sic) que des équations mathématiques ont construit l'univers. Nous montrerons que la gravitation est un effet et non pas une cause. Cependant la vue d'Einstein est bien plus réaliste que celle de Copenhague. Elle tient compte d'une propagation finie de l'effet gravitationnel. Elle dit avec raison, qu'une densité d'énergie, courbe l'espace-temps. Ce dernier concept dit qu'en plus des 3 dimensions (x, y, z) il faut rajouter une longueur sous forme de c t. En terme de dimension physique, on voit de suite que [L/T] × [T] = [L]. En revanche, elle ne dit rien sur l'aspect physique de la trame de l'espace-temps. Einstein a cependant toujours dit que son analyse des effets, ne doit pas être confondu avec les causes de la gravitation. Sur ce point, il n'a pas été écouté. Cachez ces causes que je ne saurais voir !

Alors vous allez me dire : « quelle est la cause de la limite : c = 300 000 km/s ? » Vous êtes sûr que vous me posez cette question ? Ah bon car personne ne se la pose (mis à part Einstein). Nous allons aborder cela dans le détail fouillé du fonctionnement du BEC. En attendant, la capacité analytique des mathématiques a permis notamment, la construction d'une importante équation (Schrödinger). Elle décrit ce que l'on appelle la réduction du paquet d'ondes. Elle décrit ce qui se passe lors de l'opération de mesure de l'état d'une ou plusieurs particules. Une analogie peut approcher le problème : soit les ondes concentriques générées par un caillou lancé dans l'eau. Dans cet état (onde), elles sont réputées être « partout à la fois ». Ainsi, l'opération de mesure, reviendrait à ramener cet « éparpillement » à l'impact du caillou qui a produit ces ondes. Cela paraît fou mais nous verrons que dans le cadre du BEC (là où tout se joue), cela est possible. Pourquoi ? Bon déjà l'analogie est limitée car elle suppose que les ondes (les rides sur l'eau) s'éloignent continûment. Dans la réalité des oscillateurs-tachyons du BEC, ces ondes partent et reviennent (donc oscillent) et la mesure se fait toujours dans le centre de symétrie. Attention, ce centre est mobile alors que dans l'analogie, l'impact du caillou est figé au centre.

Mais cette belle équation est tout aussi incomplète que celle de Newton ! Comme d'habitude ces concepteurs ont ignoré la localité. Cette équation ne précise pas la vitesse de propagation de l'information. Mais certains physiciens profitent de cette incomplétude pour croire (sic) que l'opération se fait à vitesse infinie ! Quelle folie ! Il existe enfin, une autre équation, liée à relativité générale. Elle construit un facteur (gamma : γ) d'étirement du temps ou de la masse quand la vitesse v, d'une particule massique, s'approche de la vitesse limite, c. Elle s'écrit : γ = 1/(1 – v²/c²)1/2. Dans laquelle on voit que si (v² / c² =1), on obtient zéro au dénominateur et donc un taux d'étirement infini ! Cette relation est exacte mais il lui manque juste une limite physique bien précise. On en reparlera.

Conclusion épistémologique : L'école de Copenhague, foncièrement réductionniste, a ignoré la dualité de localité. Ses disciples ont été choqués par l'expérience de monsieur ASPECT, dans les années 80. Ils sont médusés par celle, récente, des chinois, qui mesurent une vitesse non infinie entre deux événements de non localité.

Tableau 8-1

points divergents

modèle standard

modèle oscar

dualisme

peu évoqué

la clé universelle

dualité de localité

non localité avec propagation instantanée.

la non localité possède une propagation supraluminique mais limitée

ratio : Coulomb / Grave

Compare l'électron avec le proton, 1836 fois plus massique. (vélo contre camion)

compare l'électron avec le positron qui est en tout point symétrique

Force Gravitationnelle de Newton

accepte l'éventualité de l'instantanéité entre deux masses distantes

propagation strictement limitée à c

intrication des états

accepte l'instantanéité de l'information

A → B

information A → B donnée par tachyons supraluminique mais à vitesse limitée

coefficient relativiste

γ = 1/(1 – v²/c²)1/2

relation qui accepte l'infinie

si : v = c

relation exacte mais avec la limite ξ

(vérifiée avec les rayons cosmiques)

rayon mini de l'électron

accepte l'augure de : r = 0

longueur de Compton / ξ

notion d'infini

est acceptée en physique

ne concerne que les nombres

dichotomie fermion-boson

sans critère de localité

non localement, tout est boson

proton (composite)

pas de véritable modèle physique

car pas de dichotomie de localité

non localement stable et condensat de paires électron-positrons

masse de Planck (mP)

simple argument dimensionnel

vaut ξ² masses d'électron

constante de Planck (ħ)

source universelle non définie

représentant l'électron qui est universel

La dualité onde/corpuscule, base importante de la théorie quantique, est une réminiscence du boson-2-tachyons qui est à la base de tout. La quantification de l'univers est donnée par ħ dont l'électron est le seul représentant. Le ratio Colomb / grave est donné dans la relation [2].

sommaire


9. Premier aperçu du « rien » dual

Sur la base de ce que nous avons vu au chapitre 4, nous allons découvrir l'extraordinaire pouvoir de la dualité, dans son plus simple appareil. Les boson-2-tachyons (1D) matérialisent le BEC (sphérique) originel. On a dit qu'ils étaient tous synchronisés. Ils quittent le point zéro commun par couches entières pour revenir ensuite et repartir. Bref, ils oscillent de concert. Premières questions : pourquoi sont-ils synchronisés ? D'où sortent-t-ils ? Combien sont-ils ? Toutes ces questions sont légitimes. Il faut d'abord bien comprendre ce qu'est un boson-2-tachyons 1D. Une notion essentielle à intégrer est celle du confinement et du référentiel. Les deux tachyons existent réellement, mais chacun dans son référentiel. Mais étant liés par leurs charges électriques, ils s'annulent parfaitement. Donc dans les référentiels « tachyon » on a [M L T Q] et [M' L' T' Q']. Mais dans le référentiel boson, la somme des deux, s'annule parfaitement. D'accord, on obtient un zéro parfait mais pourquoi ne pas prendre un zéro absolu tout simple ? Parce que toutes les lois physiques nous disent que tendre vers zéro provoque l'infini. On appelle cela la dispersion. Mrs Heisenberg dit que si une valeur de position (x) tend vers zéro alors l'impulsion (p) tend vers l'infini ! Rappelons-nous (tableau 6-1) l'impulsion s'écrit [M L/T] . Cette loi incontournable pose cependant un problème. Si on raisonne en oscillateur simple, alors d'où sortirait l'impulsion [M L/T]? Du chapeau d'un magicien ? On voit de suite que la seule solution est duale. Matière et antimatière peuvent exister mais à la condition expresse qu'elles s'annulent dans le référentiel boson.

On obtient un véritable « rien » physique mais il se pose un autre problème... Qui a fixé la période bien précise de ces oscillateurs ? Qui a fixé les valeurs précises de M, L T ? Pire ! Qui a fixé leur nombre ? C'est là qu'intervient la notion de dualité des états de l'univers. Avant d'avoir un BEC bien synchronisé, bien sphérique, il existe un état d'univers totalement anarchique ! On l'appelle l'état stochastique. Le point commun qu'il a avec le BEC fossile, est l'annulation stricte de [M L T]. La notion de dispersion vue plus haut, dit que si la position x tend vers 0, alors on tend vers une infinité d'impulsions possibles. Cette loi nous dit clairement que le zéro physique est dual. Il est fait de deux impulsions contraires. Le spectre de leur valeurs possibles, est infini. Or la dimension de l'impulsion [M L/T] comporte bien les 3 mousquetaires de la physique. Au chapitre 7 on a vu que  Q = f(ML). Donc on a bien de quoi osciller [M L/T] dans le référentiel tachyon, tout en garantissant un vrai zéro, dans le référentiel boson-2-tachyons.


référentiel tachyon (+)

référentiel boson-2-tachyons  (0)

référentiel tachyon (–)

+ [M L/T]                     → Q+

0

Q ←            – [M L/T]

La loi de dispersion indique que le zéro absolu est interdit car tendre vers zéro, revient à créer un potentiel infini de deux impulsions contraires dont la somme est un zéro relatif. L'interaction des deux charges (Q), est le lien qui attache les deux belligérants. Ce lien est la garantie d'une énergie strictement nulle. Il n'y a pas de banque occulte d'énergie.

Cela veut dire plusieurs choses : a) seuls les zéros relatifs élémentaires, sont autorisés ; b) donc chaque zéro potentiel élémentaire, génère un oscillateur dont l'impulsion est différente ; c) comme l'espace, le temps, et la masse, sont annulés (boson du zéro), chacun évolue dans son « monde fantôme » (le référentiel boson). Ils ne sont pas connectés entre eux. Combien sont-ils ? Déjà on peut dire qu'ils sont indénombrables. Mais peuvent-ils être en nombre infini ? La réponse est dans la question ! Si ce sont des nombres sans matérialité et donc [M L T] = 0, alors oui, on a le droit de parler d'infini. D'ailleurs, c'est la seule solution, puisque on ne peut définir une limite. L'infini des zéros, oui mais surtout pas l'infini des paramètres physiques. Qui aurait payé l'addition ?

Mais à quoi ressemble l'espace-temps à ce stade ? A rien ! Les zéros fluctuant restent à zéro et ne sont pas connectés. Chaque espace 1D est annulé mais l'ensemble forme un espace virtuel indéfini. On a un monde de zéros invisibles qui grouillent et ce, sans écoulement du temps. Dans le BEC limité, sphérique et synchronisé qui sera formé, l'espace est virtuellement en 3D. On a même une constante de temps, source de la quatrième dimension, avec sa vitesse limitée. Mais dans le stade stochastique, l'empilement virtuel est infini et il n'y a donc pas de centre. Imaginer un déplacement, d'un point zéro à un autre est impossible car la géométrie 3D est en devenir. L'entropie de désordre est à son maximum.

Mais de quoi sont faits ces doubles tachyons qui s'annulent ? D'où vient la masse ? Attention, cette dernière question est biaisée. En effet, nous avons entrevue l'idée que le produit [M L] était initialement indissociable. Il est constant pour les particules : a) de Planck ; b) de l'électron ; c) du tachyon ; d) des leptons ; d) du proton (sous certaines conditions de groupe). Cela veut dire que la notion de masse est une fonction inverse de son amplitude d'oscillation. C'est cela qui valide la loi de dispersion de Heisenberg ! Aux limites, une dispersion [L] nulle, donne une masse [M] infinie. C'est pour cela que le zéro absolu physique ne peut exister. On peut même dire qu'un oscillateur ayant une masse infinie... ne pourrait plus vibrer et donc ne serait plus un oscillateur. Cette loi, avec la symétrie duale, sont les seules lois du « rien » de l'univers. Alors pourquoi forcément osciller ? La raison est simple : l'oscillation stochastique possède un potentiel de spectre infini de période propre au cycle en cours. Cela est permis car c'est le nombre de possibilités, et non pas le temps, qui est infini. Ainsi, l'oscillation permet le caractère statistique que n'a pas la contrainte de la valeur unique. Celle-ci serait choisie par qui ? Cet aspect mystique est incompatible avec la démarche scientifique. 

Alors de quoi est fait le boson-2-tachyons ? A ce stade d'univers, il est la seule réponse (oscillante et duale), pour contrer un zéro statique impossible. Pour osciller, il a besoin d'un doublet [M L + M' L'], totalement arbitraire et de somme nulle. Le boson-2-tachyons est la cause profonde de la dualité onde/corpuscule, il matérialise le zéro physique. Ce zéro n'est pas du tout celui des mathématiques. 

On donnera plus loin, la preuve que le temps (interne et confiné) est induit par [M L], tout comme la charge. Attention à ce stade « vrai vide » d'univers, la solution moniste, consistant en une fluctuation du zéro (à droite et à gauche), n'est pas valide. Elle implique un crédit d'énergie qui n'est justifiable que dans le cadre du « faux vide » de nos expériences. Tout le monde peut comprendre cela et pourtant, certains physiciens (réductionniste) spéculent en prêtant des vertus locales, au « vrai vide ».

Sommaire


10. Le flux de synchronisation forme le BEC fossile

Que disent les statistiques ? D'abord que ces bosons-zéros ne sont pas « non connexes » mais « statistiquement non connexes ». Cela veut dire qu'il existe une chance extrêmement faible pour que des « points zéros » se superposent en se synchronisant. Si le temps s'écoulait, il faudrait des milliards de milliards d'années de combinaisons hasardeuses, pour avoir un début de synchronisation.... Mais justement, le temps ne s'écoule pas ! Ouf ! Alors quel que soit le nombre de fluctuations nécessaires, les combinaisons amenant le flux de synchronisation, sont forcées de se produire ! L'univers a horreur du vide et c'est pour cela que nous sommes là pour le vérifier. L'univers part bien du « rien » dual.

Il existe donc un flux de synchronisation, des bosons. Que font des bosons qui se synchronisent ? Ils forment un condensat de Bose Einstein (BEC). Notez qu'il existe des études qui démontrent que tous les types d'oscillateur, sont irrémédiablement attirés par la synchronisation. Cette loi nous vient de monsieur Huygens (avec ces horloges qui se synchronisent comme par magie). Elle a été étendue à tous les oscillateurs, y compris aux oscillateurs quantiques. Il faut bien voir que cette phase d'univers voit son désordre décroître (entropie décroissante). Donc le BEC voit sa densité augmenter jusqu'à ce qu'il soit saturé. C'est bien ce qui a été évoqué au chapitre 4. L'entropie (comme tout le reste) est duale car le flux de synchronisation inverse sa tendance. L'encours de désordre, progresse maintenant vers l'ordre. Range ta chambre !

Comment naissent les constantes ? Au fur et à mesure de la fusion des points zéro, s'opère une moyenne entre les valeurs aléatoires. Cette moyenne, totalement aléatoire, fixe la constante [M L]. Elle fixe également un ratio universel : je l'ai appelé ξ, lettre grecque qui se prononce xi ou ksi. Ce ratio est égal à 1,54 × 1011. Ce dernier est omniprésent en physique et notamment en [2]. Dans l'infinité de l'univers stochastique, il se forme donc un BEC. Son point zéro commun ne peut-être situé. Il n'a pas de coordonnées spatiale car il n'existe pas de centre. En revanche, le point zéro commun est bien au centre du BEC en création. On a les constantes suivantes :

Tableau 10-1

paramètres

tachyon

intervalle couche

sphère zéro

RE

RBEC

genre espace

ƛo = L / ξ4

ƛe = L / ξ3

ƛpz = L / ξ2

L / ξ

L = 1,42 × 1021 m

genre temps tachyon

to = te / ξ4




te = 1,28 × 10–21 s

genre temps électron


te = 1,28 × 10–21 s




genre nombre (2D)



ƛpz² / ƛo² = ξ4


(ƛpz² / ƛo²) to / te = ξ8

Les ξ4 tachyons sur la sphère du point zéro, émis dans un cycle to , (ξ4 fois plus grand) permettent d'alimenter les ξ8 tachyons de la couche à pleine amplitude. Comme il y a ξ3 couches, le nombre total est de ξ8 × ξ3 = ξ11 tachyons. Ce tableau devient complètement compréhensible en lisant le chapitre 11. On note que ce BEC fossile (à saturation) n'est pas isotrope car son intervalle tangentiel est ξ fois plus petit que son intervalle radial. On verra plus tard la signification de la colonne RE . Le tachyon est  à la fois local et non local ! Il a ainsi, deux constantes de temps  et deux d'espace (en bleu ci-dessus).

sommaire

11. Comment fonctionne le BEC fossile avant saturation ?

Sur la base de ce que nous avons vu, le flux de synchronisation vient grossir les rangs du BEC. Avant saturation, il n'y a toujours pas d'écoulement du temps et pas de masse. L'espace global 3D est virtuel. La sphère du BEC possède un rayon R stable puisque matérialisé par tous les oscillateurs tachyons synchronisés. Il est virtuellement formé par la somme des couches (2D) de tachyons (1D), soit 3D. Pour fixer les idées, le modèle montre que le rayon du BEC est d'autant plus grand, que la masse (confinée) du tachyon est petite. On a déjà vu que l'électron (ex-tachyon) est la référence universelle. Ensuite sur la base [2], on a le rapport massique : électron / tachyon : ξ3 = 1033. Le rayon de Compton de l'électron (ƛe = 10–13 m) a pour image cosmique dans le BEC : RBEC = 1021 m. C'est la taille d'une galaxie ! Les tachyons très légers sont très très longs ! Et, cerise sur le gâteau, le rayon RE, du tableau 10-1, correspond à la taille d'une grosse étoile primordiale ! On en reparlera.

Ainsi, le BEC fossile possède ξ3 = 1033 couches, chacune espacée d'un intervalle radial de : 10–13 m. Il existe une contrainte d'isotropie de densité qui implique in fine, que l'intervalle tangentiel devra être égal à l'intervalle radial, (10–13 m). Mais le lien [2] impose que lors de la saturation, il existe ξ4 = 1044 tachyons sur la circonférence. Cela veut dire que la saturation est la limite où les boson-2-tachyons se chevauchent. Ainsi, la taille transverse (épaisseur) des tachyons est plus petite de celle de l'électron du ratio ξ. Ce ratio joue un rôle très précis plus tard. Mais pour le moment, il nous suffit de savoir que les relations [2] montrent que la première couche du BEC fossile, est saturée d'un facteur ξ (en 1D). On en déduit que la surface élémentaire (2D) est alors ξ2 fois trop petite.

Mais que se passe-t-il dans le BEC, avant saturation ? Prenons une analogie avec un jongleur. Il a une (petite) partie des balles dans les mains et la majorité est en vol. Cette analogie est intéressante car les balles ralentissent sous l'effet de la gravitation. La décélération est en 1/r². Dans le BEC il n'y a pas de gravitation mais juste l'attracteur du point zéro commun. La vitesse des balles du jongleur est telle que la densité baisse comme la vitesse. En effet, elle sont serrées dans les mains puis elles s'écartent largement en vol. Cet effet existe sur la surface des couches du BEC, qui augmentent en R². Cela veut dire que les intervalles auraient tendance à augmenter avec la croissance des couches ! Mais ce n'est pas le cas puisque la vitesse varie en 1/R². Donc la densité reste constante !

Mais qu'elle est la conséquence de cette régulation ? Les tachyon de chaque couche, ont tendance à combler la couche qui la précède. Sans faire de math, on comprend que l'intervalle élémentaire double chaque fois que le rayon double. Comme la surface augmente en R² et que la vitesse varie en 1/R², alors la densité reste constante dans le BEC. Mais pour combler les trous, il faut s'écarter en balayant une surface. Cela implique pour chaque tachyon, une trajectoire hélicoïdale. Ainsi, une certaine rotation est intrinsèque à chaque boson-2-tachyons. La notion de spin, habituellement attribuée aux particules, est en fait, un effet relatif au couplage avec les tachyons. Les particules en révèlent le spin. On verra comment et pourquoi ce spin est quantifié (0, 1/2, 1) fois la valeur de la constante de Planck. On verra pourquoi il existe une gêne concernant ce terme de spin. Car voulant dire « rotation », on tombe sur une contradiction avec la limite c. Alors, comme pour le rayon classique, on a transformé cet effet physique bien réel, en un être mathématique des plus docile. Cet être abstrait contourne toutes les contradictions (apparentes) de la physique. On est toujours dans ce réflexe d'évitement du réel !

On a vu que le rapport des rayons entre un intervalle élémentaire et le BEC entier, est de : ξ3 = 1033. Donc le ratio de vitesse est du même ordre : la célérité du tachyon est égale à : co = c ξ3. On peut voir que le produit vitesse × masse du tachyon est égal à celui de l'électron. Cela veut dire que l'impulsion intrinsèque d'un tachyon séparé (changement de localité) deviendra un électron. Il suffit pour cela d'évoquer la constante [M L]. Voici l'image la plus réaliste qui soit : quand on « regarde » le tachyon dans son ensemble (BEC), sa masse est petite. C'est exactement la dualité « onde/corpuscule » qui a tant surpris dans le passé. Le tachyon est la cause que tant de physiciens ont vainement cherchée. Mais quand on « regarde » le tachyon dans l'intervalle qui le sépare des couches suivantes, sa masse est celle de l'électron. Le terme « couches suivantes » est très important car il détermine la trame de l'espace-temps (3D) dans lequel vont baigner les particules de matière crées sur la première couche ! Alors, il ne faut pas s'étonner du couplage fondamental qui existe entre ces deux milieux. Vous avez dit dualité ?

La cause de la vitesse de la lumière c, est du même ordre. Comme la période du tachyon est égale à celle de l'électron, alors la traversée d'un intervalle dans ce temps élémentaire te, est égale à : c =  intervalle / temps élémentaire. Cela revient exactement à : co = rayon BEC / temps élémentaire. Il y a ici une subtilité : pour qu'un tachyon communique avec son voisin (intervalle élémentaire), il lui faut toujours passer par le point zéro commun. Il n'a pas d'autre connexion possible. Ainsi la rapidité du tachyon ne lui sert guère puisqu'il est obligé d'augmenter d'autant son trajet. Ceci est la cause profonde de la limite c. Les expériences sur l'intrication, ne disent que cela ! Cela veut dire que tous les tachyons du BEC, sont reliés entre eux. Ils sont le substrat d'un véritable computer géant. Leurs états propres ne sont pas (0 ou 1) mais varient continûment (analogique). En revanche, leur rotations hélicoïdales sont binaires et appariées. Et on sait le mesurer.



Sommaire


12. Aparté sur le théorème d'incomplétude de Gödel

Un lecteur me fait remarquer l'importance de l'incomplétude de Gödel en mathématique. Il m'a invité à visionner son interview de Didier GUIGNARD. Ce dernier indique notamment le phénomène d'auto-référence induit par la mathématique. Gödel parle des écueils d'indécidabilité qui s'empilent jusqu'à créer des « boucles étranges » dans lesquelles la démonstration se mord la queue. Voici la tenue de mon mail retour :

Bonjour Monsieur Anicet Blaise OKANA,

J'ai écouté avec grand intérêt votre interview de Didier GUIGNARD sur le théorème d'incomplétude de Gödel.  J'ai apprécié une grande partie de son discours et notamment sur le thème de l'ordinateur, qui manque cruellement de sémantique.  Je fais un parallèle avec la mathématique,  plutôt destinée à décrire la physique plutôt que de l'expliquer. 

En revanche,  son discours ne cite pas les clés essentielles de  la dualité : description/explication ; localité/ non localité. C'est dommage car sa question posée sur  l'univers : continu ou discontinu, est mal posée. L'univers est à la fois continu ET discontinu. Le meilleur exemple est dans cette question : la particule est-elle une onde ou un corpuscule? Réponse : les deux et donc ET et non OU !

Autre point qu'il a bien expliqué : la notion de cohérence en mathématique est limitée au seul évitement de la contradiction. C'est vrai, elle se moque du réel. Alors que la notion de cohérence en physique est à la fois, l'intensité du faisceau d'indices et son taux de convergence,  le tout donné par la confrontation théorie/expériences et ce dans la rigueur de la dualité de localité. On ne joue pas dans la même cour. 

La dualité physique de base, est dans la définition du zéro ou du "rien" : le zéro absolu mathématique / le zéro dual physique.  La grande erreur de l'école de Copenhague,  tient dans cette confusion, cet amalgame ! 
Ensuite il y a ce fameux triangle d'Einstein : Physique ; esprit ;  mathématique.  Je défends Einstein tout au long de mes écrits, mais pas dans ce cas précis. D'ailleurs Didier GUIGNARD l'a dit lui-même : "tout est physique, nous sommes tous les fils de l'univers".  Je démontre que ce triangle est en fait une arborescence : Physique (donc univers) → esprit → mathématique. La mathématique est une branche de la physique. Les mathématiques n'expliquent absolument rien en physique, elles ne font que la décrire. Cette confusion est typiquement occidentale. Elle passe souvent inaperçue car sur la seule base de la description, on peut faire des prédictions. Il y a là un côté pervers, une confusion classique entre cause et effet.

On dit que la prédiction est le Graal de la physique. Mais en réalité le but ultime est de comprendre bien plus que de décrire. En fait, avec les deux, les prédictions ne s'accompagnent pas de révélation d'énigmes nouvelles, car au contraire, elle en résout. Là aussi, on ne fait jamais de bilan (voir la liste des 53 énigmes fondamentales).     

Apparemment vous avez lu l'encours de rédaction de mon second livre. Si c'est le cas, vous avez vu quelle place occupe pour moi,  la dualité universelle et notamment, celle portant sur la localité. Sur ces seules bases, je démontre que la mathématique est non seulement incapable de comprendre l'univers mais en plus, qu'elle est source de confusions multiples. La seule (et belle) vertu de la mathématique est de décrire (correctement) ce que le physicien est arrivé à comprendre.  La mathématique ferme (rigoureusement)  la marche de la physique et ne sait pas l'ouvrir. Il est même très dangereux qu'elle le fasse. Elle invente des êtres mathématiques, puis leurs auteurs ont tendance à les confondre avec des objets physiques. 

Ainsi la question : qui a commencé, la physique  OU la mathématique, n'est pas pertinente car les deux sont indissociables.  La mathématique est une branche de la physique et notamment, les lois statistiques. Le zéro dual physique se conjugue dans ces conditions. La seule loi primordiale n'est pas une hypothèse. Elle est la suivante :

1/ Le zéro ou "rien" physique ne peut pas être statique (sous peine d'infini, de constantes prédéfinies et de non évolution). 
2/ La dispersion de Heisenberg dans le cadre dual,  ne peut exprimer que des zéros physiques, sous la forme d'oscillateurs duaux stochastiques.
3/ L'existence la physique est basée sur la dispersion de Heisenberg dans le cadre dual (deux impulsions contraires).  
4/ il existe un attracteur fondamental, la synchronisation,  lié aux statistiques et à l'entropie. Le tout est dérivé du principe de l'action nulle duale.

Ce dernier principe (ADN = Action Nulle Duale) est la généralisation non locale du principe de moindre action.  Espérer la rigueur dans la seule localité (hors de la dualité de localité) est un leurre dans lequel sont tombés les maîtres de l'école de Copenhague.

Toutes les lois (1, 2, 3, 4) appellent des notions de statistiques que les maths décrivent très bien. MAIS je montre qu'elles découlent de lois physiques. Quand Didier GUIGNARD dit que l'univers porte en lui du hard + soft, il a raison puisque  tout est dual ! Mais ce soft n'est pas d'essence mystique. Il est la conséquence (fouillée et complexifiée) des points (1, 2, 3, 4) découlant de la première loi physique : la  dualité que l'on peut qualifier de : "symétrie dans le plus simple appareil".  

PS : je rajoute ici une réflexion sur le modèle mathématique de Riemann. Le champ spéculatif des mathématiques est tellement vaste, qu'il a pu construire une géométrie munie d'une courbure intrinsèque. La motivation est grande puisque Einstein nous a dit (avec raison) que l'on peut lier la notion de courbure à celle de densité d'énergie. Mais encore une fois la « déraisonnable puissance des mathématiques » ne fait que confondre les effets et les causes. Premièrement la géométrie n'est qu'une conséquence de la matérialité de l'univers. Il possède une trame (bosons-2-tachyons) qui, pour des raisons de symétrie perturbée, se déforment, se courbent ! Donc en résumé ; Sur les effets d'Einstein (pas les causes mais lui en était conscient), Riemann, plutôt que de chercher les causes, rajoute une couche de spéculation. Il ne faut donc pas s'étonner que des « physiciens » pensent que l'univers est fait d'équations abstraites. Et quand maintenant, on mesure une accélération (localement) alors le réflexe est de rajouter une constante dans l'équation..... On marche sur la tête ! Puis récemment, on constate que l'univers n'a pas de courbure intrinsèque ! Comment ?? Alors que fait-on ? On pouvait juste convenir que la spéculation mathématique est fausse et que le monde est bien euclidien (géométrie classique). Et bien non, on préfère rajouter deux autres étages à la fusée spéculative, en disant : « les équilibres de l'univers sont magiques car la fin de l'expansion se situe pile à l'infini...». Outre l'aspect mystique (jamais bien loin), on nous ressort cette notion d'infini qui n'a rien à voir avec la physique. On est en plein dans les boucles étranges de Gödel ! Et tant qu'à faire, on en rajoute tous les jours ! C'est gratuit et facile ! La spéculation est le mal du siècle et ce, dans tous les domaines.

Sommaire



13. Saturation du BEC fossile et annihilation

Le flux continu de synchronisation amène forcément la saturation. Elle commence forcément par une première couche. Les masses et charges des tachyons voisins de la première couche, se superposent. La conséquence est l'alourdissement des oscillateurs (donc baisse de la fréquence). Mais il y a pire ! Si les masses s'additionnent d'une manière scalaire, les charges + et –, voisines, s'annulent algébriquement par superposition. Donc non seulement les oscillateurs perdent leur fréquence mais en plus, ils perdent leur lien radial intrinsèque. Les bosons-2-tachyons, se déchirent ! C'est un changement radical de localité !

Que font les tachyons séparés, de la première couche ? Pour bien comprendre, il faut revenir au chapitre 11. Il est dit que la masse du tachyon est fonction de l'inverse de son amplitude spatiale. Cela est confirmé par le fait que [M L] est une constante. C'est une autre facette de la fameuse dualité onde/corpuscule. Ici le corpuscule est le point zéro commun et l'amplitude de l'onde, est le rayon du BEC. La connexion à tous les autres tachyons, s'établit lors de l'état corpuscule. La mesure locale est une sorte de connexion d'où la fameuse réduction du paquet d'onde. Tout ce qui apparaît magique dans la théorie quantique, n'est que le reflet du comportement des bosons-2-tachyons.

Ainsi les tachyons de la première couche, perdent leur grande amplitude, relative au [L] du BEC. Ce qui les sépare de toutes les autres couches, est limité à l'intervalle élémentaire. Cet intervalle est  ξ3 fois plus petit que le rayon du BEC. En somme, la séparation de la couche suivante, revient à celle de toutes les autres couches. Ainsi le [M] est multiplié par le même ratio, ξ3 ! Les tachyons (+/–) confinés, sont devenus des paires électron-positrons séparées. Plutôt que d'osciller sur le très grand RBEC = 1021 m, l'ex-tachyon (électron-positron), oscille maintenant sur la longueur de Compton : ƛe = 10–13 m. Tout est oscillateur !

Que font les paires électron-positrons séparées ? Mais sont-elles vraiment séparées ? A cet instant précis, beaucoup d'événements se précisent. Il y a d'abord l'annihilation, évoquée au chapitre 7. Sa cause est le ralentissement dû à la transition des tachyons de la première couche. Il met en péril la séparation. Une grande partie des paires électron-positrons, est annihilée. Le taux d'annihilation est typiquement arbitraire. Il vaut : α (alpha) = 137,035999.... qui précise l'hécatombe ! Seul un sur 137, est conservé. Mais attention cette annihilation primordiale est strictement symétrique, contrairement à ce que laisse entendre le modèle standard. Comment peut-il en être autrement ? L'existence même des particules, dépend de leur dualité symétrique. Mais les paires séparées, le sont-elles vraiment ? Et bien non car se serait trahir le fameux « rien » à partir duquel, tout s'est construit.

Quel est le nouveau lien entre les paires radialement séparées ? Avant d'être séparées, elles étaient des tachyons liées radialement par leur charge respective élémentaire. Mais maintenant que les paires se trouvent réparties sur l'aire de la première couche, leur seul lien est collectif et tangentiel. Chaque particule est liée – via toutes les autres – à son alter ego, situé à l'opposé (demi circonférence). Ainsi, la charge élémentaire e, admet 2 composantes : a) propre à [ML] avec un signe + ou – ; b) la seconde composante – purement attractive – résulte de la division par le nombre de paires présentes sur la demi circonférence du BEC. Le lien [2] nous dit que ce nombre (1D) est ξ4 = 1044. Cette composante, purement attractive, est la gravitation. Cela veut dire, qu'avant annihilation, la surface (2D) comportait ξ8 = 1089 paires dont la plupart ont été annihilées. Cela veut dire que ξ8 = 1089 photons ont été émis sur la surface du BEC. C'est justement en accord avec les estimations !

Sommaire


14. Gravitation et matière noire, une cause commune

Le chapitre précédent donne la cause de la gravitation. Elle peut s'interpréter comme une transition entre des liens radiaux individuelles vers un lien collectif avec gradient angulaire. Sa dualité est directe : chaque intervalle élémentaire et chaque particule, porte un faible gradient de la charge électrique qui devient donc la charge gravitationnelle. Encore une fois, ceux qui s'intéressent aux causes (ils ne sont si pas nombreux) peuvent tomber dans le piège du monisme. Certains disent que c'est l'espace élémentaire qui porte le lien gravitationnel et d'autres disent que ce sont les particules. Non ce sont les deux ! Mais en plus, il existe une autre dualité : a) la composante du faible gradient de charge électrique, toujours attractive (gravitation) ; b) la charge électrique de chaque particule élémentaire (électron ou positron) selon : e² = f(me ƛe). Cette dernière comporte un signe (+ ou –) qui rend attractif ou répulsif. Ainsi, la loi du «   rien » est conservée puisque la gravitation, toujours attractive, est sensée permettre à terme, de réunir les opposés symétriques dans le « rien » originel ! On réalise ainsi, la naïveté d'une expansion infinie qui conserverait infiniment les énergies. Voir relation [2]. Cette relation permet de faire une prédiction de la valeur G à : 6,67242081356496 × 10–11 m3 / kg / s². Cela est compatible avec la dernière mesure faite en 2010 par Faller soit : 6,67234(14) × 10–11 m3 / kg / s². La valeur entre paranthèses(14) indique l'incertitude sur les 2 derniers chiffres (34). Ainsi notre prédiction est largement comprise dans la fourchette de sa mesure.   

La matière noire découle directement du gradient de charge sur la demi circonférence du BEC. Elle est inséparable de la gravitation ! On a vu que l'annihilation n'est complète que si la rencontre concerne 2 particules opposées (180°). Il est ici utile de revoir l'expérience de pensée du chapitre 4. L'angle entre les opposés est de 180° ou π. Donc π donne une annihilation complète (binaire), si rencontre il y a. Dans le cas de πc'est le cas locale – les particules élémentaires passent de 1 à 0 ! La brique élémentaire disparaît et devient photon sans masse. Mais que se passe-t-il si l'angle est plus petit que π ? Ce n'est pas possible localement. Mais à grande échelle, c'est possible lors d'une collision de galaxies. Les belligérantes sont de sources différentes. Elles forment un angle θ relatif non nul : θ < π.

Ainsi l'annihilation se fait proportionnellement à cet angle. Elle n'est pas binaire (0 ou 1) comme localement mais analogique (toutes les valeurs comprises entre 0 vers 1). Cela va dégénérer les briques élémentaires en « gravats » informes. Ce seront des débris d'électron-positrons. La quantification est brisée. Ces « gravats » sont totalement stériles pour construire les atomes bien visibles, de la matière ordinaire. C'est la matière noire !  Elle ne représente plus qu'un large spectre d'ondes éparses, comme des parasites ou bruits de fond. Or l'expérience DAMA détecte une variation périodique des bruits de fond. Comme c'est bizarre.  On sait que les collisions de galaxies sont légions dans le passé. On observe couramment des nuages de matière noire à chaque collision ! Dans les chapitres à suivre nous allons parler, entre autres, de la mitose fractale qui, par définition, favorise les collisions. Or ces dernières sont bien observées à grande fréquence, dans le passé. Découvrir la cause de la gravitation, lève le voile sur la matière noire.

Mais que deviennent ces gravats informes au fil de l'expansion ? On verra que l'expansion se termine par une coquille 2D, dont l 'épaisseur est celle d'un BEC. Donc si le volume global augmente, celui de la bulle-univers, diminue. Ainsi la densité de la matière augmente, ce qui tend à réactiver les collisions. Les gravats de matière noire subissent ainsi plusieurs séries de collisions. Elles finissent par les annihiler complètement, au même tire que les collisions frontales.

Analogie Brique-Gravats

Attention ! cela n'est vrai que si la paire est de création non locale (séparation par délocalisation originelle)  

........

La représentation des paires « abimées » du dessin est simplifiée. A l'échelle quantique, on doit considérer l'électron comme une dualité onde/partticule. L'onde possède 2 critères : a) l'amplitude (comme le niveau de tension électrique) ; b) la longueur d'onde (inversement proportionnelle à la fréquence). Ainsi l'aspect « gravats » de l'électron, possède une amplitude et une fréquence plus faibles que l'électron élémentaire ou entier. Ce dernier, en parfaite harmonie avec le tissu de tachyons formant l'espace-temps, peut se condenser en proton et former la matière visible (VM). En revanche, les « gravats », de tailles diverses et variées, forment un spectre d'ondes parasites. Pire, ils perdent leur dualité onde-particule. En effet, cette aptitude est conditionnée par une réduction « particule » ajustée à la taille du tachyon. Cet ajustement, brisé pour les paires non entières, est impossible, c'est la matière noire (DM). Nous verrrons plus loin pourquoi il existe un flux de DM émanant du centre galactique. Sa détection devrait être sous la forme d'un bruit de fond d'intensité variable, compte tenu de la rotation de la Terre autour du Soleil. Or nous verrrons que ce flux variable (saisonnier) est bien mesuré dans une expérience appelée DAMA.

Sommaire

15. Mitose fractale et collisions précoces

Rappelons la cause de la « séparation » ou plutôt de la transition de localité. La saturation est provoquée par la superposition des tachyons voisins. Le tableau 10-1, montre que leur épaisseur est ξ fois plus faible que le rayon « onde » de l'électron ou de l'intervalle radial. Par définition, la surface élémentaire tangentielle était alors ξ2 fois trop faible pour être égale à celle radiale. Cela veut dire qu'elle concentrait ξ2 fois trop de particules élémentaires. Pourquoi trop ? Un BEC équilibré doit être de densité isotrope (égale dans toutes les directions). Alors que fait un BEC non équilibré ? Il ne peut que se diviser jusqu'à ce qu'il soit équilibré. C'est la mitose ! Son ratio est donc naturellement ξ2 = 1022 . Ce nombre est à la fois le nombre estimé d'étoiles dans l'univers et également le ratio précis entre la masse de Planck et la masse de l'électron [2].

Un petit résumé : La première couche du BEC fossile, possède une forte densité de paires (+/–) qui s'attirent. Mais intervient une annihilation de taux : α ~ 137,0359 (ou α² en 2 D) qui donne la  première réduction de densité. C'est un agrandissement d'intervalle. Puis l'anisotropie des intervalles, déclenche la mitose. Celle-ci se fait donc naturellement en étapes fractales, chacune du même ratio, α². Des considérations justifiées plus tard, contraignent une mitose fractale en 5 étapes (α5 en 1D et donc α10 en 2D). A ces 5 étapes de mitose, on rajoute l'annihilation du même taux α2, soit, α2 × α10 = α12. Ce taux – issu du hasard – est statistiquement différent du taux attendu à ξ2 pour la mitose. L'accord entre les deux se fait au prix d'un désaccord égal à 1835,26 [3]. Comme par hasard, ce nombre est proche de la masse du proton (1836,15) mesurée en unité masse électron. Est-ce possible que des paires ne s'annihilent pas entre voisines ? Oui car toutes les particules sont séparées de leur alter ego. Donc ces créations non locales sont – entre voisines – des pseudos bosons. Cela est très différent d'une création locale (en laboratoire).

La mitose fractale consiste à démultiplier chaque étape. Le centre de chaque étape de mitose, émet dans toutes les directions, les éléments de l'étape suivante. En effet la mitose consiste en un mouvement de translation-division à vitesse c, à partir du centre d'une étape donnée. Cela veut dire que les mouvements sont désordonnés. Une partie est plutôt dirigée vers l'extérieur (vers l'expansion) et une autre, plutôt vers l'intérieur. Au final des 5 étapes, toutes les directions sont concernées pour les BEC-fils. Une partie a bénéficié de 5 fois de la vitesse c, toujours orientée dans la direction externe. A l'autre extrémité, une autre partie des BEC-fils, est éjectée vers le centre à vitesse c(centre) à partir d'une vitesse c(extérieur). Cette partie a donc une vitesse résultante, nulle. Il y a donc un spectre continu de vitesses d'expansion, qui s'étend de 0 à 5 c. L'expansion de l'univers se fait donc en couches de vitesses allant initialement, de 0 à 5 c. Cela génère des collisions, surtout au début de l'expansion. C'est exactement ce que l'on observe.

Les collisions du début de l'univers sont observées et elles sont fréquentes. De plus, elle sont toujours accompagnées de nuage de matière noire. C'est bien ce qui est attendu par ce modèle. Après les 5 étapes de mitose, le nombre de BEC-fils est de ξ2. Chacun emmène une partie de la matière, en son sein. Chaque BEC est une matrice d'étoile. On verra comment une composante constante de la gravitation, accélère l'accrétion de la matière en son centre, pour former son étoile hôte. Je rappelle que le contenu de ce livre est toujours confirmé par la mesure. C'est donc au cours de la mitose que la couche 2D se conforme en 3D. Ainsi, les paires d'électron-positrons, sous forme de « points », deviennent des couches sphériques concentriques, dans le proton. Chacune de ces couches est une superposition des charges qui s'annulent parfaitement. Si elles ne s'annulaient pas, la force serait alors infinie.

Mais où se trouve notre galaxie dans cette bulle expansive en couches de vitesses ? Pourquoi ne voit-on pas un centre et une direction d'expansion ? Sans anticiper sur la suite, on peut dire que ce mode d'expansion, ne permet pas de voir facilement, une anisotropie d'expansion. Que l'on regarde vers l'extérieur, tangentiellement ou vers l'intérieur, on voit le même taux d'éloignement des autres galaxies. L'univers paraît isotrope ! Les vulgarisateurs du modèle standard parlent d'un gâteau aux raisins, en cours de gonflage sous l'action de la cuisson. C'est vrai que tous les raisins s'éloignent les uns des autres. Cependant ils sont gênés car ce gâteau a un centre ! Ils sont aussi gênés car ils n'évoquent qu'un seul état d'univers. Incorrigible monisme ! Non l'univers est dual. Globalement, il est infini et n'a pas de centre. Mais la bulle en expansion, qu'il a créée, possède elle, un centre. Mais alors on devrait le voir ! Mais oui, regardez en direction de l'éridan. Il y a un grand espace unique, froid et vide, d'un milliard d'années-lumière. On l'estime être à environ 7 milliards d'années-lumière de nous. Ah, j'oubliais ! On détecte que ses bords sont en cours d'accélération ! Nous verrons en détail toutes ce données. Alors que dis-t-on dans les milieux officiels ? On est très embêtés car le modèle de Riemann n'a pas de centre ! Alors on a trouvé la solution : depuis une dizaine d'années on a mis cette observation ... sous le tapis ! Elle fait partie des grandes énigmes.

Quand certains ont essayés de mettre en avant deux grandes nouvelles observations : a) la courbure de l'univers s'avère être nulle ; b) le trou unique de l'éridan apparaît être le centre, on leurs a rétorqué sèchement, l'argument suivant : « nous n'avons pas de place privilégiée dans l'univers et l'isotropie observationnelle prouve qu'il n'y pas de centre ». Bien sûr, nous sommes d'accord avec le début de la phrase, notre place n'est pas privilégiée. Cependant nous montrons que l'isotropie est également justifiée dans une géométrie euclidienne avec expansion en couches de vitesses. Nous verrons plus tard, les preuves observationnelles et théoriques. Notre position est à 11 % du rayon maximal de la bulle d'univers actuelle. Cette dernière progresse à un peu moins de 5 c et nous progressons donc à environ 0,5 c. En première approche, la durée de 13,8 milliards d'années-lumière, nous sépare logiquement des 7 milliards d'années-lumière observés, du trou de l'éridan. Mais cette seule piste ne nous suffit pas ! Nous verrons qu'ils y en a d'autres qui concourent toutes, au même résultat.

Sommaire

16. Masse de Planck, proton et naissance du temps

Il est clair que le proton (et aussi le neutron sous certaines conditions), est la seule particule composite stable. Alors si l'électron est justifié par le tachyon, on doit se demander quelle est la cause de l'existence du proton ? Et bien tout simplement le proton fossile était potentiellement ξ2 fois plus massique qu'aujourd'hui. Il avait le même ratio que : masse Planck / masse électron ! Les paires serrées (+/–) ont constitué le proton au cours de la mitose. Mais ces paires ne pouvaient être qu'entières ! Ainsi le nombre issu du hasard (1835,26) a du forcément s'arrondir en nombre entier. On démontre plus loin que ce nombre est 1841. Comment ? Il forme 8 sous groupes unités, réunis en 4 groupes (460) de paires neutres + 1 positron célibataire et confiné. Oui le proton possède la charge exacte du positron. C'est le premier objet physique composite de l'univers. Avec son cousin le neutron, et l'électron, ils forment toute la matière visible de l'univers. Nous sommes fait que de protons et donc de paires électron-positrons. L'anti matière est en nous. Celle qu'on fabrique localement ne représente donc rien de fondamental. Le réductionnisme est donc très réducteur !

Et le temps d'où vient-il ? Avant séparation, il existait un temps alternatif et confiné (non exprimé) dans chaque oscillateur boson-2-tachyons. Ce temps était propre à [M L] du tachyon. C'est la période constante du BEC (voir tableau 10-1) et également, celle de l'électron : te = 10–21 s. Sans faire de mathématique, on sait que le temps varie en fonction de la racine carrée de la masse d'un oscillateur. Or, le lien gravitationnel réunit toutes les paires sur la première couche. Cela revient à créer un oscillateur géant, comprenant ξ8 paires. De la racine carrée on obtient une période ξ4 fois plus grande que celle de l'électron (te = 10–21 s). Il faut cependant tenir compte de l'annihilation car l'oscillateur géant (cosmique) a été diminué du taux, α². Donc la demi période de l'univers devrait être égale à : te ξ4 / α² = 4×1019 s = 1242 milliards d'années. Cependant, cette durée sera revue à la baisse en intégrant les 5 étapes de mitose et son incidence moyenne sur l'expansion. En effet, ces 5 étapes sont liées à une moyenne de 2,5² fois la vitesse de la lumière. Ainsi le temps du cycle cosmique est donné à : 198 milliards d'années. On verra que cette période est confirmée par deux autres voies différentes. Nous n'en sommes aujourd'hui qu'au début : 13,8 milliards d'années.

Quelle est la force de rappel de l'oscillateur cosmique ? C'est la gravitation ! Elle ralentit l'expansion moyenne qui se trouve au-delà de l'horizon cosmologique. Un calcul simple permet de connaître la valeur de l'expansion maximale actuelle. Avec ce modèle, on connaît le nombre de photons, puisque c'est le nombre initial de paires sur la première couches du BEC fossile. IL y en avait ξ8 avant l'annihilation. On connaît en outre, la densité de photons dans l'univers (4,1 × 108 / m3) . Avec ces deux nombres, on trouve le rayon de l'univers, soit 61 milliards d'années-lumière. Cette valeur est plus grande que celle prévue dans le cadre du modèle mathématique : (45 milliards d'années-lumière). Elle est également plus grande que le rayon de Hubble : 13,8 milliards d'années-lumière. Le rayon maximal est grand car il correspond aux couches qui étaient initialement à vitesse 5 c. En réalité il est en cours de ralentissement. Actuellement il est : 61/ 7 ~ 8,8 fois plus grand que celui où se trouve notre galaxie hôte. Si notre vitesse moyenne locale, est d'environ : 0,5 c, alors la vitesse maximale est d'environ : 4,3 c < 5 c. Elle a donc bien ralenti depuis la mitose.

Mais cette annihilation sur le BEC fossile a dû émettre un front d'ondes sphérique de photons, dont la température initiale était celle des électrons ! On la connaît également, soit: 5,92 × 109 Kelvin. On a mesuré la température actuelle du fond diffus, soit : 2,725 Kelvin. Comme on sait que la température du front d'onde varie comme la racine carrée de la température, alors on vérifie bien notre vitesse moyenne d'expansion à 0,509 c. Mais attention, cette vitesse concerne l'ensemble {BEC + matière}. Cela veut dire que l'espace-temps et la matière ont la même vitesse d'expansion. Ce n'est pas le cas pour les vitesses relatives et locales qui présentent un différentiel avec les BEC-espace-temps. C'est ce différentiel qui crée le fameux effet relativiste.

Sommaire

17. L'espace-temps, un continuum de BECs

Plusieurs questions doivent se poser : a) comment s'organisent ces 1022 BEC-étoiles, nées de la mitose et en cours d'expansion ? ; b) pourquoi une vitesse c constante dans une expansion variable ? ; c) d'où viennent ces structures de l'univers ? ; d) c'est quoi ces filaments d'amas de galaxies ? On a vu que la mitose fractale crée une arborescence en 5 étapes. C'est un peu comme un arbre mais en mode accéléré. Le tronc principal donne des branches secondaires qui à leur tour, développent d'autres branches. Cependant ici, chaque « nouveau né » devient très rapidement aussi gros que sa « maman ». Cette image ressemble plus à la prolifération des cellules ou des bactéries. Cela veut dire que la belle sphère initiale se rempli de boursouflures en croissance rapide. Dans cet ensemble de BECs enchevêtrés en croissance, des grumeaux sont formés dès le départ. La vue actuelle, forcément brouillée, reflète un peu cette architecture première où les 5 étapes ont laissées quelques traces.  

Tab : 17-1

structures

bulle-univers

bulles vides

amas

galaxies

étoiles

initiales


1

annihilation 1D

annihilation 2D

mitose 1D

mitose 2D

α =137

α² ~ 18769

ξ = 1,54 ×1011

ξ2 = 2,3×1022

observées

23 %

~ 30

~ 1700

~ 1011

~ 1022

Le tableau 17-1, montre que les structures sont créées au cours de la mitose. Ainsi, dès le départ, les galaxies ont des taux d'enchevêtrements serrés de BEC-étoiles. Les vides inter filaments de galaxies, sont les traces tangibles, de l'appauvrissement induite par l'annihilation primordiale. Les filaments sont à la fois les parties rescapées et le résultat de la concentration gravitationnelle.  Encore une fois, la solution est duale et donc pas seulement la dernière cause comme certains le croient. Le taux d'enchevêtrement des BECs inter galactiques, est faible. Ce différentiel de taux est lié au couplage {BEC-matière}. Il existe 2 critères de couplage : a) la densité de matière ; b) la qualité de la matière. Le second critère se subdivise en 2 parties : b-1) matière visible ; b-2) matière noire. Il est clair que la concentration d'étoiles dans une galaxie, augmente son taux et tend à la resserrer. Son équilibre se fait grâce à sa rotation. Dans les bulles vides, la rareté de la matière et la présence de matière noire, leurs confèrent un faible taux d'enchevêtrement. Ainsi cela résout d'un coup plusieurs grandes énigmes.

Quelles sont les énigmes résolues ? : a) pourquoi l'expansion est limitée aux vides inter galactiques ; b) comment se maintient la constance de la vitesse de la lumière dans le contexte d'étirement ? ; c) quelle est la nature des halos galactiques ? ; d) Pourquoi ces filaments de galaxies ? La réponse du point a vient du faible taux {BEC-matière}. Ce dernier revient au taux : τ = {BEC-BEC}, par définition. Il est remarquable de constater que le halo galactique observé est de la taille de l'enchevêtrement des BECs dont les centres sont étalés sur le rayon de la galaxie, soit 200 000 années-lumière. Le point b concerne la notion d'étirement. En fait, le déchevêtrement des BECs, n'induit aucun étirement. Donc l'intervalle élémentaire (ƛe) reste constant : c = ƛe / te. La vitesse de la lumière permet de traverser l'espace élémentaire dans la période du BEC (te). Le point c concerne la notion d'enchevêtrement des BEC-étoiles dont les centres sont étalés sur le rayon de la galaxies. Enfin la réponse du point d consiste juste à réaliser que ces filaments représentent la partie rescapée de l'annihilation primordiale. Certes, ils sont aussi concentrés par la gravitation (deux causes). Ainsi le continuum d'espace-temps conserve toutes ses constantes malgré l'expansion, voire son accélération !

Et le mystère des émissions au centre des galaxies ? Le cœur très serré des galaxies provoque en son cente un trou noir. Cela veut dire que des millions de BECs se retrouvent en situation de saturation (partielle). Il vient que des tachyons sont séparés et transformés en paires électron-positrons, comme sur le BEC-fossile. Mais dans ce cas, les émissions de particules, ont une vitesse relative à la hauteur de c avec les BECs statiques. Les trajectoires des particules créées sont telles qu'elles provoquent des collisions assez éloignées du centre ! Il y a donc une certaine production de matière noire au sein des galaxies. On observe bien les émissions de paires électron-positrons. Ensuite, après collision, la matière noire produite, possède un faible couplage au BECs. Cela l'amène à migrer sous l'action de la rotation.

La matière noire s'entasse aux limites du halo. Pourquoi ? Parce qu'à partir de cette limite, le couplage devient nettement plus faible. Cela veut dire que sa vitesse augmente brusquement, tout comme les autos après le péage d'une autoroute. Donc il y a un effet de cisaillement de densité... et c'est exactement ce qui est observé. Mais il faut aborder deux grandes énigmes : a) comment un trou noir peut-il émettre des particules alors qu'il est sensé tout emprisonner ? ; b) comment des particules éjectées à célérité c, n'ont pas une énergie infinie ? La première question montre que ce trou noir est spécial. Il contient un point zéro semi saturé ! L'énergie sortante est suffisante pour vaincre l'attraction du trou noir. La réponse (b) est déjà abordée dans le tableau 8-1 lors de la discussion sur les limites. Il faut revoir le coefficient relativiste, sensé atteindre l'infini dans son expression mathématique non limitée ! La limite physique est donnée en amont du tableau 10-1 avec le coefficient universelle, ξ = 1,54 × 1011. Or les mesures sont claires : les plus grandes énergies des particules, appelées rayons cosmiques, équivalent à celle un atome d'hélium, multipliée par ξ !  Ceci est la troisième mesure concrète de ξ.  Il y en a d'autres.

Sommaire

18. Mitose et π-ADN universel

La signification physique du « rien » est loin de la simple abstraction du zéro mathématique. Ce « rien » est matérialisé par l'oscillateur boson-2-tachyons. On a vu que son action duale était nulle dans son opposition à angle π. Alors il vient naturellement cette appellation : π-ADN. Elle dit clairement que l'Action Duale est Nulle pour un angle θ = π. Dans le cadre des paires électron-positrons, elle détermine le taux d'annihilation en fonction de l'angle : θ = 0 à π. C'est pour cela que les collisions de galaxies créent des gravats de briques élémentaires plutôt que de les annuler carrément. Cela est impossible localement, alors on n'en parle pas. Ces gravats (matière noire) sont majoritaires dans l'univers. Il y a plus de gravats que de briques élémentaires entières. Le chantier univers n'est pas aussi net qu'il en a l'air.  Une autre façon d'écrire π-ADN est : eiπ+1= 0. Cela vient de la convention en nombre complexe, où le premier terme est égal à : –1. Rassurez-vous on saura se passer de cette forme mathématique !

Par ailleurs, chaque BEC-fils est la matrice de son étoile-hôte. Il existe le taux de couplage abordé au chapitre 17. Il est une sorte de perturbation entre matière et bosons-2-tachyons qui trament l'espace-temps. Donc les π-ADN tiennent forcément compte de ce couplage. Si on imagine un BEC sans matière, il est clair que les π-ADN seraient strictement respectés. L'action nulle duale donnerait alors une traduction géométrique, parfaitement symétrique. Mais le couplage généralisé modifie cette belle symétrie. Elle peut se minimiser (pas s'annuler) si toute la matière est bien au centre. La non symétrie coûte de l'énergie et le BEC cherche juste à l'annuler. Cela veut dire que le BEC, emplit d'un nuage de proton (hydrogène), possède 2 moyens pour le ramener au centre. Le premier est la gravitation telle qu'on la connait et le second est cette force constante du BEC.  C'est un peu comme si des milliards de petits ressorts (duaux) s'équilibraient mieux, en ramenant la matière, au centre.


C'est pourquoi la gravitation possède deux composantes (dualité toujours). La première est bien connue car elle varie comme la force électrique, en 1/r². La seconde est constante car elle est à l'échelle du BEC. Elle est très faible localement. Mais à la taille du BEC, elle surpasse largement la composante en 1/r² tant RBEC est grand ! C'est elle qui explique le temps court de la formation des étoiles. On s'étonne que les premières étoiles se soient formées en moins de 300 millions d'années, alors qu'on attendait près de 3 fois plus par la seule composante en 1/r². Cette accélération centripète ne se détecte que de loin et d'ailleurs, elle est mesurée sur la sonde Pioneer 11. Elle présente un accélération constante de l'ordre de : 10–10 m/s² en direction du centre. Notre calcul montre que l'accélération classique (G M /R²) donne : 1020 m/s² alors que celle du BEC, est en accord avec celle mesurée sur Pioneer 11. C'est la quatrième fois que l'on retrouve le fameux ratio : ξ =1,54×1011. Il y en aura d'autres.

Les biologistes s'interrogent sur la cause de la mitose qui est la clé du vivant. Si tout nous vient de l'univers, alors la mitose y occupe une place privilégiée. Il y a également la notion d'entropie de désordre. Dans cet univers en expansion, le désordre augmente partout, sauf...  dans le vivant. Le vivant a le même souci d'ordre que le BEC. La clé première de l'intelligence, est dans le souci permanent d'équilibrer son énergie intrinsèque. Ce besoin impérieux se résout par deux voies : a) réduire sa consommation interne ; b) chercher à en importer. Les plantes arrangent l'orientation de leurs feuilles pour recueillir au mieux, les photons du soleil. Bien sûr, la complexité a fait son œuvre, au fil du temps. La notion de mitose propre au vivant, relève d'un flux de synchronisation qui sature la première cellule. Elle n'a d'autre solution que de se diviser. Elle imite en cela l'univers lui-même. Il y a également l'explosion fractale des plantes avec leur arborescence complexe. Alors bien sûr on peut dire que l'explosion fractale sert à augmenter la surface pour mieux collecter les photons. Mais la mitose fractale de l'univers, a servi aussi à augmenter les surfaces élémentaires. Au stade de développement de l'humain, on ne peut que comparer les clés principales. Nous les avons forcément héritées de l'univers.

Mais réellement, l'univers a-t-il un ADN au sens du stockage d'informations ? Oui mais sous une forme extrêmement simple. Le sens de l'entropie (de désordre) est parallèle au sens de la complexité. Chaque cellule de notre corps est couplée avec le tissu de boson-2-tachyons. Ces derniers, sont tous reliés entre eux, par le centre commun. Même si tout cela n'est pas très ordonné, il existe un potentiel d'échange d'informations globales, dans notre BEC-hôte. En fait, par le jeu des enchevêtrements, cette globalité concerne toute la bulle univers. On montre par une autre voie, qu'il y a forcément une inter causalité globale (ou holiste). En effet, un événement local sera toujours transmis à la non localité (relative) de la bulle univers. On a dit cela à propos d'un battement d'ailes d'un papillon, à l'échelle de la Terre. Mais cela reste vrai dans la bulle univers. On a vu qu'il était naïf de parler de l'univers en terme moniste. Comme tout ce qu'il a créé, il est foncièrement dual. Il y a la bulle-univers (éphémère, limitée, ayant un centre) qui est contenue dans l'état d'univers stochastique (permanent, illimité, sans centre). Or la vie s'exprime de la même manière. Pour un sujet donné (limité et éphémère) on a une filiation (illimitée et permanente*). L'astérisque pour ramener modestement le terme « permanent » à l'échelle relative des contraintes terrestres. Il se trouve que cette dualité est déterminante pour l'adaptation d'une filiation à un environnement. En effet, la limite de vie, ouvre la voie à des modifications génétiques, statistiquement, à chaque nouveau sujet. Certaines d'entre elles, répondent aux changements de cet environnement. En revanche, les lois du hasard, font que certaines filiations, ne s'adaptent pas et disparaissent. Le BEC est entièrement régi par la loi des grands nombres. L'ADN de chaque bulle univers est caractérisé par ses constantes propres issues de la moyenne du lot synchronisé. Sa signature est le fameux nombre ξ. Elle dépend du hasard et peut-être aussi des restes de BECs, laissés par la génération précédente. On verra que notre bulle-univers, en donne une autre signature précise,  f(ξ) avec la masse du muon. Cela a un rapport avec l'entropie de l'information. Nous en reparlerons.

Sommaire

19. Le puits subquantique élémentaire, de ratio ξ

Le fameux ratio ξ est né de la saturation de la première couche. On a vu qu'il était largement mesuré. C'est lui qui a déclenché la mitose du BEC, car l'intervalle tangentiel était ξ fois trop faible par rapport à l'intervalle radial (anisotropie). C'est lui qui donne le nombre de galaxies et son carré donne le nombre de BEC-étoiles. Ce dernier est également le ratio entre la masse de Planck et celle de l'électron. Il est le témoin tangible du taux de saturation. Mais si l'intervalle des particules quantiques, a été augmenté par mitose, du ratio ξ, l'épaisseur du tachyon est restée en l'état. Cela veut dire qu'à l'intervalle élémentaire quantique ƛe, il correspond une « corde » tachyon d'épaisseur ; ƛo, ξ fois plus faible. Les deux niveaux sont couplés dans une belle harmonie. l'intervalle ƛe est une sorte de maille faite avec un fil d'épaisseur, ƛo. On rappelle que la régularité (l'isotropie) de cette maille, n'est rendue possible que par la célérité des tachyons, via le point zéro central. Quand un électron occupe cette maille, il est couplé, via le puits subquantique, à la corde tachyon.

A ce stade, il est conseillé de revoir le tableau 10-1.

Regardons les transferts d'énergie qui pourraient transiter par ce puits, entre le tachyon et l'intervalle élémentaire quantique. On doit savoir que l'énergie varie toujours en 1/r, y compris dans le puits subquantique. Exemple : l'énergie du tachyon (dans son référentiel) est ξ3 fois plus grande que celle de l'électron (E = me c²) car si m est ξ3 fois plus petite, le carré de la vitesse, co², est ξ6 fois plus grand. Donc la transition maximale, limitée en 1/r reste au ratio : ξ. C'est bien ce que nous mesurons concernant la limite haute (1020 eV), des rayons cosmiques. On a pour un noyau d'hydrogène : ξ m c² / e = 1,45×1020 eV. Mais un puits appelle la notion de jauge. Disons le nettement, aucune énergie gratuite ne peut sortir de ce puits. Chaque volume élémentaire de notre niveau quantique, comporte une dimension vers le niveau subquantique. Si une particule occupe un volume élémentaire, alors elle est couplée avec ce puits. Elle a des relations de jauge !

La première relation de jauge, est de l'ordre de l'information. Il s'agit de l'orientation du spin (état du spin). Selon le modèle standard, cette notion ne peut être une rotation comme on le croyait au moment de sa découverte. A son habitude, il a donc créé un être mathématique qui ne s'encombre plus des contraintes physiques (!). Le modèle oscar n'a pas renoncé à assumer les contraintes physiques et dit clairement que le spin est propre au tachyon. En première approche, nous dirons qu'un électron (ex-tachyon) est couplé avec le référentiel « un tachyon ». Alors qu'un photon (boson) est couplé avec un boson-2-tachyons. Le boson-2-tachyons confère deux fois, 1/2 demi spin à la particule photon (donc 1). Tandis que l'électron est couplé avec un demi spin. Alors quand on intrique deux particules (les mettre dans le même état de spin), on intrique aussi les tachyons sous-jacents. Il vient qu'on a beau séparer les 2 particules, elles restent associées dans leur état initial.

Vous avez dit ξ ? Oui, car la dernière expérience d'intrication entre 2 particules {A-B} – faite par une équipe chinoise a montré que la vitesse de l'information {A→B} est supérieur à c. Le facteur minimum est de 13800 × c. Comme dit au dernier paragraphe du chapitre 11, l'information d'un intervalle élémentaire à l'autre, passe toujours par le centre commun. Cela veut dire que pour toutes distances entre les deux particules, le temps de l'échange est constant : te . La vitesse est ξ3 fois plus grande. Voir le titre : « Bounding the speed of `spooky action at a distance » soit en français : "délimitation de la vitesse de l'action fantôme à distance". Cette expérience limite la vitesse  a 13800 fois la vitesse de la lumière.

Il n'y a pas de lien instantané et donc pas de vitesse infinie. La confusion courante porte sur trois éléments essentiels :

a) on dit « variables cachées » sans préciser « locales ou non locales »,

b) on dit « non localité » sans préciser de limite,

c) la vitesse des tachyons, violerait la vitesse de la lumière.

Le premier élément vient de monsieur BELL qui a montré qu'il n'y a pas de variables cachées locales. Bien noter, locales. Or les tachyons sont non locaux. De plus ils ne sont pas si cachés que cela.  Le second élément s'appuie sur l'incomplétude de l'équation de Schrödinger. Comme la relation de Newton (et d'autres), elle ne dit rien sur la causalité temporelle. Le troisième élément est spécieux car on sait très bien que cette limite ne concerne que les échanges tangibles d'information ou d'énergie. On a montré que l'information d'état n'était pas exploitable au-delà de la vitesse de la lumière. On a vu qu'elle est était plus grande (à posteriori) mais on ne pourrait pas l'exploiter. De plus, on montre que c'est la vitesse des tachyons qui garantit celle de la lumière. Voyons dans les chapitres suivants, les autres manifestations de la signature du puits subquantique.


Sommaire

20. Le puits subquantique et le boson W

Quand une transition intervient dans une particule quantique composite, elle génère un choc qui se manifeste par un boson vecteur. On a déjà vu l'analogie avec le caillou jeté dans l'eau. Il induit un « trou » éphémère avant de s'étaler par des rides (ondes) concentriques. Une autre analogie est bien connue des électriciens, le courant d'extra-rupture. En gros, quand on interrompt un circuit inductif, il se produit un pic de tension qui traduit le phénomène de variation. Le circuit inductif (bobine) se comporte comme une roue inertielle même faible. Si on veut la bloquer d'un coup, il se produit un choc. C'est un problème de variation trop rapide. Le boson vecteur (W) se comporte exactement comme cela. Il est le pic (fort), transmettant la force faible. Il a une masse éphémère (comme un pic) qui matérialise ponctuellement la transition. Prenons comme exemple, le muon. Le modèle standard le considère comme non composite et ignore totalement d'où il vient et comment et pourquoi ? On sait juste que sa masse est ~207 fois celle de l'électron et que sa charge est juste celle de l'électron. Le modèle oscar dit qu'il est composé en deux parties : a) une partie neutre de 103 paires électron-positrons, soit 206 unités ; b) un électron célibataire et confiné. Le muon, très instable se désintègre en un électron + 1 neutrino (muonique) + un neutrino (électronique). Mais cette transition mobilise le fameux boson de jauge, W, dans un temps très court. Le modèle standard a bien mesuré tout cela mais il est encore une fois devant une énigme : où est passé la masse du muon sachant que la masse du neutrino est réputée nulle ?

Alors de quelle transition s'agit-il ? Il s'agit de transférer la masse neutre (206 en unité électron) dans le puits subquantique. Pourquoi ? Parce que c'est de là que le muon est sorti ! On verra plus tard comment, en apportant l'énergie nécessaire, le tissu subquantique résonne précisément à cette masse du muon. On a vu que la brutalité de ce transfert, fait apparaître le boson W. Il s'agit de rendre à un faisceau de tachyons, cette coquille sphérique faite d'ondes d'électron-positrons. Il s'agit de lui redonner le statut π-ADN qu'il avait perdu lors de son extraction d'un faisceau de boson-2-tachyons. Mais cela ne peut se faire qu'en deux temps. Ce statut est d'abord de type transverse, ce sont les rides sur l'eau. A terme, l'eau doit totalement oublier l'incident. Mais en attendant il faut diviser la sphère neutre du muon, en 2 sphères qui s'annulent. Ce déplacement induit localement une déformation du faisceau de boson-2-tachyons. Cette bosse, va ensuite se répartir à tout l'univers, mais à la vitesse (lente) de la lumière. Cette onde est le neutrino. On retrouve une forme intermédiaire (transactionnelle) du π-ADN originel. La masse globale du neutrino est nulle mais réelle dans chacun de ses deux confinements.

Recourir à la règle du π-ADN originel, est certes une contrainte mais qui s'avère très féconde. Elle lève les énigmes par brassées, sans poser de nouvelles hypothèses. C'est la méthode la plus sûre. On verra plus tard comment la genèse du muon, est la résonance relative à toutes les particules de l'univers. Son existence sera également justifiée par... f(ξ). Donc une certaine énergie permet d'extraire les paires électron-positrons, constituant le muon. Le muon s'organise en ondes sphériques où les charges contraires s'annulent. Au départ, elle sont fortement attirées par la force électrostatique, puis par le masquage des charges, elle forme un condensat neutre. L'énergie est minimale dans la superposition des ondes chargées. L'électron célibataire est prisonnier car toute velléité de sortir de son piège, tend à démasquer les charges et coûte de l'énergie ! Mais ce condensat est instable car les paires, créées localement ne peuvent que s'annihiler. Mais pourquoi une paire créée localement s'annihile-t-elle en photon alors que le muon se transforme en neutrino ? Pourquoi, dans les deux cas, les masses disparaissent ? La règle π-ADN est-elle universelle ? Oui c'est la règle dans le tissu d'espace-temps.

Regardons une certaine particule (tout aussi instable), formée d'une seule paire électron-positron, le positronium. Il s'agit de deux corps en orbite autour de leur centre masse. On voit de suite la dualité onde-corpuscule pointer son nez. Le muon est un condensat d'ondes sphériques alors que le positronium est sous forme corpusculaire. Comme l'analogie avec le circuit inductif, le condensat peut se voir comme une bobine inductive. Ces transitions provoquent un pic (boson W). Alors que le positronium, fait de deux corps, passe directement à l'état π-ADN sous forme de 2 photons. Dans les deux cas, la masse disparaît et la propagation est fixée à la vitesse de la lumière. Dans les deux cas, il s'agit de création locale. En revanche, la partie neutre du muon transite en deux entités neutres de type π-ADN transverse. Mais la transition d'énergie est réputée être en 1D (1/r 1/ξ). Cependant, elle est portée par les couches sphériques en 2D. Ramenée à la transition radiale (1D), le choc de transition (bosons W) est donc en 1/ξ. La masse de ce boson vecteur est très précisément liée à : ξ fois celle de l'électron. W = f(me ξ). Le très énigmatique neutrino emporte la masse neutre du muon.

Sommaire

21. L'énigme de la masse des neutrinos

Ainsi la masse apparente du neutrino muonique est nulle. Mais d'autres mesures génèrent une forte controverse liée à un phénomène d'oscillation, impliquant une masse. Mais leur propagation à la vitesse de la lumière, dit le contraire ! Le modèle standard est coincé ! Solution : on a vu que le neutrino, un peu comme le photon, se comporte comme un boson-2-tachyons transverse, où la masse s'annule. Mais comment s'annule-t-elle ? Nous allons utiliser encore une analogie, le gyroscope. Si vous prenez dans vos mains, un disque tournant à grande vitesse, il résistera à tout changement d'orientation. Son moment gyroscopique donne l'impression qu'une masse supplémentaire surgit quand on cherche à incliner l'axe de rotation. Or si vous mettez deux disques tournant en sens inverse, cet effet gyroscopique s'annule. C'est une facette tangible et macroscopique, du fameux π-ADN (ou boson-2-tachyons). C'est la règle d'or de cet univers..... parti de rien. Rappelons-nous le chapitre 7 qui indique que le moment 1D,  [M.L], comporte une partie vectorielle [L] qui permet l'annulation des 2 moments [M.L] en opposition. Il dit que la masse M est indissociable de son amplitude L. Ainsi : L+ + L = 0 et donc le produit : ML+ + ML = 0. Reprenons le cas du muon avec ses 103 paires neutres d'électron-positrons. La transition brusque du boson W, trahit la division en 2 parties opposées, de 103 unités qui s'annulent.

Le chapitre précédent nous dit que la masse globale du neutrino, est nulle. Cette idée n'est pas vraiment nouvelle car M. Majorana avait émis l'idée que le neutrino puisse être sa propre antiparticule. C'est un peu comme l'escargot qui est hermaphrodite (il a deux sexes opposés). Les neutrinos sont pleins de contradictions : a) ils devraient être de masse nulle pour se propager comme les photons à vitesse de la lumière ; b) on sait qu'un neutrino d'un certain genre, peut osciller en autre genre. Cette particularité le contraint d'avoir une masse. Alors masse ou pas masse ? Il faut se rappeler que tous les boson-2-tachyons d'un BEC, sont reliés par le centre et ce, en 10–21 s. Ainsi notre modèle indique que le neutrino est bien de type Majorana, car les deux masses miroir s'annulent selon la règle : π-ADN transverse. Par ailleurs, leur image miroir est reliée à tout le BEC, via le point zéro. On en conclut qu'elles peuvent se confondre avec d'autres « images miroir ». Exemple : il existe un cousin (lourd) du muon qui s'appelle de tauon. On sait distinguer la signature d'un neutrino muon d'un neutrino tauon. Or quand on mesure un flux connu d'un type, on trouve aussi des neutrinos de l'autre type. Toutes ces apparentes contradictions, disparaissent naturellement dans le modèle oscar.


Figure 21-1

C
e dessin montre clairement pourquoi le spin du neutrino est 1/2 alors que celui du photon est 1. les faisceaux de tachyons voisins (demi boson) sont de spin 1/2. Pour le photon on voit bien qu'ils sont rattachés à un boson-2-tachyons. Le système {2 photons} est lié au système {2 tachyons}. Comme on l'a vu, la dualité appliquée au gyroscope, annule son moment. C'est également le cas pour les charges contraires confondues.

Tableau 21-2 :

dualités

A

B

A+B

boson-2-tachyons

1

1

action = 0

charges (superposées)

+

charge = 0

moment gyroscopique

Gauche

Droite

moment = 0

neutrino

Gauche

Droite

masse = 0

photon

quantique

subquantique

masse = 0

La dualité est partout et le fameux π-ADN en est la règle d'or. L'image quantique

des bosons-2-tachyons, est omniprésente et parfaitement mesurable.

Figure 21-3

source : Alain Boudet

Une vue d'artiste qui montre l'hélicité gauche et droite des deux parties

d'un neutrino de type Majorana

Le tableau 21-1, montre une certaine similitude entre le neutrino et le moment gyroscopique. De fait les neutrinos on une certaine hélicité. Elle est gauche ou droite. On ne mesure jamais de neutrinos d'hélicité droite. Alors on dit couramment cette phrase : « le fait que les neutrinos soient toujours gauches explique le phénomène de violation de la parité dans l'interaction faible ». Or le mot « explique » est abusif. On devrait dire : « est cohérent avec ». Oui c'est cohérent mais ce qui explique est la notion d'image miroir du niveau subquantique. Le « disque » gyroscopique qui tourne à droite est celui des tachyons. Ce sens est évidemment arbitraire au départ. Mais ce qui en fait sa généralisation, est le fameux lien de tous les tachyons, passant par le zéro central du BEC. La question importante est : à quoi sert cette image miroir ? Il faut rappeler inlassablement que les tachyons dominent tout. Le passage éphémère en entité muon n'est qu'un excroissance provisoire d'un déséquilibre local du tissu de boson-2-tachyons. Cela veut dire que cette masse doit retourner à l'ensemble de la bulle-univers, via la vitesse finie, de la lumière. Pour ce faire, le mode « oscillation transverse » permet l'annulation des masses et donc d'attendre la vitesse de la lumière. Cette vitesse n'est pas une option ! Elle correspond à la limite de la tendance au ré-équilibrage non local.

Figure 21-4

source : Alain Boudet

Vue d'artiste d'un neutrino de Majorana-Oscar, dans lequel la vitesse de rotation

est maximale au niveau du rayon corpusculaire. Il est l'image transverse du π-ADN originel

avec cependant un développement en 2D, qui lui donne cette forme conique. Vu dans son référentiel

global, il apparaît neutre et sans masse. En revanche, dans chacun de ces référentiels confinés, il est chargé et massique.

Ces masses confinées peuvent alors osciller car la partie subquantique est potentiellement mélangée avec l'ensemble non local du BEC.

L'idée générique de la théorie des cordes, n'est pas éloignée de cet enroulement serré au point zéro. Cependant, la pauvreté de ses

prémisses physiques, l'ont fait ensuite, dériver vers de folles abstractions spéculatives.   

.


22. Comment bat le cœur de l'électron, ex-tachyon

L'électron est la reine des particules et pourtant on ne connaît pas son cœur. Les inventeurs de la théorie quantique, ont cherché en vain à le sonder. Des énigmes difficiles se sont présentées : a) on ne trouve pas de rayon classique (celui qui fait correspondre l'énergie électrique à l'énergie de masse) ; b) comment est répartie la charge électrique ? ; c) d'où vient sa masse, est-il en rotation ? Devant autant d'énigmes, on a décidé que charge et rayon seraient considérés comme ponctuels. Mais cela pose le problème des infinis et du moment cinétique (électron toupie). Alors on a renoncé à la physique en créant des êtres mathématiques. Expérimentalement, l'électron montre qu'il a une rotation intrinsèque mais elle ne peut correspondre à celle d'un disque dont le rayon serait sa longueur de Compton, sous peine d'aller plus vite que la lumière....

En revanche, le modèle oscar, part des contraintes physiques, liées au statut d'ex-tachyon de l'électron. Il était tachyon avec une trajectoire hélicoïdale sur le rayon du BEC. Puis il s'est séparé du reste du BEC via le seul intervalle radial (ƛe) entre 2 couches ! Dans son statut tachyon, la dualité onde-particule, s'exprimait (en 1D) entre le point zéro et le rayon du BEC. L'électron a hérité de la corde tachyon munie de son oscillation et de sa rotation hélicoïdale. Sur la première couche, ce sont des points qui représentaient les sections des tachyons. Mais il y a également des surfaces, relatives aux intervalles. L'électron oscille donc entre la section de la corde (tachyon) et sa surface de Compton. Il oscille sur cette amplitude en conservant sa composante hélicoïdale. Dans le BEC, la corde tachyon était contrainte de tourner un quart de tour chaque fois que la distance était multipliée par 2. Sans faire de math, cela correspond au logarithme base 2 du ratio entre le point zéro et le rayon du BEC (ξ2). log(ξ2;2) / 4 = 18,58 tours / cycle. Le temps du cycle étant te.

Que devient cette vitesse angulaire sur l'amplitude maximale de l'électron ? Elle fait comme la danseuse qui écarte les bras, sa vitesse de rotation, ralentit. On se souvient que le rayon de l'électron varie d'un facteur ξ. Ainsi la rotation diminue comme : 18,58 / ξ. Cela veut dire que la rotation est surtout active pour l'état ponctuel de l'électron. Monsieur Planck a fixé la constante ħ en fonction de l'électron élémentaire (ħ = me ƛe² / te). A première vue, La dimension [M L²/ T] est celle d'un disque qui tourne de surface L² ! Mais si ƛe est le rayon, alors : λe = 2 π ƛe, est la circonférence. Elle est donc 2 π fois plus grande et ça pose problème car la vitesse tangentielle, est plus grande que la vitesse de la lumière ! Ce n'est pas acceptable ! Alors comment faire correspondre la dimension de ħ = [M L² / T ] qui exige une surface qui tourne ?

En fait, la surface (ƛe²), est l'amplitude (ƛe) que multiplie le rayon (ƛe) balayé par l'onde. C'est un carré ! La rotation est maximale au centre et minimale dans l'expression « onde ». Ainsi, lors des collisions (entre corpuscules), on obtient une trajectoire qui trahit une rotation, alors que celle de l'état « onde » est négligeable. Mais cette échange de surface avec ralentissement se transforme en une onde sphérique (2D). Cette surface 2D englobe un volume 3D, tout comme le fait le cuir d'un ballon. Hors de l'opération mesure, la dualité onde-corpuscule oscille au rythme universel, te. Hors de l'opération mesure, la charge est oscillante et répartie. Lors de la mesure, elle apparaît comme étant ponctuelle.

Ce qui apparaît comme un disque tournant, de surface ƛe² est juste une oscillation ayant la forme d'un cône aplati. C'est plutôt la corde tachyon qui grandit comme un cône hélicoïdal. La « pointe » du cône est matérialisée par l'épaisseur du tachyon. La surface, de rayon ƛe est celle qui matérialise l'aire élémentaire quantique. La pointe, de rayon très petit, tourne très vite alors que la vitesse angulaire de la surface est quasi nulle. Ainsi : ħ= me ƛe² / te = me ƛe c possède deux paramètres. La vitesse moyenne d'oscillation dans la hauteur du cône, et le rayon élémentaire, ƛe. La moyenne est à la moitié du cône et le spin est donc 1/2 ħ. Lors d'un impact, c'est la rotation interne (corpusculaire) qui est mesurée. L'aspect 1D du tachyon, était dû à l'absence de degrés de liberté. La dualité onde-corpuscule fait varier sa surface 2D. Elle s'incurve ensuite en 3D.

Figure 22-1

source : Alain Boudet


Vues d'artiste. La première figure représente un électron, évoluant du centre vers son amplitude maximale. Elle est exactement l'image contractée de son état ex-tachyon. La partie haute est la longueur de Compton où la vitesse est minimale. Il oscille dans le cadre de la dualité onde/corpuscule. La vitesse est maximale au centre. La seconde figure laisse penser que les coquillages se construisent comme la progression hélicoïdale des tachyons. Ils sont et nous sommes, des ex-tachyons évoluant dans un tissu de boson-2-tachyons. On peut comparer le ralentissement de fabrication de la coquille avec la variation à la baisse de la vitesse angulaire. Le point zéro est celui d'un demi π-ADN mais de type transverse. La figure de gauche montre bien le règne du 1D torsadé. Le 3D dans lequel nous vivons est une illusion. L'analogie est le textile, où le 3D est obtenu à partir d'un fil, tout comme ces écrits (sur le papier) sont en 2D à partir d'un fil d'encre 1D.

Selon l'indétermination de Heisenberg, il est théoriquement impossible de décrire le détail en dessous du cycle te. Mais si par exemple, on considère que la pointe tourne à 18 tours / te, alors la vitesse angulaire est de : ~ 1022 π/s. Sur la surface élémentaire, elle tombe à 1022/ξ soit 1011 π/s. Cela lui confère une vitesse tangentielle de : 1011 ƛe < c / 100, ce qui lève l'énigme de la rotation de l'électron. L'électron est bien un ex-tachyon avec une compression de sa forme hélicoïdale. Il passe d'un monde 1D, à un monde 2D par son taux d'amplitude qui passe de ξ² à ξ. Il embrasse un 2D sphérique qui lui-même embrasse un 3D qui pourrait ressembler à un escargot. Mais de quoi est faite sa coquille ? D'électrons et rien d'autre ! Et nous de quoi sommes-nous faits ? Sommes-nous des enfants de l'univers ? Donnons-nous des signes de mitose ; d'arborescence fractale ; de nombres 5 et 2 ; du ratio universel ξ = 1011 ? La réponse est positive, y compris pour le nombre de nos neurones (1011).  Ce dernier point reste cependant une spéculation pour le vivant. Mais pour l'univers, nous avons vu qu'il ressort dans plus de 6 points précis. Et ce n'est pas fini !

Comparons les figures 21-4 et 22-1. On voit de suite que la première est l'image normale de la symétrie π-ADN originelle. Ainsi le neutrino est le principal témoin du modèle Oscar. Il est nettement énigmatique pour tous les autres modèles. Regardons maintenant la seconde figure. Que remarquons-nous ? Elle n'est pas symétrique ! Cela veut dire qu'elle est instable ! Oui mais quelle magnitude d'instabilité ? Bonjour dualité. Il y a la paire électron-positron : a) arrachée du tachyon sur le BEC originel. Son instabilité est à l'échelle de la durée de vie de l'univers ; b) créé localement en apportant l'énergie correspondante et sa durée de vie est très courte. Une autre particule est témoin du π-ADN originelle ; le photon. Voir la figure 21-1 et le chapitre suivant.

Sommaire

23. L'oscillation des neutrinos

On a vu que la moitié subquantique du neutrino de Majorana, était une onde non locale. Dans un cycle te, l'onde recouvre tout le BEC, hors perturbation. Statistiquement, elle risque d'interférer avec d'autres ondes de type neutrino. Déjà, en première analyse, on peut concevoir qu'un neutrino de la famille électron, puisse croiser une neutrino de la famille muon ou tauon. Il y en a trois en tout qui représentent les leptons. La mesure d'un flux de neutrinos s'effectue en photographiant les flashs des collisions entre les neutrinos et les atomes contenus dans des grandes cuves remplies d'eau pure. Par exemple, le soleil, sensé émettre un certain flux de neutrinos électroniques, n'en fournit qu'environ 50 % dans les détecteurs. En lieu et place du flux manquant, on détecte des neutrinos (muon ou tauon).

On dit alors qu'ils ont oscillé d'une « saveur » à l'autre. Mais pour cela, il faut avoir une masse. Or le neutrino est sensé ne pas en avoir pour galoper à vitesse c, tout comme les photons. On apprend également que les neutrinos manquants du soleil, ont oscillé avant de sortir de l'astre. On peut donc penser qu'une moitié des neutrinos électroniques a interféré avec les neutrino-ondes des deux autres familles. On considère généralement que ce type d'oscillation vient des états superposés d'une saveur à l'autre. L'eau, nous fournit une analogie avec ce que l'on appelle les vagues scélérates. Des petites vagues peuvent se superposer pour former de très grandes vagues. La théorie du soliton explique ce phénomène de superposition, dans tous les domaines de la physique. Il y a même une théorie du soliton de Pelegrine qui s'inspire de l'équation de Schrödinger. Ce soliton est caractérisé justement par une dualité de localité. La question brûlante de la masse des neutrinos, reste une énigme. Mais pour le modèle oscar, la masse est typiquement duale. Elle est globalement nulle comme le π-ADN originel. Mais lors de collisions, elle peut laisser apparaître une asymétrie entre ses deux moitiés.

Figure 23-1


Il faut rappeler que la notion de non localité, s'entend ici comme relative. Elle ne spécule pas sur l'instantanéité qui sous tend une vitesse d'information infinie. C'est juste la vitesse finie des oscillateur-tachyons. Les résonances du tissu subquantique n'apportent que la partie « soft » ou informative. C'est cela qui fait « osciller » les neutrinos d'une saveur à l'autre sous l'action d'une perturbation locale. C'est cette dualité : information + énergie, qui fait osciller les neutrninos.

La figure 23-1 montre les figures d'interférences créées au niveau subquantique. Le neutrino de Majorana est typiquement dual. Sa partie subquantique est étendue à tout le BEC. Elle est de nature informative. Les neutrinos : νe, νμ, ντ, sont tous de masse globale nulle. Les informations de leur conformité préexistent dans la matrice subquantique. Il suffit d'un choc local d'énergie adéquate, pour osciller d'une saveur à l'autre. Par exemple, si le neutrino qui progresse selon : A → B, est perturbé, il peut échanger selon les deux critères : a) l'énergie perturbative ; b) l'information subquantique, la mieux centrée sur l'énergie de perturbation. Autrement dit, il ne prend pas n'importe quelle valeur, mais seulement celles portées par l'information. La dualité est double : a) la dualité de Majorana ; b) la dualité information-énergie. On pourrait dire : « cerveau-muscle ».

Mais ce n'est pas si simple car la partie étendue et informative, porte également une masse dont la densité est incroyablement faible. Considérons la demi masse d'un muon (103 électrons) distribuée à tout le BEC. Sa densité, distribuée aux ξ9 intervalles du BEC, devient extrêmement négligeable. Cependant, des milliards d'autres neutrinos sont également présents. Dans ce cas, la réduction du paquet d'ondes ne ramènera que l'information de mise en forme de l'énergie de la perturbation locale. L'oscillation des neutrinos est compatible avec la dualité de localité (relative). Il faut noter que le modèle standard se rapprocherait de ce modèle, si il abandonnait – comme l'on fait beaucoup de physiciens – la notion d'infini en physique. Ainsi la dualité de localité déboucherait forcément sur les tachyons à vitesse finie.

Le modèle standard affirme que l'espace est rempli des neutrinos, nés du Big Bang. En effet, il considère que quarks et gluons (deux êtres mathématiques), sortis du chapeau, ont formé les neutrons, protons, électrons. A partir de ces bases spéculatives, il décrit alors une chaîne de réactions primordiales, qui émettent beaucoup de neutrinos. Ce même scénario, oblige à spéculer sur une annihilation asymétrique où l'anti-matière aurait disparue. Mais l'homogénéité mesurée de la température implique une causalité qui ruine le modèle. Mais une fois lancé dans les spéculations (addiction), pourquoi ne pas continuer. Alors on a inventé opportunément, une période inflationniste, qui « arrange tout ». Le manque de prémisses physiques fondatrices amène forcément à spéculer sur la spéculation. Alors que la notion de π-ADN qui se retrouve à tous les niveaux de la physique, les évite toutes. Puis on s'étonne de trouver une mystérieuse matière noire. On s'étonne également de voir que l'expansion en accélération. Plutôt de la voir comme étant l'accélération locale, on a cru résoudre en rajoutant une constante dans l'équation de la gravitation (!).  C'est encore un amalgame entre effet et cause. De plus, on fait la confusion entre l'infini des nombres et la physique du réel.

La physique est en crise. Dans le passé, elle en a connue plusieurs. Au XVI eme siècle, la communauté scientifique enseignait – dans le plus grand des conforts – les lois d'Aristote, bien établies depuis 3 siècles avant notre ère. En accord avec la bible, elles prônaient l'immobilité de la Terre qui était alors, le centre de l'univers. Au XVI eme siècle, Copernic et Galilée furent les premiers à remettre en cause le géocentrisme d'Aristote et de Ptolémée. Ils ont été harcelé par la majorité des savants en place et par l'église. Puis Bruno Giordano, s'appuyant sur les travaux de Copernic, fut moins prudent que Galilée. Il fut brûlé vif par l'inquisition pour sa théorie de l'héliocentrisme (!). Il a fallu attendre les travaux de Newton, fin du XVII eme siècle, pour enfin abandonner les vieilles lunes d'Aristote.

Aujourd'hui, les nouvelles idées ont également du mal à voir le jour. Pour les mêmes raisons, quelques uns – bien en place – n'ont aucune envie de quitter leur zone de confort. Comme au XVI eme siècle, nier ce que l'on a enseigné, réclame beaucoup de courage et d'abnégation. Mais croyez-vous que le monde des physiciens soit devenu plus tolérant ? Pas du tout. Il n'y a pas que l'inquisition pour être féroce et barbare. Voyez le cas de cet illustre savant que fut Monsieur Boltzmann. Quand il a sorti sa fameuse loi sur l'entropie, certains de ses pairs, se sont moqués de lui. Ils l'ont harcelé encore et encore, jusqu'à l'amener au suicide, le 5 septembre 1906 ! Maintenant, la constante de Boltzmann (K) est jugée indispensable à la physique. Sa fameuse loi sur l'entropie informationnelle, S = K ln (W), est géniale. A-t-on entendu quelque excuse venant de ces salauds ? Que nenni ! D'ailleurs, certains aujourd'hui encore, n'en ont pas saisi le sens profond. Ce sont les mêmes qui freinent des 4 fers pour empêcher toute innovation, avec leur seule compétence, la méchanceté !  Alors, ici et maintenant, je rends hommage à monsieur Boltzmann. Dans ce même livre, je vais montrer que cette loi, est un des piliers du modèle oscar, sous la forme : μ = ln (ξ8).

Sommaire


24. Comment galope un photon ?

Albert Einstein rêvait de voir comment les photons chevauchaient le « vide ». En fait la question est mal posée car il faut tenir compte de la dualité onde-corpuscule. L'explication est – comme toujours – dérivée des contraintes du boson-2-tachyons puisque c'est la règle première de l'univers (dans ces deux états). Déjà on peut dire que l'univers n'est pas lisse. Il possède des intervalles élémentaires. Le photon fonctionne comme le neutrino à quelques différences près. Chaque espace élémentaire, ƛe (haut du puits subquantique) est l'image rétrécie du BEC. Les 2 échelles sont régies par la période universelle, te. Donc l'onde photon est aspirée et rejetée, selon : c = ƛe / te [3]. Un univers lisse est juste une spéculation mathématique qui se traite avec des équations différentielles. Plus les prémisses physiques sont faibles, plus les abstractions mathématiques sont spéculatives et complexes.

Comme le neutrino, le photon est l'image quantique du boson-2-tachyons. Il comporte deux parties : a) une moitié subquantique non locale ; b) une moitié quantique. La somme est de masse et charge, nulles. S'il se propage à vitesse c, c'est pour distribuer à tout l'univers, l'énergie qui lui avait donné naissance. Cette dernière avait été conformée par la collecte des boson-2-tachyons, à travers tour l'univers, à la vitesse des tachyons, co. Mais pour évacuer l'énergie de l'annihilation, la vitesse est celle de la lumière, c. La figure 24-1 ci-dessous, montre l'asymétrie de la transition. Rappelons-nous la figure 21-1. On y voit la paire électron-positron, transitant en 2 photons. Ils forment un ensemble à 4 branches, avec le boson-2-tachyons.

                                Figure 24-1                                                                         Figure 24-2


La figure 24-1 montre que le transit subquantique → quantique de l'information de création, est 1033 fois plus rapide que la répartition faisant suite à l'annihilation. Il s'agit de distribuer à vitesse c l'énergie à chacun des intervalles élémentaires de tout l'univers. La figure 24-2, montre le passage du photon, d'un intervalle élémentaire, à l'autre. Cela correspond exactement à un cycle tachyon. Mais il faut se souvenir de la dualité onde corpuscule. Comme [M L] est une constante, on voit bien que plus L est étendu, plus M devient faible. On retrouve ici la fameuse dualité de localité La dualité onde-corpuscule est une dualité de localité. Revenons à nos rides (ou ondes) concentriques s'éloignant du lieu de la chute du caillou. D'emblée on compte 2 types de L : a) l'un est liée à la taille locale de l'onde ; b) l'autre est lié à la taille étendue, du cercle en progression radiale.

Sommaire

25. Collisions de galaxies = matière noire

Ce modèle dit clairement que l'univers est fait de paires électron-positrons. Ces particules sont les briques élémentaires qui composent la matière. Selon l'expérience de pensée du chapitre VI, leur séparation sur le BEC primordial, par un angle : θ = π (opposition), est la cause de la non annihilation. Mais les collisions de galaxies, reconnectent des régions, initialement séparées par des petits angles variables : θ < π . Ces angles ne provoquent pas l'annihilation totale des briques élémentaires, mais les réduisent en gravats de tailles diverses. Selon la dualité onde-corpuscule, ce champ de gravats peut se révéler comme des fréquences parasites ou bruits de fond. Ces gravats expliquent la matière noire car on ne construit rien avec des gravats. La matière visible est faite d'atomes, bâtis avec des briques entières. Le caractère fractal de la mitose a provoqué beaucoup de collisions, dans le passé. C'est également ce que l'on observe.

La clé de ce modèle, basée sur le π-ADN est-elle observée ? La réponse est oui. Il y a par exemple ce lien du CEA qui indique clairement que la matière noire apparaît après les collisions de galaxies. On trouve cette phrase de Frédéric Bournaud : « le fait que les débris d'une collision de galaxies contiennent deux fois plus de matière invisible que visible est une totale surprise ». Mais ce lien parle également de galaxies naines – formées d'une collision de galaxies  dont le halo est très étenduIl dit également : « les disques des galaxies contiennent bien de la matière noire, contrairement aux prédictions des modèles cosmologiques ». Et bien oui car la matière noire créée au sein de la galaxie, lors de la collision, migre ensuite vers la halo. 

Ce type de galaxie naine (ayant subi une collision) est donc logiquement remplie de matière noire. Comme vu au chapitre XVII, le couplage de la matière noire est moindre que celui de la matière ordinaire. Donc les enchevêtrements de BECs sont moins serrés. C'est bien confirmé car on constate que les halos des galaxies naines, sont très étendus. Tout ce qui apparaît étonnant, concorde parfaitement ! Selon notre modèle, il existe également des galaxies faite entièrement de matière noire. Elles sont donc encore plus étendues car leur densité est très faible. C'est certainement ce qui matérialise les trous vides, entre les filets de galaxies.

Une autre observation (DAMA) vue au chapitre XIV, confirme avoir détecté des variations du bruit de fond. Le modèle OSCAR dit qu'il existe un champ de bruits de fond qui représentent la matière noire. C'est l'état onde de la dualité onde-corpuscule. Comme la Terre se déplace, il est normal de constater une variation saisonnière de ce bruit de fond. Il y a donc plusieurs observations – à des échelles diverses – qui confirment la matière noire décrite selon le modèle oscar. Enfin, comme on l'a vu, le bulbe galactique implique des BECS entièrement superposés. Ils ont donc un point zéro commun presque saturé. Il émet donc des particules. Ces particules se recombinent sous des angles faibles (collisions), ce qui crée une autre source de matière noire. Cette dernière est faible en regard de la source globale.

Sommaire


26. Dimensions des grandeurs physiques

Toutes les grandeurs physiques ont une dimension exprimée en termes [M, L, T, Q]. Il est conseillé de revoir le tableau 6-1, auquel nous allons rajouter la dimension [Q] qui est la charge électrique. Ces 4 briques nous donnent accès à (presque) toute la physique. Il est très utile de prendre conscience des dimensions des grandeurs physiques. Voici un tableau de référence. Il ne s'agit pas de l'apprendre par cœur mais juste d'en comprendre la logique. De plus il est fait pour être consulté en cas de besoin.

Tableau 26-1

paramètres

commentaires

M

L

T

Q

vitesse, v (c)

longueur / temps


1

1–1


accélération, g

longueur / temps²


1

1–2


impulsion, p

masse × vitesse

1

1

1–1


force, F

masse × accélération

1

1

1–2


moment cinétique, (ħ)

masse × longueur² / temps

1

12

11


gravitation (G)

volume / masse / temps²

11

13

12


intensité (courant ou débit)

charge / temps



11

1

moment magnétique, μ

longueur² / temps × charge


12

11

1

énergie, W

force × longueur

1

12

1–2


puissance, P

force × vitesse

1

12

1–3


tension U

puissance / intensité → [P] / [Q/T]

1

12

12

1–1

champ électrique E

tension / mètre

1

1

12

1–1

impédance (résistance R)

tension / intensité

1

12

1–3

12

raideur K

force / mètre

1


1–2


perméabilité électrique

masse × longueur / charge²

1

1


12

Entre parenthèses, les grandes constantes de la physique. Le moment cinétique ħ, appelé constante de Planck, pour les particules quantiques, est basé sur les seuls paramètres de l'électron. Il concerne une vitesse « au bout d'un rayon » ou l'impulsion d'une pseudo surface.

La première grandeur physique liée à [Q] est l'intensité. Il s'agit en fait d'un débit de charges ou d'un courant (d'électrons). Dans une conducteur (en cuivre par exemple) il existe beaucoup d'électrons libres. En fait, il suffit de très peu d'énergie pour les arracher de leur noyau. En appliquant une tension de part et d'autre du conducteur les électron se déplacent. Dans un tube cathodique (enceinte vide), on procède comme suit : a) un des pôles est constitué par un filament chaud où l'énergie thermique agite les électrons ; b) ces derniers forment un nuage autour du filament ; d) l'autre pôle est constitué par l'écran : e) on crée un champ électrique E entre le filament et l'écran ; f) les électrons (libres) du nuage, sont accélérés vers l'écran, séparé de la distance [L].

On peut même calculer leur vitesse (au carré). Comment ? Il suffit de regarder le tableau. On a : a) des électrons de masse [M] et de charge [Q] ; b) un champ électrique = E = [M L / T² Q] et on cherche une vitesse au carré : [L² / T²]. On se demande alors ce qui favorise la vitesse. On voit de suite que c'est le champ E, la distance [L] et la charge [Q], soit au numérateur : E [L Q]. En effet, si vous voulez prendre de la vitesse avec votre auto, il faut de la distance. On pourrait faire l'analogie où Q est la pente. Ensuite il faut voir ce qui favorise la vitesse. On sait que la masse [M] tend à résister à l'accélération. Donc : v² = E L Q / M. On vérifie : [M L T–2 Q–1] × [L] × [Q] / [M] = [L² T–2]. On voit bien que les [M] et les [Q] s'annulent. Voilà la formule exacte comporte un coefficient 2, mais la simple approche dimensionnelle permet de comprendre pas mal de chose. Par exemple dans les anciens téléviseurs, on a couramment : E = 10 000 volts/m et d = 0,3 m. Ainsi les électrons atteignent l'énorme vitesse de : (10 000 × 0,3 ×1,6.10–19 / 2 × 9.10–31)1/2 = 1,5.107 m/s ou 0,05 c !

Ensuite on a le moment magnétique. Le tableau montre qu'il s'agit d'une charge [Q] multipliée par une surface [L²] et divisé par un temps [T]. On peut le dire de différentes manières : a) c'est un courant multiplié par une surface ; b) comme dans une particule, c et e = constante, on peut dire que c'est la charge [Q] multipliée par c et actif sur la distance [L] ou le rayon r. Cette dernière, s'écrit donc : μ = e r c. Pour l'électron : r = ƛe et on a : μe = e ƛe c / 2 = 9,2740099 × 10–24 A m². La démarche avec les dimensions n'a pas donné le coefficient 2. La mesure très précise, donne un résultat plus élevé d'un facteur : αe = 1,00115965218 ! Ce n'est pas grand chose mais c'est important car nous allons nous appuyer sur l'extrême précision de cette mesure, pour confirmer le modèle OSCAR ! On se doute déjà que le facteur αe = 1,00115965218, vient du couplage. Et bien oui, le couplage, qui rend les masses plus grandes, agit également sur le moment magnétique.

Mais que veut bien dire ce moment magnétique ? L'unité est : ampère × mètre au carré (A.m²) ou [L² Q/T]. Le modèle standard présente le moment magnétique de l'électron en utilisant la constante de Planck : μe = αe ħ e / 2 me. Cela revient au même, car les masses s'annulent : [M L² T1] × [Q] / [M] = [L² Q/T]. Mais il y a plusieurs problèmes qui sont carrément éludés par le modèle standard. Le premier problème est dans la dimension de ħ, [M L² T1] = me ƛe² c. Or si ƛe est le rayon, la circonférence est 2 π fois plus grande ! Cela veut dire que la périphérie du « disque-électron » tournerait 2 π fois plus vite que vitesse que la lumière ! Devant cette incohérence, le modèle standard a décidé de considérer ħ comme un être mathématique. Dès que la physique du réel, montre une erreur, on la contourne par une abstraction supplémentaire.

Mais il ne faut pas oublier que l'électron est un ex-tachyon-oscillant ! Ce n'est donc pas une toupie mais plutôt une corde enroulées selon la figure 22-1. La rotation est maximale à la base et minimale à la périphérie. En fait, la longueur au carré, ƛe² n'est pas une surface mais le produit de la hauteur d'oscillation par le rayon de la boucle supérieure. Le second problème réside dans l'interprétation physique du moment magnétique des particules quantiques. Selon Oscar, on a bien la charge e, exprimée au rayon ƛe, à la vitesse d'oscillation c. Si l'introduction de la constante ħ, apporte une simplification, elle génère aussi une grave confusion. Le troisième problème est développé dans les chapitres suivants où nous montrons d'autres confusions, apportées par la constante ħ.

Sommaire

27. La relativité restreinte

Albert Einstein a réfléchi aux conséquences de la vitesse limite, c. Il en a fait la théorie de la relativité restreinte. Il a mis en avant la non simultanéité des événements entre effet et cause. Voici le type de  raisonnement – très simple – qu'il a fait. Soit un observateur A, placé à côté d'un interrupteur commandant une ampoule située à d = 3 km, à droite et une autre ampoule située 3 km à gauche. Quand il appuie sur l'interrupteur, il voit s'allumer les 2 ampoules en même temps car elles ont chacune le même effet retard ou Δt = d / c = 3 km / 300 000 = 1/100 000 s. Mais un autre observateur B, situé près de l'ampoule de droite, verra l'ampoule de gauche s'allumer après la « sienne ». Ainsi l'enchaînement des événements, dépend de la position de l'observateur. Avant cela, l'interprétation de Newton, considérait l'espace-temps comme une structure rigide, absolue, immuable. Selon Newton, si le soleil venait à disparaître d'un coup, nous, les terriens, le saurions instantanément. Mais selon la relativité restreinte, nous en prendrions connaissance après l'effet retard. Pour 150 millions de km, le Δt serait de : 150×106 / 0,3×106 = 500 s. soit ~ 9 minutes.

Mais de plus, la vitesse de la lumière ne se rajoute pas à la vitesse de sa source ! C'est facile à comprendre car si elle s'ajoutait, alors elle perdrait son statut de vitesse limite ! Exemple : si vous avancez à une vitesse de : 1000 km / s en émettant un faisceau lumineux devant vous, la vitesse de ce faisceau, vis à vis d'un observateur arrêté au sol, sera toujours limité à c. Mais vous – référentiel en mouvement – vous verrez la vitesse c, moins rapide. Aux limites, si vous voyagez à la vitesse de la lumière, vous galoperez de concert avec les photons, car la différence sera nulle. Mais Albert, vous dirait que cette dernière hypothèse est impossible. Donc l'observateur au sol verra les choses différemment de vous, qui êtes en mouvement. L'effet retard sur le temps qui s'écoule, sera perçu différemment par lui ! Cela révèle la notion de référentiel.

Bizarrement certains physiciens, admettent l'erreur de l'équation de Newton – concernant la simultanéité du lien causal {A → B} – mais ne l'appliquent pas à celle de Schrödinger (voir & 8 et 19). Pourtant, son équation présente la même incomplétude vis à vis de la causalité ! Les deux, laissent entendre une communication instantanée ! Mais revenons à notre génial Albert. Il a proposé la notion de référentiel à vitesse continue ou référentiel inertiel ou galiléen. Il y en a autant que l'on veut ! Pour passer de l'un à l'autre, il faut faire une opération mathématique qui s'appelle la transformation de Lorentz. Voici un exemple bien connu, de relativité du point de vue : vous êtes arrêté en gare dans le train A. Votre vue est limitée au seul train B situé sur la voie contiguë. Si à un moment vous voyez défiler le train B, vous ne pouvez décider qui de lui ou de vous, est en marche.

Revenons au faisceau lumineux que vous émettez devant vous, alors que vous êtes en mouvement continu à vitesse v. Si vous (A) passez très vite devant un observateur à l'arrêt (B), votre effet retard vis à vis de votre faisceau lumineux, sera plus petit que pour B. En effet pour lui (v = 0) il a : c – 0 = c, alors que pour vous : c – v < c. Mais comme l'espace dans cette direction est égal à : c Δt et que pour B, Δt n'est pas réduit, alors il verra votre longueur réduite dans cette direction. C'est la fameuse contraction apparente, des longueurs. Mais pour vous (A), les longueurs restent les mêmes. Mathématiquement cela s'écrit proprement par ce terme : γ = 1 / (1 – v²/c²)1/2. Le terme « gamma » (γ) est le facteur de Lorentz. Si votre vitesse v, atteint c, alors au dénominateur on a : 1 – 1 = 0 et donc le facteur de Lorentz devient infini ! On montre que cela agit également sur l'énergie de masse (m c²) et donc sur la masse. C'est donc la raison pour laquelle les photons et les neutrinos doivent être de masse nulle.

Maintenant, nous allons montrer une erreur que  peu de physiciens ont vu. Bien qu'Einstein se soit bien battu pour éliminer les valeurs physiques absolues, qu'en est-il du facteur de Lorentz (γ) ? On vient de voir que si v = c, la masse devient infinie ! Voici un cas typique d'erreur due à la « vue réduite » du réductionnisme. On montre pourtant que l'expression de γ est très rigoureuse sur le plan de l'analyse mathématique. Mais qu'en est-il physiquement ou réellement ? Einstein a pris des bases concrètes et mesurables, certes, mais il n'a pas songé à en fixer les limites de validité. Nous montrons, au chapitre 8 et tout au long de cet ouvrage, par un énorme flux d'indices, que rien – absolument rien de physique – ne peut être infini ! Seuls les nombres peuvent l'être. Cela veut dire que le facteur de Lorentz, est limité à son domaine de validité. Le simple principe de précaution aboutit également à cela. Mais nous verrons plus loin pourquoi « gamma est limité à xi » : γ ξ. La rigueur de la description ne saurait remplacer l'explication physique. Ainsi l'expression qui respecte les lois physiques, devient : γ = 1 / (1 – v²/c²)1/2  ξ. Cela veut dire que cette loi demeure vraie, tant qu'elle n'atteint pas ξ (~ 1011). La rigueur de la description ne saurait remplacer l'explication physique.

Nous venons de voir rapidement, les bases logiques de la relativité restreinte, mais qu'en est-il de la relativité générale ? Avant d'aller plus loin, il faut bien prendre conscience des limites de l'approche standard de la physique de l'univers. Elle maîtrise les notions de l'espace-temps, sans aborder sa matérialité physique. On ne s'intéresse qu'aux effets mesurables. C'est comme cela que les mathématiciens ont formalisé la relativité restreinte. Quand on parle de « champ », ce n'est qu'une abstraction. Quand on fait l'expérience avec un aimant et de la limaille étendue sur une feuille de papier, on matérialise la description du champ de force mais pas son explication. Ensuite la validité des équations différentielles est basée sur l'hypothèse d'un espace lisse et continu. Or, on sait que la relativité générale est incompatible avec la théorie quantique (granuleuse). Cependant, il se trouve que la relativité restreinte (et générale), recoupent assez bien les causes que nous dévoilons. Disons que prendre le tout comme étant lisse, ne modifie pas trop la réalité granuleuse. Mais il ne faut pas oublier que se limiter aux seuls effets et ce, sans critère de localité, ne peut en aucun cas, révéler les causes.

Il faut prendre conscience que la communauté scientifique a eu du mal à accepter la non simultanéité, indiquée par défaut dans l'équation de Newton. On retrouve exactement le même scepticisme vis à vis de la non instantanéité également indiquée par défaut dans l'équation de Schrödinger. Certains physiciens pensent que la non localité est de nature absolue ! Revoir le tableau 3-1 des folles interprétations de la relation de cause à effet de A vers B, évoquée aux chapitres 3, 8, 19. Il y a cependant une différence de taille entre les deux équations (Newton et Schrödinger). La première évoque la transmission d'énergie alors que la seconde ne concerne que de l'information d'état (de spin). D'un côté, il y a la limite c et de l'autre la limite co des tachyons. L'information d'état est portée par les tachyons. On a vu qu'ils étaient contraints d'avoir une trajectoire hélicoïdale. Leur Δt intrinsèque est constant (te) pour tout le BEC ! Une analogie simple permet de voir cette dualité universelle : votre cerveau (soft) est capable de penser très vite des milliers d'actions potentielles, alors que vos jambes (hard) actionneront avec un effet retard.

Sommaire

28. La relativité générale

La relativité générale s'intéresse à la gravitation et donc au référentiel accéléré. En effet, si la relativité restreinte s'accordait très bien avec les équations de Maxwells sur les champs électromagnétiques, elle ne disait rien sur la gravitation. Là encore, Einstein est parti des effets et c'est bien normal de commencer par eux. Il a posé ce qu'il a appelé le principe d'équivalence. Expérimentalement, cela veut dire que par exemple, l'accélération gravitationnelle terrestre est équivalente à l'accélération en général. Par exemple, il a dit que la trajectoire de la Terre était en ligne droite dans le champ gravitationnel du soleil. Son mouvement uniforme est courbé à cause de l'accélération gravitationnel. Il a considéré l'espace-temps comme un champ de vecteurs (tenseur) dans lesquels s'opposent des accélérations de type inertiel et gravitationnel. La description mathématique est parfaite mais là encore, ce sont les effets et non les causes qui ont été mises en équation.

L'accélération terrestre : g = 9,81 m/s², lui a servi d'exemple. La lune suit une trajectoire inertielle courbe dans le champ de gravitation de la Terre. S'appuyant sur : E = m c², il a compris, contrairement à Newton, que la force qui attire 2 masses entre elles, est une conséquence de la courbure de l'espace-temps. Il faut s'arrêter sur cet aspect car d'un point de vue expérimental, il y a deux niveaux de prise en considération, du problème : a) Newton laisse entendre qu'il existe une attirance en 1/r² « magique », entre les masses ; b) Einstein trouve une explication au 1/r², via la notion de courbure. Cependant, les deux ne disent rien sur la cause physique de la gravitation.


phénomène gravitationnel

Newton

Einstein

Oscar

loi générale des effets : F = G m1 m2 / r²

découvreur

reprise

reprise

lien énergie-courbure : 1/ r²

non

découvreur

reprise

la cause de la gravitation par saturation-séparation*

non

non

découvreur

* outre la cause de la gravitation, c'est aussi la cause de la matière noire et de l'énergie noire.

Einstein utilise la notion de densité d'énergie (rhô) : ρ = E / m3 = [M L1 T–2]. La relation de Newton reste globalement exacte : F = G m1 m2 / . Notons le 1/r² comme élément de courbure, [1/L²] . Avec le tableau 26-1 on peut vérifier l'accord dimensionnel, sachant que : G = [M–1 L3 T–2]. On a donc : [M–1 L3 T–2] × [M2] / [L²] = [M L T–2] qui donne bien une force. Comment Einstein obtient le 1/r², à partir de la densité d'énergie, ρ et G ? Il a simplement regardé la cohérence dimensionnelle, en ajustant avec l'ordre (l'exposant x) de la constante cx. Sa forme didactique simplifiée, est : G ρ / c4 = 1/r². On vérifie donc la cohérence dimensionnelle : [M–1 L3 T–2] × [M L1 T–2] / [L4 T4] = [1/L²] et ça marche ! Dans le détail : [M–1 M] s'annulent, puis : [L3 L1] / [L4] = [1/L²] et [T–2 T–2] / [T4] = [T–2 T–2 T4], s'annulent. Il reste bien le fameux 1/r²[1/L²].

Puis son ami Grossmann a trouvé la forme mathématique (équations différentielles avec tenseurs), à partir de l'approche physique. Cette dualité {physicien → mathématicien} est exemplaire. Malheureusement, la mode du « tout mathématique », a maintenant, pris le dessus. Donc la collaboration avec Grossmann a rendu la description des effets très rigoureuse. Très rigoureuse ? Oui si on se limite à la description des effets et ce, dans un cadre local (planète, étoile). En mettant la masse sous la forme de l'énergie (E = m c²), sa théorie fonctionne également pour la lumière (sans masse). Or on observe bien la courbure de la lumière autour des fortes concentrations de masse. Mais qu'en est-il de la cause physique de la gravitation ? Einstein s'est interrogé toute sa vie à ce sujet. A l'époque, il n'y avait pas les milliers d'observations à grande échelle, dont nous disposons aujourd'hui. Je suis persuadé qu'avec cela, il aurait fait le lien avec le condensat qui porte son nom, le condensat de Bose Einstein (BEC) primordial ! Il en aurait conclu que la brisure de symétrie radiale de chaque boson-tachyon, s'est transformée en un gradient de force tangentielle, transitant à travers chaque espace élémentaire. Il aurait compris sans aucun mal que la gravitation est juste le relais pour garantir une énergie globale nulle. Il aurait fait le lien avec la relation [2] et toutes celles qui en découlent [3], [4], [5].  Il aurait compris qu'il ne s'agit que de la symétrie ultime qui est à l'origine de l'existence du  monde, par la séparation (provisoire) d'entités contraires. Il n'aurait ainsi, pas laisser faire l'amalgame entree le zéro mathématique et le zéro physique. 

Ensuite, Minkowski a cherché à géométriser ces lois pour les appliquer à l'univers. En bon mathématicien, il a inventé un univers-jouet, fait de ces champs de courbure intrinsèque. C'est astucieux mais ce n'est qu'une spéculation sur la réalité physique. Il n'a pas compris que le champ gravitationnel est juste l'effet d'une cause physique ! Le problème avec les champs mathématiques, c'est qu'ils ignorent superbement la réalité de la matérialité physique du continuum masse-espace-temps. Minkowski a bâti un univers basé sur un espace-temps ..... fait de champs mathématiques. Alors, comme de bien entendu, ces spéculations débouchent sur des notions d'infini ! Par ailleurs cette théorie n'est pas compatible avec la théorie quantique. On voit bien là les limites des deux théories, basées d'une part, sur les seuls effets et d'autre part, sur le seul point de vue local.

Dans l'espace-temps de Minkowski, la version euclidienne est un cas particulier. Elle débouche sur un arrêt d'expansion à l'infini ! Si cette conséquence est possible dans l'abstraction mathématique, elle est impossible dans la physique du réel. Cela est confirmé (entre autres) par la récente découverte de cet ajustement de courbure nulle « magique ». Non l'espace-temps de l'univers est tout à fait euclidien et matérialisé physiquement, par le tissu de tachyons. L'espace-temps avec son énergie intrinsèque, n'a rien à voir avec une abstraction géométrique. Il doit se justifier physiquement. A grande échelle, l'expansion de l'univers est maîtrisée par la composante « BEC » de la gravitation. L'univers en expansion est matérialisé par une architecture physique (tissu de tachyons, organisé en couches de BECs). Comme logiquement attendu, celle-ci s'arrête dans un temps fini. Ce temps fini est en parfait accord avec les relations classiques que l'on connaît [2, 3, 4]. Parmi elles, il y a cette loi [5] de l'oscillateur unique (univers), résultant du groupement des oscillateurs-tachyons.

Sommaire


29. La cause de la relativité générale

Le modèle Oscar, est non seulement compatible avec l'effet : densité énergie → courbure, mais il en donne la cause. C'est toujours la même : le couplage entre le tissu de boson-tachyons et la matière. Plus la densité de matière visible est grande, plus l'impulsion des boson-tachyons est affectée. Pour bien comprendre, imaginons un BEC dépourvu de matière. Dans ce cas fictif, sans perturbation, la symétrie de chaque volume élémentaire est parfaite. Ils sont bien « ronds » (isotropes). Un photon passe d'un espace élémentaire ƛe à l'autre, dans le temps te et donc à vitesse constante : c = ƛe / te. L'espace-temps (3+1D) n'est pas une abstraction mais une construction à partir du 1D original. La construction 3D est dynamique car le chemin des tachyons, passe obligatoirement par le point zéro commun, du centre du BEC. C'est ce qui transforme la corde 1D en 3D réel. La clé est la suivante : les boson-tachyons vont ξ3 fois plus vite que les boson-photons mais ils parcourent ξ3 fois plus de chemin. C'est cela et rien d'autre, qui induit la constance de la vitesse c. C'en est la cause !

Dans le cas du BEC vide, le photon se propage dans toutes les directions (isotropie). Mais en présence d'une masse centrale (une étoile comme le soleil, par exemple), l'aller-retour des tachyons sera de plus en plus perturbé en s'approchant du centre. Une petite partie de leur impulsion sera prélevée pour « habiller » les masses centrales, selon : p = po / ε. Cela revient donc à aplatir (radialement) chaque intervalle élémentaire, selon : ƛεr = ƛe / ε. Physiquement, la notion de courbure se révèle au niveau des volumes élémentaires quantiques. Sur le rayon du BEC, plus la masse par mètre est importante, ρm, plus le taux d'ovalisation (ε) est grand. Ainsi la relation du chapitre 28, devient, en remplaçant la densité de masse par la masse linéique : G ρm / c² = ε. Cela donne un taux de déformation géométrique, sans dimension. Vérifions sur le plan dimensionnel : [M–1 L3 T–2] × [M L1] / [L2 T2] = 1 ! Il s'agit donc bien d'un coefficient. On retrouve ici la fameuse dualité onde/corpuscule. La partie « onde » du tachyon, révèle une moyenne constante de la déformation géométrique. La partie « corpusculaire » révèle la variation en 1/r² de cette déformation.

Il y a là une subtilité ! Le ralentissement des tachyons implique une carence de remplissage des trous des couches en avance. Cela induit une réduction du rayon du BEC qui n'affecte donc pas les intervalles tangentiels.  Deux chapitres plus loin, nous verrons que le taux de variation est faible (0,3%). Ainsi chaque bulle élémentaire, devient de plus en plus « ballon de rugby » en s'approchant du centre. C'est cette déformation des bulles élémentaires quantiques, qui incurve la trajectoire de la lumière. La figure 29-1 à suivre, montre que l'équilibre normal dans chaque volume élémentaire autour d'une étoile, est donné par deux types d'accélération : a) la vitesse tangentielle au carré divisé par la distance au centre de l'étoile : v² / r. Cette accélération est dirigée vers l'extérieur ; b) l'accélération gravitationnelle, G M / r², qui dépend de la masse M de l'étoile. Dans chacun des volumes élémentaires, la situation d'équilibre se traduit par deux flèches radiales et opposées qui s'annulent. On a : G M / r² = v² / r et donc : G M / r = . Mais si M induit : alors même les photons ne pourront plus sortir de l'étoile qui est donc un trou noir.  

Figure 29-1 : on compare le comportement d'un photon dans un BEC vide (M = 0), puis avec une étoile de masse M, telle que le photon suive une trajectoire courbée.

On obtient ainsi le même résultat qu'avec le modèle abstrait de Minkowski, mais sans courbure à l'échelle de l'univers. Les couches de BECs en expansion, s'attirent entre elles par la composante constante de G et ce, en fonction de leur taux de déformation local. A grande échelle, il n'y a donc aucune courbure intrinsèque à mesurer et c'est bien ce que l'on vient de constater avec grande surprise. Cet univers euclidien (univers plat) n'est pas un cas particulier de Minkowski mais la signature d'un univers foncièrement euclidien, caractérisé par des couches de BECs en expansion, majoritairement sous l'emprise de la composante constante de G. Il y a un emboîtement de structures physiques qui n'ont rien à voir avec des élucubrations mathématiques.


30. La dualité gravitationnelle

La force gravitationnelle de la gravitation classique, agit en 1/r². Mais il existe une composante constante et faible qui n'apparaît qu'à grande distance. C'est elle qui régit le taux d'enchevêtrement entre BECs. Cette composante se mesure par le ralentissement anormal de la sonde Pioneer 11. Comme on l'a déjà vu, la déformation des espaces élémentaires, génère des effets équivalents à la notion de courbure de l'espace-temps. Comme l'onde électromagnétique, elle se propage d'un volume élémentaire via les boson-tachyon passant par le centre. Le vecteur de la gravitation du taux de couplage et du type de masse centrale (voir chapitre 17). Les équations de Newton et d'Einstein, ne parlent pas de cette composante faible et constante. En revanche, la théorie MOND l'évoque pour justifier l'anomalie de la dynamique des galaxies. Le couplage matière tachyon (donc électron/tachyon) est donné par : τ = 0,0031259 [3]. Mais quel est le couplage matière noire /tachyon ? On a vu que la DM est uniquement représentée par des ondes stochastiques qui sont des harmoniques de l'électron. Par définition elles sont plus grandes que l'intervalle élémentaire ƛe. Par ailleurs elles ne suivent plus la dualité onde/corpuscule. Ainsi elles ne bénéficient plus du puits subquantique comme le proton qui lui oscille environ avec le ratio 2 α2. Cela veut dire que le couplage de la matière noire peut-être fixé à la faible valeur : τn = 1/(2 α2) = 2,5 × 105. C'est la raison pour laquelle, elle migre vers l'extérieur des halos de galaxie. De plus elle a tendance à se tasser aux limites du halo (BECs enchevêtrés). C'est cela qui crée le cisaillement de DM observé.

Le tableau suivant résume les observations énigmatiques qui confirment la composante constante propre au fonctionnement des BECs.

Tableau 30-1

énigmes

résolution par la composante constante (BEC)

ralentissement sonde Pioneer 11

accord avec l'observation et la mesure

présence des halos galactiques

matérialisés par les BECs très enchevêtrés

l'expansion ne concerne pas les amas de galaxies

relatif au faible taux de couplage lié à la matière noire et sa faible densité

halos plus grand pour les galaxies naines issues de collision

cela trahit beaucoup de matière noire issue des collisions et donc un faible couplage

grands vides bordés de filaments (galaxies)

Les vides sont de densité faible de matière noire et l'expansion procède par déchevêtrement des BECs

immense et unique vide de l'éridan

Matérialise le BEC fossile

rapidité de formation des premières étoiles

le tableau 30-2 montre son intensité agissante sur le nuage d'hydrogène remplissant le BEC

Ces 7 grandes énigmes sont levées et concordent avec le modèle oscar.

Pour le BEC-Soleil  le tableau 30-2 montre que la composante constante su soleil ressentie sur Terre, est 10 millions fois plus faible que la composante classique, en 1/r².

Tableau 30-2

distances

accélération de G en 1/r²

accélération Ct BEC

orbite terrestre

6×10–3 m/s²

8,74×10–10 m/s²

sonde Pioneer

6×10–5 m/s²

8,74×10–10 m/s²

aux limites du BEC

10–23 m/s²

8,74×10–10 m/s²

Ce qui est nommé génériquement « accélération » est en fait pour la sonde Pioneer 11, une décélération, γ (gamma) en m/s². Le tableau montre que le nuage primordiale – aux limites du BEC – a subi une accélération bien supérieure à celle attendue par la composante en 1/R². Cela explique la précocité des premières étoiles ! L'accélération de Pioneer 11 vers le soleil est mesurée à :

– 8,74×10–10 m/s²

Vers la  fin du lien Pioneer 11 on indique que l'accélération est une fonction linéaire de sa vitesse ( v ~ 11800 m/s).  En première approche, on trouve :

γ = – v / te ξ3 β = 8,76×1010 m/s²

Avec β = 2 2, la borne de Tsirelson, liée à la non localité, on obtient une belle occurrence avec la mesure. Cette relation montre que cette accélération ne concerne que les corps munis d'une vitesse radiale dirigée vers l'extérieur du BEC. Cela veut dire que plus la DM ralentit, plus elle est libre de s'échapper du halo. Le soleil émet des particules relativistes qui, se recombinant, s'annihilent partiellement en devenant de la matière noire (DM). Cela explique l'étrange réchauffement (en million de degrés) de la couronne solaire. Cette matière noire, ayant perdu le statut de particule élémentaire, est devenue « gravats ». Son couplage au BEC est forcément plus faible que celui de la matière visible. En fait le rayon de la « bulle Compton » moyenne du spectre de la DM, devrait se situer à 2 fois celle de la bulle Compton élémentaire. On devrait donc avoir un volume f(23 π) = f(8 π). Ce taux d'augmentation de volume ferait baisser la densité si la masse ne baissait pas ! Mais ce n'est pas le cas car la masse diminue également du même facteur. On aurait ainsi un taux de couplage réduit du facteur : 64 π². (Voir détail plus loin dans & 50-12). Par ailleurs cet état de la matière perd également le statut relativiste qui réclame une synchronisation précise avec la corde-tachyon. Cependant, elle reste sensible à la gravitation à hauteur de sa réduction. Les coupages (VM et DM) agissent sur les BECs entre eux et les maintiennent serrés dans les galaxies. Le couplage propre à la matière visible, τ = 0,0031259 [3], induit le fort taux de condensation des BECs dans les galaxies. En effet, le halo matérialisant le condensat de BECs, est mesuré à environ 200 milles années lumière, soit 1,33 fois le Rayon d'un seul BEC. Certaines galaxies naines étant majoritairement composées de DM, leur halo s'en trouve très étendu et c'est bien ce qui est mesuré. Le taux d'enchevêtrement des BECs formant l'espace-temps en dehors des galaxies, explique leur étendue. Ils forment les grands espaces « vides et noirs », observées entre les « filaments » de galaxies visibles. Ces espaces, étendus en moyenne sur ~ 300 millions d'années-lumière, sont radialement environ 600 fois plus étendus que les « filaments » de galaxies, larges de ~ 500 mille années-lumière. Ces filaments de galaxies sont considérés en moyenne comme ayant une épaisseur de 6 galaxies, en moyenne. Ces filaments ne participent pas à l'expansion. Si un grand vide, est composé d'un millier de galaxies (noires et donc étendues) alors les 100 ξ = 1014 BECs qui la composent auraient un taux maximum de déchevêtrement de ξ1/3 = 100 000 ~ 150 fois plus étendu qu'aujourd'hui soit après 2000 G.y.l. ! Ensuite, au fur et à mesure de l'expansion, des galaxies devenues noires, viennent enrichir ces espaces intergalactiques. A terme, il ne reste plus que des BECs vides, uniformément répartis pour paver une coque 2D. (voir Eddington & 50).

Ce que Minkowski a voulu pour l'univers entier, ne fonctionne déjà plus, lorsque l'on s'éloigne d'une étoile. Le comportement des halos de galaxies (enchevêtrement de BECs) va également dans ce sens. En effet, les galaxies naines issues de collision, ont des halos très étendus. On a vu également que parmi ces dernières, il y en a qui ne sont naines qu'en apparence car leur taux de matière noire est élevé. Enfin on a vu que le taux de couplage de la matière noire est plus faible que celui de la matière visible. Il est donc normal que leur halo soit très étendu. Le couplage {BEC-BEC} passe par le couplage {BEC-matière}. Donc, à grande échelle, il est normal de constater que l'expansion (déchevêtrement des BECs), ne concerne que les espaces vides de matière visible. Tout cela est cohérent avec l'observation. Comme toute chose, la gravitation est duale.

Devant le problème d'incompatibilité entre la relativité générale et la théorie quantique, certains chercheurs veulent revoir l'un et l'autre. Il existe deux courants : a) ceux qui pensent que c'est uniquement la courbure qui attire les masses ; b) ceux qui pensent qu'il s'agit d'une force liée aux seules masses. Vous ne remarquez rien ? Revoyez le chapitre 1 et son exemple avec les biologistes. Toujours ce réflexe binaire, A ou B alors que c'est toujours : A+B. Vous l'aurez compris il s'agit des deux à la fois. Pourquoi ? Revenons aux causes ! Sur la circonférence de la première couche du BEC primordial, on a un gradient de force qui s'exprime sur chacun des corps et des intervalles. C'est ce que dit la relation [2]. La force de rappel des tachyons, dépend de la la charge élémentaire, f(e). Quand chacun de ces derniers devient électron ou positron, il conserve sa charge électrique (locale) et de plus, il garde en « mémoire » la très faible charge tachyon, divisée par le nombre de paires, présentes sur la demi circonférence.

Cela est très important car chaque étape de l'univers doit conserver la règle du rien : le π-ADN. La somme de tout, doit toujours restée nulle. On comprend de suite les points suivants : a) la cause de la gravitation ; b) le fait qu'elle soit toujours attractive car les tachyons séparés ne « pensent » qu'à recouvrer leur état initial, en s'attirant mutuellement ; c) la faiblesse de cette force ; d) le lien avec la relativité générale, car chaque intervalle (espace) porte ce gradient de force. Ce dernier point doit être vu dans le cadre de la non localité de la symétrie des tachyons, formant l'espace-temps. Le lien {espace-particule} est inséparable.

sommaire


31. La cause physique des quarks

On sait que des quarks sont confinés à l'intérieur des protons et autres particules de la même famille (hadrons). Expérimentalement et plus généralement, on détecte des « boules dures » à l'intérieur des hadrons. Pour le proton, ces quarks ne représentent qu'une masse infime de la masse totale. Devant une telle constatation, la sagesse eut été d'envisager l'alternative suivante : a) les quarks sont des éléments constitutifs ; b) les quarks sont des éléments induits. Or, on a choisi d'ignoré la seconde branche de l'alternative. Pourtant, toutes les expériences cherchant à isoler (déconfiner) durablement les quarks, ont échoué. On a parlé de « soupe de quarks » mais si cet état est certes possible, il s'avère très instable (ou éphémère). On a donc toute légitimité de ne pas ignorer la possibilité des quarks induits. Cela serait cohérent avec le fait qu'ils ne survivent pas longtemps, hors de leur confinement.

Mais quels sont les autres indices qui défendent l'hypothèse de l'induction des quarks ? Ils sont nombreux. Mais d'ores et déjà on peut dire qu'il est imprudent d'éliminer arbitrairement, une des deux possibilités. Ensuite, l'échec du déconfinement durable est un premier indice fort. Dans le cadre du modèle Oscar, le second indice est flagrant car il montre qu'il n'existe qu'un seul type de particule primordiale : la paire électron-positron. De plus, son ontologie est entièrement justifiée par les tachyons dont il est issu. Mais nous allons développer d'autres indices qui, en plus, expliquent le mécanisme précis de l'induction des quarks. Pour cela il nous faut d'abord rappeler les familles de particules du modèle standard : a) les hadrons, qui comportent des quarks ; b) les leptons, qui n'en comportent pas. Nous allons étudier quatre cas significatifs qui comportent de 0 à 3 quarks.

On a déjà parlé du proton au chapitre 5. On vu également avec le lien [3] que ce modèle est contraint par un proton composé de 920 paires neutres d'électron-positron et un positron célibataire et confiné. Ce n'est pas un hasard si le proton possède exactement la charge du positron. On a vu également que le proton possède 3 unités physiques pour exprimer sa masse ; a) la masse mesurée (1836,15) en unité électron habillé ; b) la masse nue en unité entière « électron non habillé » (1841) ; c) la masse nue et brute (1835,26) résultant des  paramètres primordiaux [3] et forcée de s'arrondir en nombre entier. On sait que la masse mesurée de l'électron, comporte une partie dite « virtuelle » qui le rend plus massique que sa base nue. On voit de suite que le nombre représentant sa partie neutre (1840 charges masquées) est divisible par 16 et donc par 8. Le nombre 8 jouant un rôle crucial dans la construction des éléments chimiques. On verra par ailleurs que le rayon du proton est cohérent avec un proton divisé en 4 groupes de 460 paires (ou 8 groupes de 230 unités). On note que 4 groupes génèrent 3 intervalles.

On a vu l'importance universelle de la relation de Boltzmann au chapitre 23 et de son application au muon. Ce dernier possède également 3 unités physiques pour exprimer sa masse ; a) la masse mesurée (206,76) en unité électron habillé ; b) la masse nue en unité électron non habillé (207) ; c) la masse brute (206,11) résultant de la loi d'information de Boltzmann : mμ = ln 8) dont on reparlera au chapitre 33. On voit de suite que le nombre 206 n'est divisible ni par 8 ni par 3.  Ce lepton est donc formé d'un seul groupe. Il ne génère donc aucun intervalle et donc aucun quark.

Enfin le tableau suivant montre également deux autres particules significatives dont la première, appelée pion πo, comporte 2 quarks. Son nombre entier (264) est divisible par 3 mais pas par 16. Et la quatrième est la particule très lourde, cousine du muon, le tauon. Cette particule sans quark, est bizarre car elle peut se désintégrer soit en mode lepton (sans quark) soit en mode hadron, avec quark. On vérifie que son nombre neutre (3480), correspond à cette double issue car il se divise aussi bien par 3 que par 8. Le tableau 31-1 montre la cohérence entre le nombre d'intervalles entre groupes et le nombre de quarks.

Tableau 31-1 : quatre particules types, chacune exprimée dans les 3 unités électron

en unité électron

masse

mesurée

Nb unité

nue

masse neutre

Nb groupes

Nb quarks

(intervalles)

masse

brute f(ξ)

nue /

mesurée

nue /

brute

ratio

proton

1836,15

1841

4 × 460 =1840

4 – 1 = 3

1835,26

1,002639

1,003126

1,000486

pion πo

264,14

264

3 × 88 = 264

3 – 1 = 2

263,72

1,00053–1

1,001061

1,001592

muon

206,77

207

1 × 206

1 – 1 = 0

206,112

1,001121

1,003126

1,002003

tauon

3477,5

3481

1 × 3481

1 – 1 = 0

3470,96

1,001006

1,002892

1,00188

Ce tableau a été élargi a beaucoup d'autres particules et chaque fois, on constate une cohérence entre le nombre d'intervalle et le nombre de quarks. Les intervalles sont considérés comme des zones polarisées qui offrent globalement une image miroir de la charge célibataire centrale.

Outre l'élargissement de la cohérence de ce tableau, y-a-t-il d'autres indices ? Oui et nous allons maintenant en parler. Pour bien comprendre, il faut revenir à la signification physique de ce que l'on appelle la longueur d'onde réduite de Compton. Cette dernière est considérée ici étant comme le rayon de la partie « onde sphérique » de la particule étudiée. La base universelle est celle de l'électron, ƛe = 3,86 ×10–13 m. Cette longueur est strictement rattachée à la masse de la particule. A partir d'elle, il suffit de faire une simple règle de trois pour obtenir le rayon « onde » de la particule. Plus la masse est grande, plus la longueur d'onde est petite. Cela veut dire clairement que le produit [ML] est une constante ! Mais attention, pour les particules composites, la masse à prendre en compte n'est pas la masse totale mais celle d'un groupe. Par exemple, pour le proton, le rayon « onde » ou rayon de la coque sphérique, n'est pas 1836 fois plus petit que celui de l'électron mais 1836/4 = 459 fois plus petit.


Cela est confirmé par la mesure du rayon du proton : rp = 4 ƛe / 1836,15 = 8,42 ×10–16 m, tout simplement. Cela veut dire que l'application de la dualité « onde/corpuscule » dans le proton est de type « onde + corpuscule ». Il n'y a pas alternance (OU) entre les deux états comme dans l'électron, mais une cohabitation de type (ET). La partie corpuscule – très minoritaire – est représentée par les quarks. La partie « onde » est confondue avec la charge. Le proton est majoritairement dans un état « onde ». En fait, toutes les particules composites fonctionnent de cette manière.

Ci-après, le calcul des 6 quarks, toujours fonction de ln (ξ1/2). Ramené en unité électron,  le calcul est direct. Les quarks sont des inductions créées par l'interaction (oscillations) entre les hadrons et le puits subquantique. Leur état est permanent tant qu'ils sont confinés.  On rappelle que le mode ln (ξ1/2) est également celui des muons, tauons et pions. On rappelle également que le taux du puits subquantique est la conséquence directe et locale, des 6 étapes de la mitose fractale (non locale).  


mesures (MeV) calcul :  f(√ξ)  α√2 coefficients :    α√2 MeV noms
2,3(±07) 5,152798E+00 2/5 2,6331 u
4,8(±05) 1,030560E+01 4/5 5,2661 d
95(±5) 1,873038E+02 α / 3 p 95,7121 s
1275(±25) 2,496507E+03 √2  α 1275,7125 c
4180(±30) 8,172080E+03 √2 √(π/3) ξ /  α4 4175,9244 b
173210(760) 3,391947E+05 √2 ( α/t)2 173328,1113 t


32. La clé par la constante [ML]

Le chapitre 31 nous dit que la notion quantique de masse est différente de notre perception macroscopique. Nous l'avons vu au chapitre 21, la constante [ML] revêt une importance considérable ! Le fait que les particules composites n'oscillent quasiment pas, les amènent dans un mode où seules les charges s'annulent par masquage. Mais dans le cas de la transformation en photon ou en neutrino, la séparation des charges en deux groupes opposés, annule également les masses. Cela vient de leur mode d'oscillation, détaillé ci-après.

En clair, les deux types d'état sans masse (neutrino ou photon), se comportent exactement comme le tachyon dual oscillant règne la loi du π-ADN. Cette loi dit : a) la masse et la longueur (amplitude d'oscillation) sont inséparables ; leur produit [ML] est une constante ; c) l'action est nulle (π-ADN) par le fait que les deux longueurs en opposition sont de nature vectorielle M L et donc la somme est nulle :  (voir ici [6] la forme mathématique). On peut dire que les deux moments s'annulent. Au niveau quantique, la notion de masse seule, n'existe pas.

Le schéma est le suivant : a) le groupe massique composite neutre : {+ – + – + – + –} possède un rayon commun (non vectoriel) ; b) les 2 groupes oscillants non massiques : {+ +} {– –} possèdent chacun un rayon opposé à l'autre. La classe (a) concerne toutes les particules composites massiques alors que la catégorie (b) concerne le neutrino et le photon (non massique). A cet égard, le mode muon → neutrino est identique au mode proton → photon : {+ – + – + – + –} → {+ +} {– –}. Ils ne sont différentiés que par le spin. Le neutrino est de type Majorana et le groupe partenaire est représenté par 1/2 boson-2-tachyons. Le groupe partenaire du photon est représenté par un  boson-2-tachyons, entier. Dans la classe (a), la fusion complète, masque les charges qui s'annulent ; dans la classe (b), le masquage complet (superposition des charges) annule la répulsion EM des charges de même signe et les additionne. Dans ce dernier cas, cela fonctionne comme un groupe d'oscillateurs tachyons qui auraient fusionnés et dont les produits ML s'annulent.  

Mais comment passe-t-on de l'état {+ – + –} à l'état {+ +} {– –} ? Si on peut facilement comprendre comment les charges alternées s'attirent, fusionnent, se superposent et se masquent, il apparaît étrange que des charges identiques puissent fusionner alors qu'elles se repoussent. En fait cela ne se produit pas puisque le masquage (annulation des charges) est déjà réalisé dans l'état « massique ». Mais dans cet état si le masquage annule bien la force de répulsion, il additionne les charges de même signe (+ ou –). De plus, la force de Lorentz (celle qui attire les courants parallèles ou déplacement de charges), tend à conserver cet état. Ainsi le groupe unique et instable, se scinde en deux parties opposées car c'est la forme fondamentale du boson-tachyon qui annule ses paramètres physiques dans sa dualité. Peu importe de savoir si cela se présente sous forme de faisceau de tachyons duaux ou si ces derniers sont fusionnés. Cela revient à un  (π-ADN) de plus grande taille.  Ainsi, les neutrinos sont sous la forme fondamentale des tachyons fondamentaux. Ce qui est exotique, c'est la matière courante ! Ainsi l'oscillation de saveur est rendue possible par la participation des tachyons qui – évoluant dans tout le BEC – portent en eux les résonnances leptoniques.

Dans le cadre du proton par exemple, la longueur L (le rayon des sphères) est unique, identique et commun, pour toutes les masses du groupe. Il n'y a donc pas d'opposition algébrique qui annulerait la somme des moments : (m1 + m2 + mn) L = > 0. La seule dichotomie, dans le domaine des particules quantiques, réside dans cette dualité : soit la particule est dans l'état massique est donc : (m1 + m2 + mn) L > 0 ; soit la particule est dans un état non massique (ou π-ADN). Les particules massiques que l'on observe, sont orphelines (ou séparées) de leur dualité. C'est un état minoritaire et provisoire. Pour être précis, cette description ne concerne que la partie neutre de la particule. Donc l'oscillation (photon ou neutrino) est de type transverse : {quantique ↔ subquantique} alors que celle du tachyon est de type {subquantique ↔ subquantique}. Cela lève complètement l'énorme énigme de la disparition de la masse, tant en mode photon qu'en mode neutrino.

Tableau 32-1

état

partie neutre du proton

partie neutre du muon

massique

masquage des charges

masquage des charges

non massique

l'oscillation en mode seesaw → le produit vectoriel annule masse et charge → photon

l'oscillation en mode seesaw → le produit vectoriel annule masse et charge → neutrino

En fait, la nature nous montre naturellement le mode π-ADN qui est la base du modèle OSCAR. L'aspect « particule massive » dont nous sommes faits, est loin d'être majoritaire. Il ne représente que l'aspect éphémère lié à la séparation survenue sur le BEC fossile. Il est donc normal que photons et neutrinos, perdent leur masse, ce qui leur permet de filer à la vitesse de la lumière. L'état « particule massive » ne peut que retourner à l'état π-ADN via les modes neutrinos et photons.

Comment le modèle standard gère-t-il cette énigme de la disparition de la masse ? Par un abus de langage. Explication : en ramenant tout à l'énergie. En effet, pour l'électron, il suffit de dire que le paquet massique : E = me, se transforme en : ħ ν= me ƛe ² / te², non massique. C'est vrai mais cela n'explique aucunement la disparition de la masse ! D'ailleurs le terme me apparaît dans les deux expressions. L'explication physique par le modèle oscar,  est fournie ici par la règle du π-ADN, donnée dès le chapitre 7. On ne peut pas dire que le mode des tachyons soit caché car il transpire dans ce qui est largement majoritaire dans l'univers : photons et neutrinos. Et certains continuent à ne pas être dérangés par des neutrinos allant à la vitesse c, tout en étant massiques !

Cependant, un des succès du modèle standard, est d'avoir bâti un système d'unités très cohérent. Il y a notamment la définition de la charge électrique élémentaire : e² = f((me ƛe) = f(ML). Cela fonctionne très bien car la charge est véritablement une composante de ML. Rappelons-nous, dans l'oscillateur-2-tachyons d'origine, la charge (élevée au carré) est le vecteur d'annulation des ML opposés. Elle est donc forcément une composante des ML opposés. Dans le proton (composite), l'oscillation est comme figée. On peut l'expliquer par plusieurs biais : a) le rayon est imposé par la constante ML ; b) l'empilement des ondes sphériques ne supporteraient pas une réduction de volume, car cela aboutirait à un brusque démasquage des charges électriques. Aux limites, cela demanderait tellement d'énergie que cela créerait une nouvelle particule. La masse inertielle du proton vient de sa non oscillation.

Tableau 32-2

exemples

n groupes mixtes (neutre)

2 groupes miroirs chargés

partie neutre du proton

(n=4) pas d'oscillation → annulation des charges mais pas des masses

oscillation seesaw → annulation des charges et des masses → photons

partie neutre du muon

(n = 1) pas d'oscillation → annulation des charges mais pas des masses

oscillation seesaw → annulation des charges et des masses → neutrino

Le modèle standard fait une dichotomie entre le photon et le neutrino sur la base du spin. Mais si cette dichotomie existe, elle n'est pas fondamentale. Elle marque seulement la dualité {localité – non localité}. L'image miroir du neutrino est locale, ce qui n'est pas le cas du photon. Dans le cadre des particules composites : a) la création du muon et du tauon est toujours locale, et s'assimile aux particules virtuelles ; b) la création stable de l'électron et du proton est toujours non locale. Cette non localité donne un photon de spin entier (boson-2-tachyons) alors que la localité des leptons donne un neutrino de spin 1/2 (1/2 boson-2-tachyons = 1 tachyon). En clair, un neutrino est une variété de « photon local ».

Il y a une subtilité ! Que vient faire le neutrino dit « électronique » lié à la désintégration du neutron en proton qui est dans le mode « photon » ? Et bien, en conformité avec ce qui a été précédemment, les particules virtuelles sont de création locale. En fait le (petit) neutrino issu de cette transformation, témoigne de la diminution des particules virtuelles entre l'état neutron et l'état proton. Mais alors pourquoi les 3 types (saveurs) de neutrinos oscillent-ils entre-eux ? Par la perturbation locale des demi-boson-tachyons. Ces derniers comportent les 3 modes de résonance. Par exemple, un flux de neutrinos muoniques, attendu, sera détecté avec une partie transformée en neutrinos tauiques. En conclusion, les neutrinos sont de la famille des particules virtuelles. Elles trahissent les perturbations locales qui oscillent en permanence.

Sommaire

33. La subtilité du continuum MLT


Ce modèle dit clairement que l'espace-temps est discrétisé. Alors comment peut-on parler de continuum ? Il existe donc une dualité continuum-discrétisation car l'évolution du tachyon apparaît comme continue. Dès le début de cet ouvrage, nous avons insisté sur l'inséparabilité de ML au niveau des particules. Nous avons vu que l'oscillateur-tachyon-dual est composé de deux moments (ML) opposés. Nous avons vu que la charge élémentaire est fonction des deux ML opposés. C'est elle qui représente le lien causal qui les annule en permanence. Chercher à déterminer le M du tachyon est donc impossible. On ne peut connaître que le produit ML = ħ /c, non massique mais seulement dans le référentiel tachyon. En revanche, on peut mesurer le M de l'électron car il est séparé de son alter ego. On a vu que le produit ML est constant pour le tachyon, l'électron, le proton et pour toute particule, y compris le ML de Planck. Il est la base du zéro physique « à partir de rien ». Il es la cause de la fameuse dualité onde-particule. Plus la masse est faible, plus la longueur d'oscillation, est grande. Pour une masse nulle, la longueur devient infinie.

Oui, mais on a vu en long et en large, que la masse ne peut pas être nulle ! Revenons à la fameuse subtilité avec le temps. Replongeons-nous dans l'oscillateur dual. Pourquoi existe-t-il ? Parce que c'est la seule façon d'obtenir un zéro physique. Le zéro (mathématique) absolu ne peut exister à cause des infinis qu'il génère. Donc l'oscillateur dual est contraint d'exister sous la forme de deux ML opposés et qui s'annulent grâce à leur composante charge = f(ML). D'accord mais quelle est la période (l'inverse de la fréquence) ? Au départ, les oscillateurs sont stochastiques, et leur période est typiquement aléatoire. Mais à chacun des cycles est décidé un ML (changeant à chaque cycle) et c'est lui qui induit le temps. Bon on a vu que cette situation débouche forcément sur une fusion-synchronisation qui amène à une seule et unique période.

Alors si le temps est induit par ML, on doit pouvoir le prouver ! Cette relation [7] montre que le temps propre de l'électron est bien induit par ML. Mais il apparaît un énorme paradoxe : les 3 unités (kg, mètre, seconde) totalement arbitraires, ne peuvent pas donner la valeur numérique du temps en seconde ! C'est vrai mais c'est là que commence la subtilité.  Le lien [7] l'explique mathématiquement mais étant un peu compliqué pour les non initiés, nous allons montrer cette subtilité par une autre voie.


En première analyse, reportons-nous au chapitre 10 traitant de la synchronisation. On constate que la synchronisation revient à mettre tous les ML en commun. On rappelle ici que tous les tachyons sont, à ce stade, en en mode stochastique car aucune loi (magique) ne fixe une valeur précise. On rappelle également que la synchronisation primordiale relève de trois grandes lois : a) la loi de Huygens, largement vérifiée depuis, à l'échelle quantique ; b) la loi statistique des grands nombres qui aboutit forcément à terme, à la fusion générale ; c) la loi du π-ADN, qui annule tout, y compris le temps et rend donc inéluctable la création d'un BEC synchronisé (dans le référentiel tachyon) ! Comme en toute rigueur, la synchronisation est toujours relative au temps, on a déjà un premier aperçu de T = f(ML).

En deuxième analyse, on vérifie que le temps (inverse de la fréquence) est toujours proportionnel à ML. On l'a déjà abordé avec la corde de guitare. Une corde longue et massive vibre lentement et donc nécessite du temps pour réaliser un cycle de vibration. elle donne une note plutôt grave. Du point de vue dimensionnel, on a : T = (ML/F) où F représente la tension (ML/T²) de la corde. Attention, l'analogie est limitée car la note (fréquence) de la corde de guitare dépend également de la tension F. Or ce paramètre – contrairement à la charge électrique – ne dépend pas de ML comme dans le tachyon ou l'électron. On rappelle que le modèle standard fixe également la charge élémentaire comme étant : e² = f(ML) pour l'électron.

En troisième analyse, on vérifie que l'inséparabilité et la constance de ML, ramènent de fait, les deux arbitraires à un seul. On a donc un couple avec d'un côté ; K = ML et de l'autre ; T pour le temps. Toute la physique du tachyon (et de l'électron) est là ! Maintenant imaginons une autre civilisation avancée. Elle observe les mêmes électrons (cousins des tachyons) et leur affuble un K' = M' L', exprimé dans une autre unité arbitraire. Elle exprime le temps de l'électron dans une unité tout aussi arbitraire, T'. Comme ici, cette civilisation ramènera l'unité K' à 1 = K1. Alors le T' donnera numériquement un ratio T'1, sans dimension, qui équivaudra à sa valeur dans son unité arbitraire. Partout l'électron répond à : T = f(K). On aura en valeur absolue (ou module) : T' / T1 = |T'|. L'électron est le redresseur universel d'unités arbitraires.  En résumé, on peut dire que toutes valeurs numériques arbitraires (K et T), formeront toujours un ratio proportionné avec l'unité électron. Au final, son rapport physique naturel entre ML et T reste indissociable, y compris pour tout arbitraire fixant ces deux unités.

Son temps dépend de ML et donc la valeur mesurée dans l'unité seconde va s'inscrire comme un ratio sans dimension par rapport à 1 ! Et on vérifie que la relation [7] donne effectivement la valeur numérique du temps (mesuré) de l'électron (mais sans dimension). Le lien [7] montre que l'électron oscillateur revient à 3 débits superposés : l'espace parcouru dans le temps te, donne une vitesse ; la charge déplacée dans le temps te, donne un courant et le débit de masse dans le temps te, donne une impédance. Comme le temps est commun au 3 débits (ou courants), on retrouve le temps comme étant proportionnel à la racine cubique du produit scalaire de ces trois courants.


Sommaire

34. Architecture du proton

On sait que les grêlons sont plus durs que la glace. Pourquoi ? Parce que le grêlon est créé en couches successives et sphériques, d'eau gelée. Cette structure en couche fait également la dureté de l'oignon alors que sa chair est relativement tendre. Et bien imaginons maintenant l'agrégation des paires électron-positrons, sur la couche du BEC originel. Cela se passe en deux temps : a) sur la couches 2D les paires électron-positrons amorcent un mouvement en vue de s'agréger en proton ; b) la mitose amène l'agrégation en cours, à se faire en couches sphériques. Contrairement au grêlon, l'agrégation se fait de l'extérieur vers l'intérieur. Selon la loi de KOIDE-MAREAU, au terme de la mitose, le proton comporte 920 paires (ou 1840 unités), agrégées en couches + 1 unité confinée. Au chapitre (15) on vu que le proton ne « pèse » pas 1841 électrons (nus) mais 1836,15 électrons (habillés de particules virtuelles). En fait, on le sait, l'unité « électron mesuré » est « chargée » de particules virtuelles.  Le ratio qui marque la différence en unité électrons est : τp = 1841 / 1836,15 = 1,002639937.

Tableau 34-1


particules

Nombre unités entières

Nombres constatés

taux habillage

τ

partie neutre

total chargé

mesuré

d'origine

proton

1840

1841

P = 1836,15

mPo = 1835,263

τp =1,003125948

tauon

3480

3481

τ = 3477,76

mτo = 3476,66

ττ =1,001245043

muon

206

207

μ = 206,76

mμo = 206,1192

τμ =1,004290226

neutron

1841+1 =1842

durée de vie :

tN = π te ξ3 / 3 (2 α)4 τp = 880,31243 s.

La durée de vie du neutron est effectivement mesurée à 880,30 (±1,1) secondes. La dernière ligne du tableau indique qu'elle est fonction du temps élémentaire te et de ξ3, du puits subquantique.

De même nous verrons aux chapitres (37 et 40) que le muon et le tauon, sont également composites et se caractérisent aussi, par 3 niveaux de masse : a) la cause de son existence et donc sa valeur d'origine, f(ξ); b) la valeur mesurée en unité habillée ; c) l'arrondi obligatoire en nombre entier. Ce qui distingue le proton des muons et tauon (leptons), est le nombre de groupes internes. Si le proton à 4 groupes (3 intervalles et donc 3 quarks), les leptons n'ont qu'un seul groupe et donc zéro intervalle et zéro quark. Il y a également la loi de Koide-Mareau qui montre clairement la composition en nombre entier. Par ailleurs cette loi montre également le lien entre lepton, proton et neutron, selon : 

(0 + 206 + 3480 + 1840) / 3 = 1842  = (–2 + 206 + 3480) / 2

Il faut bien avoir en tête que le proton est la seule et unique particule composite stable de l'univers. La seule ! Donc, même sans entrer dans le détail, on doit admettre que son architecture est forcément liée à celle qui a prévalu sur la couche du BEC originel. L'univers, lui-même se trouve être en couches et ce, à toutes les échelles. Il y a déjà la structure du BEC, puis celle des couches (de BECs) en expansion. Le proton est une conséquence directe des paramètres du BEC initial. Il n'est donc pas un être mathématique issu d'un nuage de spéculations. Nous allons voir ci-après, pourquoi ces couches sont divisées en 4 groupes, séparés par 3 intervalles. Mais auparavant, nous allons regarder plusieurs grandes énigmes du modèle standard.

La première énigme réside dans le calcul du moment magnétique de proton, μp. De quoi s'agit-il ? On sait qu'il a exactement la charge (e) d'un électron positif (positron !). Pour bien comprendre, nous allons simplifier la relation standard. Celle-ci fait intervenir la constante de Planck, ħ. Mais comme on a vu aux chapitres (7 et 25), on peut la remplacer par : ħ = me c ƛe. Donc pour l'électron il suffit de multiplier la charge e par la longueur ƛe et par c. C'est très simple : μe = e c ƛe / 2 . La dimension est [L² T–1 Q]. On peut encore simplifier en réalisant que c et e, sont des constantes ! Il ne reste plus qu'à faire varier la longueur : μe = f(ƛ).


Voici le problème standard : pour le proton, on utilise la relation non simplifiée : μp = ħ e / 2 mp ! Elle ignore la notion de groupe et prend la totalité de la masse. Cela amène une énorme erreur car il faut multiplier le résultat par ce coefficient, g = 5,58569 pour être en accord avec la mesure ! C'est une énorme énigme ! Rappelons-nous le chapitre 16 qui indique que le proton est fait de couches sphériques de paires électron-positrons, en état onde. Ces couches sont divisées en 4 groupes. Dans chacun des 4 groupes les électrondes, superposées, annulent leur charges. Comme pour le muon, le positron célibataire, est situé dans creux de la sphère. On a vu que la longueur de Compton est inversement proportionnelle à la masse. Quand le modèle standard divise par la masse (1836,15 en unité électron), il divise déjà 4 fois trop et donc il trouve une valeur plus faible, d'où la première part de la grossière erreur : g = 5,5859 !

Oui mais qui nous dit que c'est bien 4 groupes ? Il suffit de vérifier que le rayon « onde » de l'électron, divisé par 4 groupes (1836,15 / 4) donne exactement le rayon mesuré du proton. Et c'est bien le cas ! Oui mais cela ne résout pas complètement car 5,58596 > 4 ! Alors comment résoudre ? On se souvient que le positron est contenu dans le creux de la sphère. Il est donc plus petit. On verra dans le détail plus tard, comment les choses se compliquent, car la charge vient se promener dans les 3 intervalles entre les 4 groupes. Ce sont ces polarisations qui induisent les quarks. Globalement la charge apparaît comme étant répartie sur la surface de la sphère du rayon mesuré. La surface du positron étant 2 fois plus petite, son rayon est donc 2 fois plus petit. On a ainsi ; 4 × 2 = 5,6568, assez proche du taux d'erreur, g.

Ainsi l'erreur passe de 558 % à 1,3 %. On se sent mieux ! C'est encore supérieur à l'anomalie de l'électron, soit : αe = 1,00115965218 < 1,013. Cependant, on sait que les couches neutres sont polarisées et induisent les quarks. Cela doit générer une anomalie sur les masses mais également sur le moment magnétique. Il se trouve que ce modèle donne une masse des quarks, équivalente à 1,2 % de la masse du proton. Ainsi corrigé de cette induction, le positron du proton devrait donner la même valeur (au signe près) que l'électron libre. Ainsi le moment magnétique du proton n'est plus énigmatique : μp = 4 2 μe / P. Avec P = mp / me

Au chapitre 31, on a abordé la cause de l'émergence de l'induction des quarks. Cela est également une énigme pour le modèle standard. On ne fait que constater que des particules possède en leur sein, des quarks (hadrons) et d'autres, n'en ont pas (leptons). C'est le nombre de paquets de couches (et donc d'intervalles) qui détermine l'induction ou pas des quarks.

Les énigmes standard du proton

énigmes

charge = positron

rayon = f(4 couches)

cause des quarks

moment magnétique

Standard

?

?

?

erreur 558 %

Oscar

résolu

résolu

Nb intervalles

erreur 1,3 %


Le modèle standard spécule sur un être mathématique construit à partir d'une itération expérience/théorie. C'est une très bonne méthode mais comme elle est limitée au seul champ local, elle ne débouche sur rien de physique. Ainsi ce modèle a inventé de très spéculatifs gluons (sorte de colle qui lie les quarks entre eux). Mais ces « gluons » étant sans masse et les quarks représentant moins de 2 % de la masse du proton, le modèle standard est dans l'impasse. De plus, la somme des spins de ces composants, ne rend pas compte du spin du proton. En fait ces « gluons » sont les particules virtuelles qui habillent les paires électron-positrons et qui fait passer le nombre 1841 à 1836,15. Quant au « collage » de la force forte, l'explication ne relève que du démasquage des charges coulombiennes des couches empilées. La courbe asymptotique s'explique par le fait que le début du démasquage commence forcément par un intervalle très petit (r), ce qui induit un force coulombienne très forte (en 1/r²).



35. Effet tunnel supraluminique et onde de perturbation

Où l'on voit ressurgir à nouveau, la subtilité de la constante ML, du chapitre 33. Voyons d'abord de quoi il s'agit et ce dans les termes employés par Jean Paul Aufray, cité sur le site « matière et révolution » : « Selon la mécanique quantique, les rayons émis (ou absorbés) par un atome sont composés de photons dotés, en tant que tels, de deux caractéristiques fondamentales : ils se déplacent à la vitesse de la lumière (égale à 300.000 kilomètres par seconde environ) et ils transportent chacun un paquet d’énergie égal à la constante de Planck h multiplié par la fréquence du rayon considéré. Les choses se présentent différemment dans notre représentation. Les rayons sont composés de quanta d’action auxquels ni l’une ni l’autre des deux contraintes citées ci-dessus n’est applicable : les quanta peuvent aller soit moins vite soit plus vite que la lumière et peuvent transporter une énergie soit plus petite soit plus grande que h fois la fréquence… Selon notre point de vue, lorsqu’un quantum rencontre sur son chemin un passage étroit – un tunnel – dont la largeur ou le diamètre est du même ordre de grandeur que la longueur de son pas, il « allonge le pas » pour traverser cet obstacle, ce qui a pour effet de le faire émerger de l’autre côté du piège plus tôt que prévu : il traverse donc le tunnel à une vitesse supraluminique. Ce phénomène remarquable est connu en mécanique quantique sous le nom d’effet tunnel …. Le phénomène fascine… et embarrasse les physiciens : c’est qu’ils sont habitués à penser que rien ne peut aller plus vite que la lumière …. Aephraïm Steinberg à Berkeley a étudié de près le comportement d’un paquet d’ondes traversant un tunnel constitué dans ses expériences par une couche mince réfléchissante que seul un quantum sur cent en moyenne parvenait à traverser. Ses conclusions confirment qu’en traversant le tunnel le paquet  voyage plus vite que la vitesse de la lumière ... ».

Souvent les physiciens éludent le problème en disant : « c'est un effet purement quantique qui ne peut s'expliquer par la mécanique classique ». Cette phrase typique laisse entendre que ce phénomène pourrait s'expliquer par la mécanique quantique. Cette assertion est fausse. Il suffit de regarder ce que dit Wikipédia sur ce sujet : « la durée de traversée du tunnel d'une particule à travers une barrière de potentiel, (.../..) est le sujet d'âpres discussions. Des études dans le domaine photonique (.../...) on révélé l'apparition de ce que l'on peut interpréter comme des vitesses supraluminiques (effet Hartman) ». Le temps de traversée du tunnel (moyenne du sommet du paquet d'ondes) est indépendant de l'épaisseur de la barrière ! On ne fait que constater, décrire, mais pas expliquer !

Revenons à notre électron oscillant qui conserve jalousement sa constante ML = ħ/c. Observé (perturbé), il est sensé se déployer à son rayon limité, de Compton, L = ƛe . Son M est juste sa masse mesurée.... pour ce L bien précis. Mais s'il n'est pas perturbé, rien ne lui interdit de s'étendre plus loin, tout en gardant constant son produit ML. Donc à travers la barrière de potentiel, il peut trouver un « tunnel » lui permettant de ressurgir derrière. Mais c'est quoi au juste ce tunnel ? Dans le modèle standard c'est juste un mot posé sur une énigme. Dans le modèle oscar, c'est la manifestation du tachyon subquantique. C'est le partenaire incontournable et omniprésent, de toute particule visible à l'échelle quantique.

Que se passe-t-il pour un électron lié à un corps macroscopique ? Il est statistiquement perturbé par son entourage direct. Dans les réseaux cristallins de la matière, il y a un phénomène d'auto-perturbation. Dans ce cadre, l'effet tunnel est limité à sa longueur de Compton. Mais il existe une probabilité non nulle pour que la somme vectorielle des perturbations, s'annule. Dans ce cas, c'est l'état onde (grand L) qui l'emporte. Dans cet état, « L » a les caractéristiques supraluminiques d'un tachyon. En conservant son produit ML, l'électron (sous forme onde) peut donc disparaître et ré-apparaître plus loin. Cependant, s'il franchit l'espace à une vitesse supraluminique, il lui faut un complément d'énergie pour se reconstituer. Mais rien (à part le spin) ne peut voyager plus vite que la lumière. Ce complément est fourni sous forme d'une onde de perturbation (la même que celle qui a annulé l'auto-perturbation) locale. On a vu au chapitre 33 que son temps d'oscillation reste constant : te = f(ML).

Cela veut dire qu'il reste identique même avec un grand L capable de sauter la barrière de potentiel. En posant : ħ = me c ƛe cela revient à : E = me ƛe c / te = ML c / te. On note que normalement : L / te = c. Mais si L grandit alors que te reste constant, alors v > c. C'est bien ce que l'on constate dans les expériences. Qui a dit que les tachyons étaient cachés ? Le mystère de la « magie quantique » disparaît. En fait le « paquet d'ondes » permet statistiquement toutes les longueurs, puisque ML reste constant. Comme nous l'avons déjà répété, la relativité restreinte est respectée car l'énergie diminue par la baisse de M. On peut dire que tout ce qui se passe au niveau quantique est entièrement gouverné par le niveau subquantique où règnent les oscillateur-tachyons.

Sommaire

36. La perturbation est la clé de l'existence

La dualité onde-particule est toujours la cause des énigmes concernant les vitesses supraluminiques. L'effet tunnel est une manifestation subtile de cette dualité, dans le cadre de son réseau cristallin. Ce réseau annule statistiquement en son sein, les ondes de perturbations extérieures (somme vectorielle = zéro). Mais elle les remplace par un mode d'auto-perturbation interne et synchronisé. C'est cette synchronisation qui assure sa stabilité. De ce fait, la matière reste stable, sous la forme corpusculaire. Mais la probabilité de désynchronisation partielle du réseau, n'est pas nulle. On a donc sporadiquement, un électron prenant la forme d'onde, et qui se dé-matérialise. Il peut réapparaître en dehors du réseau, dans un temps défiant la relativité. Cette matérialisation utilise en partie l'énergie de la résonance la plus courante des leptons, celle ayant trait au tachyon-électron. Ce phénomène est « cousin » de l'oscillation des neutrinos lourds qui utilisent les résonances fondamentales des muons et tauons, omniprésentes dans le tissu d'espace-temps. Il faut rappeler ici, que le temps propre au tissu non perturbé, de tachyons, ne s'exprime pas ! C'est seulement la matière (séparée) qui possède un temps propre ! C'est ce dernier qui révèle celui du tissu formant l'espace et qui devient effectivement, l'espace-temps. C'est le large spectre des ondes de perturbation de la matière qui révèle l'expression de l'espace-temps. Au premier chef, se trouve la matière noire. L'expérience DAMA révèle la variation périodique du bruit de fond (perturbations) et plusieurs scientifiques pensent comme moi, qu'il s'agit du flux de matière noire, qui croise la Terre. Il s'agit de la migration centrifuge de la DM fabriquée au centre de la galaxie. Cette dernière sature les bords de BEC et révèle (par cisaillement) le halo galactique.

Le pur espace-temps est stérile car la loi du π-ADN annule tout. Mais comme il a généré la matière (synchronisation → saturation → séparation → annulation du π-ADN), cette dernière, par son existence, le perturbe et donc le révèle. Le temps qui s'écoule est né de la séparation (clé de toute la matière) et se manifeste par une augmentation de l'entropie (encours global de désynchronisation). Dans la vie macroscopique, il y a beaucoup d'effets observés où la notion de perturbation est cruciale. Il y a par exemple, le « dopage » du transistor qui lui permet de jouer son rôle de plein conducteur ou plein isolant. Un cristal de grêlon ne se formera que s'il existe une fine poussière qui saura l'agréger. Une étincelle (par exemple l'amorce de l'éclateur à un pylône haute tension) ne se produira que grâce à la présence locale, d'une particule cosmique. Comme le flux est important, toutes les surtensions peuvent ainsi s'amortir via le passage vers la terre.

Il faut cependant se méfier des amalgames qui amènent à confondre « observer et perturber ». En fait l'observation est une des nombreuses causes de perturbation et n'est donc pas la seule ! On ne peut pas dire que l'univers n'existe que parce que des humains l'observent. Non on peut dire en revanche que l'univers existe (en fait, se révèle) par les perturbations qu'il engendre. Placer l'humain au centre de tout, découle juste du fumeux principe anthropique ! Comme le dit si bien  MAGNAN du Collège de France, il ne faut pas confondre l'effet et sa cause. Et puis, on confond allègrement l'observation de laboratoire (qui passe par une émission incidente et artificielle de photon) avec l'observation d'une étoile par la rétine de notre œil qui ne voit que l'émission des photons de l'étoile. L’œil de l'humain ne révèle rien en regardant....

Que se passe-t-il quand un électron du réseau cristallin se trouve non perturbé malgré la synchronisation ambiante ? Il prend aussitôt la forme (ou l'état) onde. Cela veut dire qu'initialement il oscillait de concert avec un (ou plusieurs) tachyon (s) en parallèle, sans opposition. La présence des tachyons « satellites » est bien mesurée au travers des « particules virtuelles » qui alourdissent l'électron et perturbe son moment magnétique. Mais si la perturbation vient à disparaître, alors l'oscillation du tachyon partenaire () vient se mettre en opposition de l'électron, en changeant de signe (+). On passe alors en mode seesaw qui est la forme fondamentale (transverse) du π-ADN. Les partenaires tachyons, de signe opposé, annulent sa charge et sa masse. Il est potentiellement dilué dans le BEC tout entier. C'est la délocalisation de l'onde. Cependant son déplacement supraluminique ne peut pas le matérialiser loin de son origine. La délocalisation massique a besoin d'une énergie (ondes de perturbations), parmi les résonances locales pour compenser sa perte de masse. A cet égard, nous avons parlé d'un comportement « cousin » de celui du neutrino. Cependant, ce dernier (mettons un neutrino muonique) possède un mode seesaw dont le partenaire est massique. Ce denier ne se propage jamais à une vitesse supraluminique mais précisément à la vitesse c, comme le photon. Cela revient à une variété de l'onde pilote, suggérée par BOHM. Le photon virtuel est omniprésent dans le BEC (dans le delta T fondamental de 10–21 s) mais sa matérialisation en un lieu est soumise aux lois de la relativité.

Tableau 36-1

état

électron

muon

corpusculaire (massique)

oscillation en mode parallèle

oscillation groupée, en mode parallèle

onde (non massique)

oscillation en mode seesaw : le produit vectoriel ML annule masse et charge : photon

oscillation en mode seesaw : le produit vectoriel ML annule masse et charge : neutrino

vitesse de propagation

l'onde électron > c mais sa ré-matérialisation est fonction de c.

l'onde neutrino > c mais sa ré-matérialisation à v = c avec
changement de saveur se produit si présence d'une onde locale de résonance.

Les énigmecomme : l'anomalie du moment magnétique des particules ; les particules virtuelles attachées à l'électron ; la double fentes de Young et ses figures d'interférences ; l'effet tunnel supraluminique ; la non localité des spins intriqués ; l'oscillation de saveur des neutrinos ; la disparition de la masse (neutre) des leptons lourds, sont autant de preuves de l'existence des tachyons. Tout cela procède de l'oscillation conjointe avec les tachyons. Si cette oscillation est parallèle, alors l'état est massique ; si cette oscillation est en opposition, alors l'état est sous forme d'onde. La somme vectorielle ML avec L commun n'annule rien. La somme vectorielle ML avec 2 L opposés (seesaw), annule le continuum masse-espace-temps. Ce régime est le plus courant de l'univers mais également le moins visible. C'est la manifestation normale du zéro physique (π-ADN) décrit au début de ce livre.

De quoi est faite la dualité d'un neutrino muonique ? Au départ, le muon est composé de 103 paires fusionnées et masquées, d'électron-positrons, oscillant sur le même axe. Cet état instable se transforme en un état où 103 électrons s'opposent à l'équivalent de 103 positrons, au niveau subquantique (ou inversement). C'est l'état neutrino où charge et masse, s'annulent. Cette résonance est inscrite dans le tissu de tachyons, f[ln(ξ8)]. Toute énergie croisant cette résonance, crée un muon (instable). Sa partie neutre devient un neutrino muonique. Si ce dernier croise une énergie liée à la résonance du tauon, alors il devient un neutrino tauique. Ces deux résonances sont inscrites dans le tissu de tachyons par f[ln(ξ8)]. On rappelle que ξ8 est le nombre total de paires électron-positrons, avant l'annihilation primordiale. Le taux d'annihilation est tel que ce nombre est sensiblement le nombre de photons dans l'univers. Partant de ce nombre, on retrouve d'autres occurrences – liées à la densité de photons – qui viennent confirmer le modèle.

Quand on extrait une paire électron-positron du vide, on ne fait que localiser l'énergie virtuelle d'une paire de tachyons en opposition. Son mLtachyon devient Mlélectron . C'est tout ! Cependant, comme rien ne sépare durablement la paire créée, elle s'annihile aussitôt en 2 photons. L'électron (ou le positron) oscille radialement sur lui même (pas de rotation comme souvent évoquée car on a vu que le spin vient toujours du tachyon). Partageant donc le même L et donc sa masse ne s'annule pas. Puis dans son état photon, il se met à osciller en opposition avec un partenaire tachyon +. Ainsi, les « L » opposés, annulent le produit ML. La masse particulaire n'est pas une donnée suffisante. Seul le produit ML a un sens.

sommaire


37. La loi de Boltzmann sur l'information

La fin du chapitre 23, est consacrée à la géniale loi de Boltzmann. Cette loi est tellement universelle que justement, nous allons montrer qu'elle s'applique à la structure même de l'univers. Depuis le début de ce livre, nous disons que le BEC primordial de l'univers comprend ξ11 / 3 boson-tachyons répartis en ξ3 couches. La couche extérieure contient donc ξ8 boson-tachyons et la moyenne des couches internes est de ξ8 / 3 boson-tachyons. La saturation-séparation s'est faite sur la première couche (externe). Donc les ξ8 boson-tachyons sont devenus autant de paires électron-positrons. La partie rescapée de l'annihilation : ξ8/α², a donc produit ξ8 ξ8/α² photons. Le second terme est extrêmement dérisoire à côté du premier terme, permet de dire qu'il y a eu : ~ ξ8 photons.

S'agissant d'énergie, on a vu que le ratio 3D du puits subquantique, ξ3 est toujours limité à 1D, soit à ξ. (variation en 1/r). Mais s'agissant d'information, ce ratio reste intact. Ainsi les ξ11 boson-tachyons originels doivent avoir laissé une trace. A travers le puits subquantique, on retrouve donc le nombre ξ11 / ξ3 = ξ8. La loi de Boltzmann ; lie l'entropie à l'information par les arrangements possibles, donnés par le logarithme du nombre d'éléments, ξ8. Ainsi nous trouvons : mμo = ln (ξ8) = 206,1119. Ce nombre est proche de la masse du muon, exprimée en unité électron habillé ! Jusqu'à présent nous avions le seul proton comme particule composite universelle et là nous en découvrons une autre. Le proton possède 1841 unités électrons (non habillées), alors que la règle [3] nous dit qu'elle devrait en avoir : mPo = 1835,26 ! Par ailleurs sa masse mesurée en donne : 1836,15 ! Cela veut dire que le ratio (arbitraire) d'origine étant non entier, il a été forcé de s'arrondir en unités entières. Il vient le tableau suivant :

Tableau 37-1

particules

Nb

unités entières

Nb

unités mesurées

Nb

unités d'origine

taux

τ

proton

1841

1836,15

mPo = 1835,26

τp =1,003125948

muon

207

206,76

mμo = 206,11

τμ =1,004290226

Nous comparons les taux d'habillage [8] selon : τμ = (207 mμo) / 207 +1 = 2– mμo / 207 et τp = 1841 / mPo.

Ces taux comparés représentent deux composantes : la composante « anomalie de masse » et la composante « anomalie du moment magnétique ». Mais il faut se souvenir que l'arrondi d'origine du proton ne concerne pas l'anomalie du moment magnétique. Cela veut dire que leur ratio devrait ne faire ressortir que la seule anomalie magnétique de l'électron qui est la base élémentaire composite. Or on vérifie que ce ratio, τμ / τP = 1,0011606 est proche de celui de l'anomalie de l'électron dont la mesure très précise (12 décimales) a été vue au chapitre précédent : αe = 1,00115965218. Mais il faut nous souvenir (chapitres 14 & 15) du principe d'annihilation angulaire relative. Chacune des ξ galaxies forment un angle après annihilation, de : α²/ξ, qui provoque une très légère annihilation. Avec cette simple correction, (voir en [8]),  on retrouve les 12 décimales de la mesure !

Selon ce modèle, toutes les particules (sauf l'électron) sont des assemblages de paires électron-positrons où les charges des électrondes sont masquées (revoir le chapître 32). Si elle sont chargées, elle contiennent un électron ou un positron célibataire et confiné. Les leptons n'ont qu'une seule couche (pas d'intervalle et donc pas d'induction de quark) alors que les baryons possèdent plusieurs couches et nombre de quarks lié au nombre d'intervalles. Tout cela n'est qu'une question d'induction, générée par la polarisation des intervalles. Les protons (et neutrons) sont des conglomérats induits par les trous laissés par l'annihilation et la mitose 2D (voir 3).

Sommaire

38. La théorie des cordes

Je recommande vivement de visionner la vidéo de David LOUAPRE, auteur du site « Science étonnante ». Il décrit très bien la démarche qui a permis d'inventer la théorie des cordes. Outre ses aptitudes pédagogiques, il faut également lui reconnaître un certain courage pour oser exprimer sa réserve sur certains points du modèle standard et notamment, concernant le boson de Higgs. Cependant, il tombe dans le piège de l'amalgame, concernant la fondamentale dichotomie qui existe entre décrire et expliquer. Il reprend également à son compte l'amalgame concernant la fameuse « Théorie du Tout ». Dès le départ, il indique que cette dernière devrait être réalisée par une théorie qui réunirait la théorie quantique et la relativité générale ! Non la Théorie du Tout ne se limite pas à cela car elle est sensée expliquer les fondements de la physique de l'univers dans son ensemble macroscopique et microscopique. Une théorie du Tout se doit de lever complètement les 53 énigmes de la physique fondamentale et de la genèse de l'univers.

A cet égard, il reprend les thèses réductionnistes, construites par les anciens de Copenhague.... Ils ont commis ces deux phrases assassines : « il ne faut pas chercher à comprendre » et « calcule et tais toi ! ». Je rappelle que cette approche se borne à : « formuler des hypothèses mathématiques et les expérimenter ». Elle a bien sûr quelques résultats mais on sait que cette voie – qui ignore superbement la cruciale dualité de localité – est totalement stérile pour tenter de comprendre l'univers. Sans le cadrage préalable du physicien, la rigueur mathématique est un leurre. Le grand problème du réductionnisme, réside dans le fait qu'il ne cherche pas à recenser les très nombreuses énigmes de l'univers pour en faire un synthèse à caractère physique. Pourtant chacun sait qu'une enquête commence par un recensement de toutes les énigmes ... En fait, on ne les cite même pas.

La Théorie du Tout concerne Tout l'univers et surtout, les phénomènes liés à sa non localité. Ensuite David LOUAPRE nous dit que la théorie de Maxwells permet de comprendre la propagation des ondes ! Non elle décrit parfaitement tous les comportements mais elle n'explique pas comment les ondes se propagent ! L'accès à cette compréhension – offert dans le présent livre – passe par l'explication