Bienvenue sur mon site !
accueil



 Les 53 énigmes de l'Univers Condensat Bose Einstein  l'Univers miroir il était une fois, l'univers..
Voici écrit en direct, le projet de mon second livre. Il se veut accessible à tous, même à ceux dont le seul bagage est la soif de comprendre.

Dernière mise à jour : 5 aout 2017  

Voir cette analogie comme préalable  ainsi que mon nouveau blog  merci de laisser un commentaire

Sommaire

Il était une fois, l'univers  à partir de rien ...

   Préambule


01. La dualité réductionnisme et holisme
02. Les graves erreurs épistémologiques
03. La dualité de localité
04. Expérience de pensée sur la dualité
05. Le proton, objet physique ou être mathématique ?
06. L'univers vu par ses dimensions physiques
07. L'oscillateur dual quantique
08. Les graves renoncements de l'école de Copenhague
09. Premier aperçu du "rien" dual
10. Le flux de synchronisation forme le BEC fossile
11. Fonctionnement du BEC avant saturation
12. Aparté sur le théorème d'incomplétude de Gödel
13. Saturation du BEC fossile et annihilation
14. Gravitation et matière noire, une cause commune 
15. Mitose fractale et collisions précoces
16. Masse de Planck, proton et naissance du temps

17. L'espace-temps, un continuum de BECs.
18. Mitose et 
π-ADN universel
19. Le puits subquantique élémentaire
20. Le puits subquantique et le boson W
21. L'énigme de la masse des neutrinos
22. Comment bat le coeur de l'électron, ex-tachyon ?
23. L'oscillation des neutrinos
24. Comment galope un photon ?
25. Collision de galaxies = matière noire 
26. Dimension des grandeurs physiques
27. La relativité restreinte
28. La relativité générale
29. La cause de la relativité générale
30. La  dualité gravitationnelle
31. La cause physique des quarks

32. La clé par la constante [ML]

33.  La subtilité du continuum MLT
34.  Architecture du proton
35.  Effet tunnel supraluminique et onde perturbation
36.  La Perturbation est la clé de l'existence
37.  Le muon et la loi de Boltzmann sur l'information
38.  La théorie des cordes
39.  Etat intermédiaire, onde - corpuscule
40.  Constante de structure fine issue du BEC-0 2D
41.  La vie à l'image de l'univers
42.  L'héritage des oscillateurs stochastiques
43.  Un oscillateur nommé Univers
44.  L'échelle ξ de l'univers et ses mesures effectives
45.  Ω, la cause profonde du temps
46.  Higgs confirme OSCAR
47.  Le déterminisme du rien stochastique
48.  La réduction du paquet d'onde
49.  Abécédaire des lacunes du modèle standard
     a b c d e f g h i j k l m n o p q r s t u v w x y z 

50. Résumé :    0     2   3   4   5   6   7   8   9   10  

51 Prédictions    52 Conclusions  →   1   2    3    4    5     6     7     8

---


Avertissement

Il faut voir à quel point le mot « rien » est lourd de sens. Dans sa version populaire, il est facile à comprendre car à notre échelle macroscopique, le « rien » est juste l'absence d'une quantité bien définie. On verra très graduellement le sens élargi et profond de ce « rien » à partir duquel tout peut se créer. Il existe une sorte de croyance qui déclare sans preuve, qu'il serait impossible de mesurer ce qui apparaît comme étant « hors de portée ». Cela va à l'encontre du fait que toutes les mesures quantiques ont un caractère indirect. La rigueur exige la loi suivante : plus la mesure est indirecte, plus il convient de la justifier par une cascade convergente dans la cohérence globale. La clé de cette double rigueur est dans la dualité {réductionnisme-holisme}. Cela revient à une dualité d'échelle ou dualité de localité. 

Si la simple analyse des effets physiques énigmatiques vous suffit, alors ne lisez pas ce livre, car il s'intéresse aussi, à découvrir la cause de ces énigmes.


Préambule

La physique fondamentale et les questions concernant les mystères de l'univers ne doivent pas rester dans le giron d'une seule minorité dominante mais élargies à tous les citoyens. Cependant ce domaine est traditionnellement empreint de mathématiques ardues qui sont de nature à décourager le néophyte. On connait par ailleurs l'importance des débats transverses via une compétence de généraliste.  Mais la maîtrise globale de la physique est complétement éparpillée, dispersée. Les spécialistes, par nature, ont des compétences pointues dans des domaines limités. On manque cruellement de chefs d'ochestre pour ordonner la musique de la physique. La physique est l'univers et l'univers est unique, non dispersé.  De ce fait, la physique est en crise depuis plus de trente ans et le citoyen lambda – et même certains spécialistes – l'ignorent superbement.

Alors comment faire pour ouvrir ce domaine à tous en évitant le nécessaire langage mathématique permettant de le formaliser ? La méthode employée ici se présente en deux étapes. Une première étape a consisté à écrire un livre en 2012, L'univers miroir, décrivant un modèle complet, « avec équations » , doté d'une bibliographie et d'un lexique. Cet ouvrage devient la référence de cet ouvrage en cours  dont les descriptions et explications sont de nature littéraire. De plus il sera proposé au lecteur une notation de forme [n] qui renverra vers une explication plus fournie, en fin de livre. Ainsi le lecteur, dérouté par les mathématiques, pourra poursuivre sa route en mode purement littéral. J'ai, par le passé, beaucoup critiqué certains livres de mathématique qui entamaient  un sujet par... les équations plutôt que par l'explication. Juste de quoi  dégoûter les élèves. C'est pourquoi, quand j'enseignais je suivais scrupuleusement le chemin suivant : a) donner envie (analogie la faim du ventre) ; b) manipuler et s'approprier ; c) intellectualiser en formulant d'une manière abstraite et donc mathématiquement. Chacune de ces phases devant passer par des errements et des erreurs. Ce sont les échecs et les corrections successives qui amènent, à terme, la lumière et rien d'autre. 

La physique doit se comprendre avant de passer à son expression mathématique. Cette dernière doit être au service de la physique et surtout ne pas la remplacer. C'est malheureusement ce qui se passe actuellement. Comment ? Le spectre des connaissances accumulées est tel, qu'il a fallu subdiviser les sciences par nature. Ensuite la subdivision s'est poursuivie jusqu'à créer des spécialisations y compris dans la même branche de la physique. La somme des connaissances en physique est telle, que personne ne peut à la fois en connaître chaque détail rigoureux et la vue globale. Toutes ces connaissances de la physique universelle, sont sous forme de millions de publications hyper spécialisées. Les détails sont tellement poussés que seul le langage mathématique est pertinent pour espérer des communications transverses. Le problème est qu'il y a de moins en moins de communications d'une spécialité à l'autre. Les limites de la trop grande rigueur amène à tuer la communication transverse. La vue générale (non triviale) est devenue très difficile.

Mais il y a pire !

Il y a ce que l'on a appelé : « la redoutable efficacité des mathématiques ». Certains physiciens, passés maîtres dans l'art de manier les équations mathématiques, s'en servent, non plus pour décrire la physique mais pour la remplacer (!). C'est ainsi que l'on a considéré certains « objets »  physiques comme des « êtres mathématiques ».  Alors bien sûr on se défend en disant qu'il ne s'agit que de modèle..., mais petit à petit le « modèle » se substitue  avec ce que l'on croît être la réalité physique. Le plus grand des dangers, est de faire l'amalgame entre le zéro mathématique et le zéro physique.  Heureusement,  je ne suis pas le seul physicien à dénoncer cela. 

Il existe trois types de zéro :

Le zéro mathématique absolu (et pratique) dont l'inverse est l'infini

Le zéro physique local jamais atteint de par la loi d'indétermination

Le zéro physique issu de la résultante nulle de l'oscillateur 1D dual.

Nous allons montrer que l'univers est né du zéro parfait de l'infinité d'oscillateurs duaux, les représentants du « rien ».

sommaire

1.  La dualité {réductionnisme / holisme}

La plupart des livres de vulgarisation, partent de l'instant présent pour ensuite remonter le temps pour aller vers le plus général. Cette méthode n'est pas du tout adaptée à la pédagogie car elle part du plus compliqué vers le plus simple. Bien sûr ses défenseurs argumentent en disant que la confrontation « théorie– expérience» n'est possible que localement. C'est la méthode purement réductionniste. L'alternative est la méthode dite holiste (vue d'ensemble). La méthode holiste a été abandonnée car elle était empreinte de flou artistique. On lui a préféré la rigueur expérimentale locale. Au début du 20eme siècle, on n'avait aucun moyen de vérifier les grandes échelles et il était donc raisonnable de choisir la voie réductionniste. 

Mais aujourd'hui, on possède des moyens technologiques énormes pour expérimenter à toutes les échelles.  Alors faut-il retourner à la voie holiste ? Non il faut exploiter la dualité, confronter les deux voies. Mais ce choix de type binaire (oui ou non) est resté en place, plutôt que d'exploiter les deux voies. Dans tous les domaines, on peut constater les ravages de la sanction binaire. L'univers et à la fois local et non  local (donc le détail est lié au global). 
Voici un exemple : au cours du 19ème siècle, les biologistes ont polémiqué durant près de cent ans, pour savoir qui était responsable des caractères de la filiation : le spermatozoïde ou l'ovule. Quelle question idiote ! C'est la voie duale qui est la source de toutes les réponses de la physique de l'univers. L'univers et tout ce qu'il contient, est foncièrement dual. Nous ne sommes pas « poussière d'étoile » comme on a pu le dire mais nous sommes les enfants de l'univers. On n'en parle pas assez ! Tout ce qui se trouve dans l'univers, y compris la vie, n'est que copie conforme.

Pour comprendre l'univers et ce qu'il a enfanté, il faut passer par la clé de la dualité. Donc les biologistes ont fini par comprendre que la solution est de type dual. Il n'y a pas d'exemple où la solution puisse être autre chose que duale. La biologie, au sens large, nous montre cette dualité. Cette dernière vient déjà de la mitose. Elle est une succession de divisions par deux. Elle est la clé de la vie.

Alors quelle est la dualité dans l'approche physique ? C'est bien sûr la confrontation entre les voies de recherche {réductionniste + holiste}. Cela vous paraît évident ? Eh bien sachez que ce n'est pas partagé. Le genre humain préfère le monisme au dual. Des chercheurs ne jurent que par le réductionnisme et d'autres que par le holisme. Alors la première clé de l'univers est-elle la dualité ?  Oui tout part de là.

Pour bien comprendre la démarche duale (locale + non locale), il existe deux (sic) règles essentielles :

1/ partir des lois physiques les plus fondamentales.

2/ vérifier en permanence si les conclusions de l'approche sont cohérentes et mesurables et ce en invitant à la place d'honneur, la dualité de localité. On arrête de spéculer.

Mais avant de détailler les lois essentielles de la physique, je voudrais parler de l'universalité de la dualité. Par exemple on peut déjà aborder ce qu'est le dual de l'univers observable. Sans anticiper sur ce qui va suivre, on peut dire que l'univers actuel, est en phase de désordre (entropie croissante). On s'attend donc que son état dual soit en phase de décroissance du désordre (entropie en décroissance). Mais celui-ci n'est pas directement observable. Mais peut-on espérer l'aborder quand même ? Oui et nous verrons très précisément comment l'univers suit un cycle entre ces deux états. Vous verrez que cette version cyclique est moins naïve que celle décrite comme un «rebond ».  En ce moment l'entropie court au désordre et quand elle sera maximale, sa courbe s'inversera et tendra vers l'ordre parfait. Attention on ne se contentera pas de dire : « c'est le cycle de l'entropie » mais on dira exactement pourquoi et surtout comment cela se mesure.  


Tableau 1-1 Voici quelques éléments physiques et leur dual respectif.

éléments

le dual correspondant

univers observable* : entropie ↑

univers primordial : entropie ↓

localité (espace)

non localité (relative)

inertie (masse)

accélération

raideur (ressort)

souplesse

temporel (le temps s'écoule)

intemporel

ponctuel (longueur ou rayon = 0) ; interdit en physique

infini ; interdit en physique

décrire (se contenter de...)

expliquer

stochastique (tend vers le désordre)

synchronisation (tend vers l'ordre) 

*Les lois de l'entropie disent clairement que la croissance de l'univers, implique un système isolé donc limité. S'il est limité, l'univers observable ne peut pas être infini. Il existe cependant des physiciens qui « croient » quand même à son infinité. Comme le montre le tableau, le dual de l'infini est le ponctuel. Alors ces mêmes physiciens, considèrent que les particules élémentaires sont ponctuelles. En fait le calcul mathématique sait résoudre ce type de concept, interdit en physique. Ce qui est grave c'est ce type de démarche : a) on ne connaît pas la taille d'une particule ; b) on spécule en disant qu'elle est ponctuelle ; c) on sait résoudre mathématiquement les conséquences de la spéculation, de type infini ; d) on est triomphant. Pas moi.

sommaire

2.  Les graves erreurs épistémologiques

L'univers nous montre clairement la dualité de localité. Cela dément totalement le principe cosmologique. Que dit Wikipédia à cet égard ? : « Le principe cosmologique est l'hypothèse aujourd'hui généralement considérée comme vérifiée selon laquelle l'Univers est spatialement homogène, c'est-à-dire que son apparence générale ne dépend pas de la position de l'observateur. Il a pour conséquence que l'Homme n'occupe pas de position privilégiée dans l'Univers, en opposition avec la théorie géocentrique (aujourd'hui abandonnée), mais en accord avec le principe copernicien. En pratique, le principe cosmologique présuppose aussi que l'univers est isotrope, c'est-à-dire que son aspect ne dépend pas de la direction dans laquelle on l'observe (par exemple son taux d'expansion ne dépend pas de la direction) ». Cette formulation (réductionniste) n'est pas assez rigoureuse car elle ne tient pas compte de la dualité de localité. Cette dernière dit que si toutes les localités sont effectivement identiques, elles sont cependant, très différentes de la non localité (voir chapitre 4, l'expérience de pensée). Mais il faut définir ce qu'est la non localité car elle fait l'objet d'une grande confusion ! Certains l'ont comprise comme étant absolue ! Nous allons montrer au fil de ce livre, que la notion d'absolu est incompatible avec la physique. Elle ne concerne que les nombres. La non localité physique est explicitement relative. Elle exclut la dualité de type {c ↔ }, soit la vitesse de la lumière opposée à une vitesse d'information, infinie. La dualité de localité de l'univers est sous la forme :{c ↔ c0}. Elle remplace l'infini par une vitesse supraluminique finie et limitée à une information d'état (voir intrication plus loin). On montrera comment et pourquoi, la constance de la vitesse c, est régulée par la non localité relative.

Notre science moderne vient d'une part, de la relativité d'Einstein et d'autre part, de l'école de Copenhague via la théorie quantique. Tout s'est tramé au début du siècle dernier. Voici quelques noms des acteurs :  Bell, Bohm, Boltzmann, Niels Bohr, Werner Heisenberg, Pascual Jordan, Max Born, Pauli, Fermi, Planck, Dirac, Pauli, Schrödinger, Compton, Eddington.... Ces deux théories qui donnent chacune quelques succès, ne s'accordent pas. Il y a notamment le côté lisse de l'espace d' Einstein, non conforme au côté granuleux de celui de la théorie quantique. Il manque une clé et on la cherche désespérément depuis près d'un siècle. Nous allons montrer que cette clé se trouve dans le concept de dualité de localité.

Devant certains défis que nous décrirons, les « maîtres » ont prononcé cette phrase inouïe : « il ne faut pas chercher à comprendre ». Ces inventeurs de la théorie quantique – qui par ailleurs donne des résultats indéniables – ont capitulé devant certaines expériences qui semblaient trahir les lois fondamentales de la physique. Par exemple, ne pouvant mesurer le rayon « classique » de l'électron, et ne pouvant mettre en avant une explication, ils ont arbitrairement considéré : a) que ce dernier était nul et b) que la physique classique ne s'appliquait pas à ce niveau. Nous allons montrer que ce sont deux très graves erreurs qui ont mis la physique dans l'impasse dans laquelle elle se trouve aujourd'hui. Certains dont Einstein ont dénoncé cette méthode.

La rigueur à l'époque, semble très aboutie : on réalise des expériences physiques et on cherche à les relier entre elles pour en tirer des lois générales et ce, le plus rigoureusement possible. Pourquoi ais-je employé le mot semble ? Tout simplement parce que cela porte implicitement une spéculation. On décrète que la validité de ces loi est générale. Cette spéculation s'appelle le principe cosmologique. Ce principe fait l'amalgame entre le local et le non local. On sait maintenant que cela n'est vrai que si l'on compare un local lambda à un autre local lambda'. Si toutes les localités sont les mêmes, elles sont chacune très différentes de la non localité. C'est avant tout, une démarche de prudence. Il y a là un facteur d'échelle qui n'a pas été pris en compte.

Il y a notamment les expériences (locales) de création de paires de particules. Pour le moment, nous allons traiter les seules paires proton-antiproton et électron-positron. En injectant de l'énergie au bon niveau (E = m c²) , on sait créer ce type de particules et d'autres. Cette création locale entre matière et antimatière est toujours instable. Les deux entités confrontées s'annihilent toujours. Or on voit que l'univers est rempli de protons et d'électrons – de création non locale – qui sont très stables. Il y a bien une dualité fondamentale de localité. Cette clé est essentielle pour comprendre. Et pourtant, cherchez sur internet, vous ne trouverez que peu de liens pour la locution : « dualité de localité ».


sommaire


3.  La dualité de localité


Cette subtilité est passée à l'as.... Rappelez-vous comme on a du mal avec la dualité en général. Remarquez, on ne peut pas jeter la pierre aux savants du début du siècle dernier car ils ne pouvaient connaître les résultats d'une expérience réalisée dans les années 1980. Sans en donner le détail tout de suite, nous allons dire que cette expérience, réalisée par monsieur ASPECT, n'est toujours pas interprétée correctement par une majorité de la communauté scientifique. Alors vous allez me dire : si eux – champions de mathématique – ne comprennent pas, alors je n'ai aucune chance. Eh bien si, vous allez comprendre.

C'est le même problème que celui qui a fait l'objet de la polémique sur la filiation. En niant la dualité, matheux ou pas, on ne peut comprendre. Je connais tellement de matheux (pauvre privilège de l'âge) qui comprennent mal la physique. Donc cette expérience, hyper importante, à été interprétée à minima comme suit : l'univers est non local. Qu'est-ce que cela veut bien dire ?

Voici un premier jet de l'explication : a) on se débrouille pour mettre deux particules (A, B) dans le même état quantique. Elles sont mariées ou intriquées. En fait, on ne peut connaître que l'état (A, B) mais pas séparément A ou B. Leur état, sensé varier tout le temps, ne peut-être connu qu'après l'opération de mesure. On envoie A et B dans deux directions opposées à une grande distance.

Si on mesure l'état de A, alors « aussitôt » l'état de B est conforme. J'ai mis le terme « aussitôt » entre guillemets car c'est là où tout déraille. Le problème est que l'information de l'état A → B est allée plus vite que la lumière. Messieurs Mermin et Bricmont ont cherché à classer l'état de désarroi de la communauté scientifique. En résumé voici les 5 grands axes d'interprétation :

Tableau 3-1

groupes

argument

contre argument

1

une équation importante dit bien que l'état est conservé mais sans préciser la distance.

oui mais cela n'explique rien puisque cette équation (Schrödinger) le dit par défaut. Elle implique une vitesse infinie !

2

il y a des variables cachées locales qui transportent un message de cohérence entre les deux

non cela a été largement démontré par monsieur BELL pas de variables cachées locales

3

Le temps est inversé et fait remonter l'info

belle spéculation mais qui débouche sur une vitesse infinie !

4

Ce n'est pas important et je regarde ailleurs

c'est facile d'éluder !

5

l'état des particules est porté par la trame d'espace-temps par des tachyons supraluminiques.

Je suis en accord avec cela ! En effet, toutes les autres solutions débouchent sur une vitesse infinie.

Il y a un autre argument qui sera développé dans la suite de ce livre. Il montre sans ambiguïté pourquoi il existe une sous structure supraluminique. De plus non seulement elle ne viole pas la constante de la lumière mais elle la régule. Mais notez bien la folie : Ceux qui rejettent les tachyons qui vont trop vite... acceptent la vitesse infinie issue de leur spéculation (!). Vive la logique.

Il faut bien distinguer les variables cachées locales des variables cachées non locales. Et là encore, on trouve des physiciens qui concluent dans l'amalgame. Ils disent :  « pas de variables cachées donc pas de tachyons ». En ignorant la dualité de localité, ils se privent de comprendre. De toute façon, l'école de Copenhague leur a enseigné : "ne pas chercher à comprendre".

Mais revenons à nos chercheurs de Copenhague. Ils n'ont pas connaissance de cette expérience qui s'est passée bien plus tard. Alors quand monsieur FERMI a constaté que certaines particules ne voulaient pas se condenser (se grouper), ils les a classées dans une famille qu'il a nommée les FERMIONS. Elles n'aiment pas vivre ensemble. Dans le même temps monsieur BOSE a classé d'autres particules appelées BOSONS. Celles-ci au contraire, ne demandent qu'à s'assembler, se condenser. Elles forment même des Condensats de BOSE EINSTEIN, appelés BEC. Ensuite monsieur DIRAC nous a expliqué que l'électron de charge négative possède un élément d'antimatière de charge positive, qui s'appelle positron. S'ils se rencontrent, ils s'annihilent. Leur masse disparaît et l'énergie s'évacue sous la forme de deux photons. Que retient-on de cela ? il est impossible que des paires positron-électrons puissent cohabiter puisqu'ils ne sont pas des bosons. Alors de quoi sont faits les protons ?

C'est là que se situe la grande erreur épistémologique ! Car cela n'est vrai que localement. Alors vous allez me dire pourquoi c'est faux non localement ? Il faut être clair. Oui mais d'abord un petit résumé :

Tableau 3-2

les fermions fondamentaux

création locale

création non locale

proton

créé en injectant de l'énergie mais sont instables

stable et forme tout l'univers

antiproton

?

électron –

créé en injectant de l'énergie mais sont instables

stable

anti électron (positron +)

?

Quand un neutron (neutre) change d'état, il se transforme en un proton de charge +, un électron, un neutrino. Le proton « pèse » 1836,15 électrons et il a la charge d'un positron ! On serait tenté de dire qu'il est fait de paires électron-positrons mais FERMI nous dit que ce n'est pas possible ! Même pas en rêve ! Eh bien si, en rêve ou plutôt en expérience de pensée à la Einstein (voir ci-après).

  • La première question qui vient : le tableau dit que la stabilité est liée à la non localité et que l'instabilité, est liée à localité.

  • La seconde question : n'y aurait t-il pas une congruence entre fermion-boson et localité ? Oui mais là on ignorait la non localité à Copenhague. Mais maintenant on ne l'ignore plus. Oui mais on reste sur nos acquis, il faut arrêter les questions ! Non il n'en est pas question.....

Alors que reste-il de vrai dans la théorie quantique ? Pas de souci, une très grande partie. Mais attention, la dualité de localité va tout chambouler. On voit bien que l'électron est une particule spéciale. Voyons le chapitre suivant.

sommaire

4.  Expérience de pensée sur la dualité de localité 

Les acteurs : Boson → comme une corde formée de 2 tachyons opposés et oscillants d'une manière symétrique, autour d'un point zéro central.

Posons – sans le démontrer pour l'instant – qu'à un moment donné, l'univers était sous forme d'un immense BEC. Rappelez-vous, une condensation de bosons. C'est une grande bulle formée de bosons primitifs. Que sont ces bosons ? Il sont des oscillateurs duaux (sic) formés de deux tachyons opposés. Nous allons admettre provisoirement qu'ils oscillent autour d'un point zéro commun situé au centre la bulle. Je vous rassure nous verrons comment arrive cette bulle et ce, d'une manière très détaillée avec des lois physiques bien connues. A l'approche du point zéro, les tachyons repartent de plus belle vers la périphérie de la bulle. Ils ralentissent puis retournent au point zéro où les deux masses tendent vers zéro. C'est justement ce qui leur donne des "fourmis dans les jambes", i.e. une nouvelle impulsion, les éloignant à nouveau. leur charge électique les maintient attachés, comme un ressort. Ils gardent tous la même amplitude et c'est ce qui forme le rayon du la bulle-BEC. Ils sont très nombreux et forment des couches successives qui se croisent. Des forces électriques transverses les tiennent parfaitement à distance et les intervalles sont conservés. Cet ensemble forme une trame qui matérialise l'espace-temps. On montrera en son temps,  pourquoi et comment ce BEC s'enrichit tellement de bosons, arrive forcément à saturation. Cela veut dire que les intervalles se réduisent tellement que les tachyons voisins (localement) se superposent.

Catastrophe ! les masses s'additionnent tandis que les charges s'annulent (par masquage). Les charges étaient les « ressorts de rappel » qui maintenaient ensemble les tachyons dans les bosons oscillants. La brisure de symétrie (ressorts cassés)  se traduit par une brisure de localité. Le lien interne entre chaque tachyon passe de local étendu à non local. La nouvelle localité est celle, active entre voisins.

Que se passe-t-il localement ? les tachyons voisins (+ et –) s'attirent mais ne s'annihilent pas. Pourquoi ? Parce que cela ne peut se produire qu'avec leur alter ego à l'opposé, dont ils sont séparés. Donc, localement, ils ne « voient » plus leur alter ego, chacun situé à l'opposé. Ils se comportent alors (entre voisins) comme des bosons. En fait on montrera précisément (avec les lois connues) pourquoi la séparation des tachyons les transforment en électron-positrons. On note en passant que seuls les tachyons de la première couche (première à être saturée) se transforment en matière. Les autres – ultra majoritaires, – continuent de matérialiser l'espace-temps. Il n'y a qu'une seule source à toutes choses. Ah oui mais où est la dualité ? Elle s'exprime toujours et encore dans l'oscillateur boson dual, formé de deux tachyons opposés. On verra plus tard que le quantum du « rien » est un boson dual où masse, espace, temps, s'annulent strictement. Mais à ce stade stochastique, rien n'est encore synchronisé.... C'est en cours..... L'entropie va décroître.... On verra les détails plus loin.

Figure 4-1 La séparation des tachyons formant les bosons oscillateurs, revient à briser la localité à grande échelle. Elle se divise donc en autant de localités réduites (entre voisins). Les tachyons (+ et –) voisins se comportent alors comme des bosons et peuvent se condenser sans s'annihiler. Ils deviennent des paires électron-positrons. Si les opposés (angle 180°) venaient à se rencontrer, il y aurait annihilation complète de chaque paire (100%). Mais si la rencontre concernait des paires dont l'angle relatif est par exemple de 18°, alors les paires concernées seraient annihilées chacune à 10 %. Les 90 % restants seraient alors dégénérés. C'est la  perte du quantum électron. Une sorte de gravats incapable de servir de brique élémentaire pour construire des atomes bien visibles.... On devine déjà la cause de la matière noire....A voir plus loin...  En plus, on résout l'immense problème de la non symétrie apparente de l'univers.... On verra qu'en fait, cela résout plus de 20 grandes énigmes, directement, en suivant juste les lois  de la physique.         

Et voilà FERMI n'avait pas pu voir cela : la dichotomie boson-fermion n'est valable que localement. Séparés de leur alter ego, les positrons et électrons voisins, se comportent comme des bosons. Ils s'associent. Ils forment les protons [1].

Mais cette expérience de pensée n'ayant pas été faite, la dualité de localité a été éludée. Alors, contraint et forcé, on a imaginé un proton, comme un être mathématique qui répondait à une certaine façon de s'associer en éléments plus lourds (Monsieur Gell-Mann). Cela a mené à la découverte des quarks de charges, 1/2, 2/3. L'observation scrupuleuse et le génie de Gell-Mann a permis de les prévoir. Ensuite, on les a effectivement mesurés. Problèmes : a) leur masse est beaucoup trop faible pour expliquer celle du proton ; b) d'où sortent-t-ils ? On s'en fout ! Pas moi.

Les quarks ne sont stables que s'ils sont confinés. Dès qu'on essaie de les isoler ils disparaissent très vite. Il vient de suite qu'ils sont induits....et non constitutifs. Là encore on a confondu la cause avec l'effet. Le mode de construction des atomes lourds amène à penser que des quarks de charge 1/3, 2/3, existent au sein des protons. On ne s'est pas posé la question : sont-ils induits où constitutifs ? Comme on avait rien à se mettre sous la dent, on a sauté sur la deuxième solution.

sommaire

5.  Le proton, objet physique ou être mathématique ?

Nous avons vu les avantages et les inconvénients de la méthode purement réductionniste. Elle ne cherche pas les causes et s'attache seulement aux effets. Ainsi en 1920, Rutherford découvre le proton en utilisant une chambre à brouillard. La technique est la suivante : on provoque des collisions et on observe les effets. Ces derniers sont toujours sous forme de trajectoire dont la courbure trahit les paramètres physiques de la particule étudiée. On s'aperçut que les assemblages de protons et neutrons formaient l'ensemble des atomes de la matière. Cependant on avait remarqué que les protons, neutrons et leurs assemblages, ne réagissaient pas comme l'électron. A une certaine distance du noyau, on détectait un seuil où apparaissait une force plus grande que celle attendue de l'électromagnétisme.

On l'appela force forte.

Les particules ayant cette force forte, furent appelées hadrons. Les autres, comme l'électron ou le muon, furent nommées lepton. Des hadrons peuvent être FERMIONS ou BOSONS alors que les leptons ne peuvent qu'être FERMION. La méthode réductionniste consiste à observer les effets et de les classer par famille. Dans ce but, en 1961, Gell-Mann proposa de classer les particules selon la théorie mathématique des groupes. Cette théorie est intéressante car elle est motivée par le concept de symétrie appliqué aux nombres. Or ce concept de symétrie est essentiel en physique. Il est même une des clés de la physique et donc de l'univers. Rappelez-vous nos bosons-2 tachyons. Ils sont classés selon la symétrie C2. Il s'agit de deux éléments engendrés par une symétrie centrale. Mais attention, il ne s'agit que de nombre. En observant la famille des éléments périodiques (tous les atomes), Gell-Mann a remarqué que son organisation ressemblait à un certain groupe de symétrie, appelé SU(3).

En suivant ce chemin, il a trouvé qu'une certaine combinaison, permettait de retrouver toutes les autres. Il a inventé des « briques de symétrie » qu'il a appelé quarks. Cette théorie met en avant le nombre magique, huit. En bombardant les noyaux, on a effectivement détecté trois petits « points durs » au sein des hadrons. Pour que cela fonctionne bien, ces « briques de symétrie » devaient présenter des combinaisons de charges électriques selon : (–1/3, +2/3) de la charge élémentaire de l'électron. Par exemple : –1/3 + 2(2/3) = + 1 pour le proton et : +2/3 + 2(–1/3) = 0 pour le neutron. Cela marche pour tous les hadrons, c'est un triomphe. Vraiment ? Le proton est-il un être mathématique ? Est-il utile de s'intéresser aux causes de cet objet physique ? Est-il constitué de quarks ou ces derniers sont justes induits par une loi physique ? Pourquoi cela ne marche-t-il pas pour les leptons ? Répondez Gell-Mann, les gens veulent savoir !

Donc messieurs Fermi et Gell-Mann, nous ont interdit de voir les protons (et neutrons) comme étant composés de paires électron-positrons. Tout paraît leur donner raison. Sauf l'essentiel, le principe du rasoir d’Ockham. Ce principe stipule qu'une bonne théorie doit apporter de la simplicité (mais pas du simplisme). Or ici c'est la complexité qui est au rendez-vous ; a) on compte plusieurs dizaines de types de particules « élémentaires » ; b) on ne dit pas comment sont créés les quarks ; c) on invente un autre être mathématique, le « gluon » pour « expliquer » la force forte ; d) on aboutit à un univers totalement asymétrique (pas d'antimatière). Ces conclusions sont totalement inacceptables ! L'univers est parfaitement symétrique, c'est sa première règle. Ainsi, le modèle mathématique du proton, serait fait de 8 gluons (bosons) couplés avec 3 quarks. Les gluons seraient de masse nulle et les quarks ne « pèsent » moins de 2 % de la masse du proton. Les gluons (!) colleraient les éléments constitutifs du proton mais on ne sait pas comment ni pourquoi.

On a soulevé le problème de la masse du proton et il faut en parler. Monsieur Higgs a considéré que le « vide » possédait un « champ » de type scalaire (isotrope où invariant avec la direction) qui donnerait de la masse aux particules. Comme tous les échanges avec le « vide » il faut un boson vecteur. On sait déjà qu'un neutron devenant proton, libère un électron + neutrino. Il laisse apparaître furtivement une particule lourde le boson de jauge W. En passant, il vaudrait mieux donner un nom honnête à ce « vide » qui ne l'est pas. Nous sommes quelques uns à l'appeler le subquantique. De plus tous les champs sont portés par une trame d'espace-temps, faite de boson-2-tachyons. (Voir la non localité limitée de l'intrication).

Analogie : une pierre jetée dans l'eau forme un creux furtif (boson W) puis apparaissent des ondes concentriques qui répartissent graduellement l'énergie du creux, à toute l'étendue de l'eau. Il faut savoir que la masse du neutron est plus grande que celle du proton et l'électron. Le neutrino est sensé représenter cette différence. Attention, cette analogie a ses limites. Monsieur Higgs a pensé que la masse du proton pouvait provenir de ce champ. Lequel ? Celui de création locale ou celui de création non locale (stable) ?  Il ne le précise pas car il n'a pas réalisé l'importance cruciale du critère de localité. Comme tout champ, il se traduit par une certaine résonance, matérialisée par un boson vecteur. C'est donc bien le boson de Higgs. Théoriquement, on avait aucune idée de sa masse. Mais en bombardant des particules dans les collisionneurs, on a pu voir des « résonances » qui signaient une certaine masse pour le Higgs entre deux valeurs floues, dans un premier temps.

Compte tenu de la somme des résultats déjà acquis, on a pu ensuite, situer le boson de Higgs entre deux bornes autour de : 125 GeV. C'est quoi GeV ? On a G, comme giga ou milliard ou 9 zéros soit 1 suivi de 9 zéros, soit « 10 puissance 9 » soit : 109 ; ensuite on a : eV, comme électron volt. C'est juste l'énergie : me, divisée par la charge élémentaire de l'électron, e.* Alors on a triomphé lorsque l'on a mesuré un « pic » situé à 125 GeV. Cette valeur n'était prévue qu'en rapport avec la somme des essais précédents. Alors existe-t-il vraiment ? La réponse est oui. Est-ce lui qui donne la masse au proton ? Quel proton ? Celui instable de création locale ou celui stable formant la matière visible de l'univers ? C'est là que le bât blesse ! Cette différence fondamentale entre particule stable (création non locale) et particule instable (création locale), est totalement ignorée. On n'explique toujours pas la masse du proton stable.

* exprimé en coulomb, cette charge est l'unité de l'électron. Cette unité, électron-volt (eV), est pratique pour l'expérimentateur. Mais il serait plus pragmatique de parler en nombre sans dimension, exprimé en unité électron. Par exemple l'électron qui fait 511 000 eV, devrait plutôt représenter l'unité. Ainsi un proton fait 1836,15, un muon fait 206,76 unités électron. L'électron est l'unité naturelle de masse, espace, temps, [M, L, T] de l'univers. Cette unité est dérivée du tachyon. 

sommaire


6. L'univers vu par ses dimensions physiques 

Le néophyte est souvent rebuté – outre les équations mathématiques – par la signification des paramètres physiques. Nous allons voir les combinaisons que l'on peut faire avec les 4 acteurs principaux de la physique. Dans le concept des dimensions, on ne s'occupe pas des nombres qui ajustent les relations. On ne s'occupe que de la cohérence du jeu de construction. Ces 4 acteurs de la physique sont un peu comme les 4 nucléotides (A, C, G, T) de l'ADN. Avec ce simple alphabet de base, l'ADN contient des milliards d'informations. En physique fondamentale, les bases s'appellent [M, L, T, Q] pour masse, longueur, temps et charge. La mise entre crochets, précise qu'il s'agit de dimensions sans chiffrement. Dans cette démarche, on ne regarde que la cohérence des combinaisons des 4 acteurs.

A quoi ça sert ? Déjà cela simplifie grandement les relations physiques. De plus, cela permet de vérifier facilement la cohérence d'une relation. Par exemple on sait qu'une vitesse est le résultat d'une longueur divisée par un temps [L / T]. Si dans une combinaison on attend une vitesse et que l'on aboutit par exemple, à [L T] alors on sait qu'il y a une erreur. Regardons de plus près les 4 acteurs de base. Il y a d'abord la masse dont la dimension s'écrit [M]. La masse est une notion d'inertie. C'est d'ailleurs comme cela qu'on peut la mesurer. Quel est le dual de l'inertie [M] ? C'est l'accélération. Plus un corps est difficile à accélérer, plus il est inerte. Mais nous allons montrer que tout ce qui est quantique ou subquantique, est sous forme d'oscillateur. Or un oscillateur ne fait qu'accélérer et freiner d'autant plus que sa fréquence est élevée. Ainsi, dans ce cadre, le dual de l'inertie est la fréquence. Elle s'exprime par l'inverse du temps [1 / T]. Plus la fréquence est élevée moins le temps de cycle est grand. Une petite précision : la forme [1 / T] se simplifie en [T–1].

Ensuite nous avons la longueur [L]. Dans le cadre de l'oscillateur à une dimension ou 1D, on l'appelle l'amplitude spatiale. Dans l'oscillateur, la masse et l'amplitude, sont intimement liées. Cependant il nous faut bien distinguer l'oscillateur macroscopique, telle que la corde de guitare, d'un oscillateur quantique. Par exemple, pour une guitare, plus la masse et la longueur d'une corde sont grandes, plus la note est grave. On peut régler artificiellement la longueur ou changer la masse et la qualité de la corde à volonté. Tandis que l'oscillateur électron, ne s'ajuste pas. Son harmonie implique des paramètres bien précis et constants. Pour la corde de guitare, on a besoin de voir ce tableau :

Tableau 6-1

paramètres

commentaires

M

L

T

vitesse, v

longueur/temps = l / t


1

1–1

accélération, g

longueur/temps² = l / t²


1

12

masse linéique, d

masse/longueur = m / l

1

11


impulsion, p

masse × longueur / temps = m l / t

1

1

11

force, F

masse × accélération = m g

1

1

1–2

raideur, K

force / longueur = F / l

1


1–2

Quand on achète un câble, on doit stipuler sa masse linéique, sa force et sa raideur.


Q
uand on cherche la qualité d'une corde de guitare (ou d'un câble de téléphérique) on regarde sa masse linéique (d = masse par mètre) et sa force par mètre soit sa raideur, K. On voit bien que le temps d'un cycle est augmenté par la longueur et la masse. Donc le temps est proportionnel à : longueur × masse/mètre, soit M. En revanche, la raideur K est de nature à diminuer le temps d'un cycle. Il faut donc diviser par la raideur K. On a : d × longueur / K = [M] / [M T2] = [T2]. On voit de suite que le dual de la masse est la fréquence (élevée au carré). La raideur exprime cette dualité [M T2]. On a bien la notion d'inertie qui s'oppose à toute variation (la fréquence au carré). La raideur qualifie un ressort ou un oscillateur. Avec le tableau 6-1, on peut même savoir de quoi dépend la vitesse de propagation de l'onde, dans la corde de guitare. On voit de suite que si la « mollesse » n'est pas un facteur de rapidité, la raideur en est un. La masse est de nature à ralentir. On a donc un début de solution : K / masse ou raideur sur inertie. Mais on voit bien que la vitesse [L / T] exige une notion de longueur [L]. Si on fait [M / T²] × [L²] / [M], les deux masses s'annulent et on obtient bien le carré d'une vitesse : [L² / T²]. On peut également simplifier en mettant la force F, en écrivant : v² = F l / d. Les combinaisons des dimensions physiques, sont un aide précieuse pour comprendre la physique. On peut mesurer le temps d'un cycle sur un long câble tendu. Vous posez : = M L/ F avec M la masse du câble et F la tension. Admettons que vous connaissiez la tension F (en Newton) et que vous mesuriez (aller-retour de l'onde). Il suffit de produire un choc sur le câble et mesurer le temps du retour de l'onde (le choc est renvoyé par l'appui de l'autre extrémité). Ainsi vous pourrez calculer la masse. Si vous connaissez la masse par mètre (catalogue) et la tension, alors vous aurez la longueur de la portée [L].  

sommaire


7. L'oscillateur dual quantique

Parlons maintenant de l'oscillateur dual quantique. Nos anciens de l'école de Copenhague, ont dit que l'équivalent électrique de la raideur mécanique, est lié à la charge Q. Ils ont écrit : Q² = f [M L] et plus précisément : = f(me ƛe). Ainsi Q² = Q × Q indique l'influence de deux charges en vis à vis. S'il y a deux charges alors l'oscillateur devrait-être dual.... comme le boson-2-tachyons. Nos anciens ont dit que l'harmonie n'est atteinte que si la « raideur » électrique, est adaptée à [M L]. C'est différent de la corde de guitare dont la notion de temps est déjà inscrite dans la raideur K = [M / T²]. L'oscillateur électron, ne peut que s'adapter à : = f [M L]. Dont acte ! La charge élémentaire, e est bien historiquement, déterminée par les seuls paramètres de l'électron : = f(me ƛe). Cette évidence est pourtant souvent niée, voir ici où l'on dit : « La charge élémentaire est, en physique, la charge électrique d'un proton ou, de façon équivalente, l'opposé de la charge électrique d'un électron. Elle est notée e »Cette tournure de phrase est typiquement faite pour banaliser le rôle crucial de l'électron. Nous allons voir que ce n'est pas la seule tentative de banalisation.

Nos éclaireurs du siècle dernier, avaient compris que l'énergie de masse de l'électron (E = m c²) doit-être équivalente à son énergie électrique. Nous ne faisons pas d'équation ici mais sachez qu'ils attendaient la même énergie avec : E = f(e²/ro). Mais catastrophe (!), ce rayon ro dit « rayon classique », ne se mesure pas ! La belle symétrie ne semble pas au rendez-vous ! La démarche réductionniste est mise en échec par la non égalité apparente, entre l'énergie massique (le fameux m c²) et l'énergie électrique. La crise est sévère ! Alors, faute de mieux, on a déclaré : « il ne faut pas chercher à comprendre le mystère quantique.....» . On prête même à Paul Dirac, cette déclaration « Shut up and calculate ! », soit « ferme-la et calcule » ! Mais le modèle Oscar a-t-il une explication à ce grave manquement à la symétrie ? Oui et nous verrons qu'avec l'approche duale {holisme + réductionnisme}, la réponse devient évidente. Sur le BEC fossile, le rayon ro est juste l'intervalle élémentaire avant l'annihilation du facteur (1D) = 137,035999.... Après annihilation, cet intervalle devient le fameux ƛe , que l'on sait mesurer. Autrement dit, cette belle symétrie, initialement liée au rayon ro, est maintenant liée à ƛe . Le lien [2] le confirme par une relation bien connue.

Devant cet échec, on s'est réfugié dans le mystique en concluant : « les lois de la physique des particules, sont impénétrables..... ». A très petite échelle, la physique classique n'est plus continue. Elle est quantifiée pour toutes les particules. Et monsieur Planck de proposer sa constante de Planck, ħ. Elle convient tellement à toutes les particules, qu'on en a « oublié » son origine. elle vient du seul électron, tout comme la charge élémentaire ! Elle est donnée par : ħ = me c ƛe. Alors on s'est juste persuadé qu'elle pourrait aussi venir du proton. Mais ce n'est pas vérifié du tout ! (on verra même qu'en cherchant cela, on confirme la composition du proton en paire électron-positrons). On assiste alors à un tour de passe-passe incroyable ! On a deux éléments contradictoires :

a) la charge élémentaire, e et la constante ħ, représentent la brique élémentaire de toutes les particules.

b) leur source est vérifiée comme étant l'électron mais cela semble interdit par Gell-Mann et Fermi.

Que faire ? On a carrément éludé la source électron.

Et l'oscillateur dual dans tout ça ? Il est la clé pour passer de « rien » à « tout » ! On a éludé l'électron comme brique élémentaire alors qu'il est en plus, l'aboutissement du tachyon. Revenons à notre expérience de pensée et à notre BEC fossile. On a vu qu'il était composé d'oscillateurs appelés boson-2-tachyons. La belle loi de symétrie est là dans sa plus simple expression. Deux tachyons – confinés dans le boson – s'annulent parfaitement dans le référentiel boson ! Et oui, il n'y a pas d'espace, pas de temps, pas de masse, il n'y a rien ! Attention ce « rien » n'est pas une valeur absolue. Il est « rien » dans le référentiel boson. En revanche, dans chacun des référentiels tachyons, [M , L , T] sont bien présents. Cela veut dire qu'ils possèdent les ingrédients pour osciller mais que rien ne « transpire » à l'extérieur. Ce boson-2-tachyons est la seule représentation du zéro physique. Tant que la saturation n'a pas eu lieu, le BEC-fossile, composé de ces bosons, est fantomatique. Avec les simples notions de dualité, confinement et référentiel, nous venons d'entrevoir ce qu'est le « rien » fondamental. Mais il reste la question cruciale : d'où viennent ces bosons, la cause profonde ? Nous allons répondre avec tous les détails souhaitables. Mais avant, il nous faut comprendre quelques points sur les erreurs épistémologiques de la physique fondamentale.

La clé de l'oscillateur dual est fondamentale. Il existe une égalité physique mal connue:  me ƛe = mP lP = ħ / c. Elle compare l'électron avec les unités de Planck [ML] (dont on reparlera en détail) Elle est très importante, pour les raisons suivantes :

  1. elle est précise (ħ/c) ;

  2. elle confère un rôle central à l'électron ;

  3. elle indique que le produit [M.L] est constant ;

  4. elle implique que [M.L] est indivisible ;

  5. elle est cohérente avec un mode oscillateur 1D, dans le cadre de la dualité onde-corpuscule ;

  6. elle peut se voir comme un moment d'inertie en 1D ;

  7. la partie [L] du moment [M.L], est vectorielle.

Ainsi les deux groupes en opposition peuvent s'annuler grâce au caractère vectoriel de [L]. Par ailleurs, si M → 0 alors L → .

.

.

8. Les graves renoncements de l'école de Copenhague

Résumons la situation. La charge élémentaire universelle (e) est objectivement, issue de l'électron. Le rayon classique de l'électron (non mesurable aujourd'hui), provoque la grave crise de symétrie. Monsieur Planck sort sa fameuse constante ħ = me c ƛe, fonction de l'électron. Son côté pratique fait totalement oublier que son universalité vient de sa source électron. D'autant que Fermi et Gell-Mann, interdisent l'électron comme quanta ou brique élémentaire du proton. Le refus de la dualité {réductionnisme-holisme} prive nos anciens de comprendre ces point essentiels :

a) l'évolution du rayon classique vers le rayon de Compton, via l'annihilation sur le BEC-fossile,

b) la loi de Fermi est strictement locale,

cl'annihilation originelle est parfaitement symétrique,

d) la non localité – non absolue – induit une dualité de vitesse finie, de propagation.

Ce dernier point, implique l'existence d'une vitesse supraluminique non infinie et donc, l'existence des tachyons. Il résout également la crise de l'inflation. On a sorti cette spéculation car on a remarqué que la température de l'univers était homogène. On en a déduit que l'ensemble de l'univers a été un moment, en contact direct, puis s'est étiré d'un coup, comme par magie ! Et pourtant, en faisant la simple expérience de pensée (chapitre 4), on évite cette transgression heuristique en découvrant la simple dualité de localité. Encore une fois, on se voile la face en croyant que la rigueur puisse être atteinte par la seule voie réductionniste. Par définition, elle ne traite la grande échelle qu'à coup de spéculations.

La voie du monisme est tellement ancrée dans le genre humain, que l'on a rejeté la dualité. On s'est détourné des objets physiques du réel, pour se jeter éperdument dans la construction d'êtres mathématiques. Ces derniers, manipulables à souhait, ont permis néanmoins de décrire les expériences et même de faire quelques prédictions. Les empiristes se sont gargarisés de ces quelques prédictions en déclarant que la prédiction est le Graal du physicien. A l'époque les protestations des réalistes (comme Einstein) n'avaient guère de portée car personne ne mettait en doute la validité de l'expérimentation locale. La dualité de localité n'était même pas évoquée.

Revenons sur l'affirmation : prédictions Graal. Passons sur l'aspect mystique, guère seyant au physicien. La mathématique est très douée pour décrire correctement les expériences et les liens logiques entre les différents effets. Il est donc normal qu'elle puisse aboutir quelques fois, à des prédictions. Mais il arrive souvent que les effets mesurés soient confondus avec les causes. Exemple : Monsieur Gell-Mann constate avec raison, une loi de construction des particules amenant sur la piste des quarks. A ce stade on doit se poser la question : est-ce un effet ou une cause ? Homme occidental, dominant, qu'as-tu choisi ? Et bien comme d'habitude, l'effet. Alors la cause qui induit les quarks est passée à l'as. Cela ressemble à la médecine occidentale : on a beau dire depuis des siècles, qu'il faut soigner les causes et dans la pratique, on s'occupe surtout des effets ! Chassez le naturel et il revient au galop...

Ces quelques prédictions sont émaillées d'apparitions de nouvelles énigmes et de plus de 18 paramètres libres. C'est quoi un paramètre libre ? Ce sont des nombres, posés de manière heuristique, pour combler les trous d'incompréhension. Chaque fois que les résultats démentent ce que l'on attend, on s'arrange avec un nombre opportun qui permet de « résoudre » à tout prix. La déraisonnable efficacité des mathématiques, règne depuis l'école de Copenhague, en contournant certaines lois fondamentales de la physique. Gell-Mann a proposé les quarks comme composants des protons, en éludant le fait qu'ils pouvaient être induits. Cet « oubli » est d'autant plus suspect que les quarks refusent de rester stables, lorsque l'on cherche désespérément à les isoler. Tout ce que l'on peut mesurer va dans le sens de l'induction des quarks. Le présent modèle montre comment nait l'induction des quarks et ce, en accord avec les observations.


Alors la théorie quantique est entièrement fausse ? Non elle manque juste de perspective concernant la dualité de localité. Par exemple le grand mathématicien Newton, a posé une loi simple sur la force qui attire deux masses, la gravitation : F = G m1 m2 / r². Cette loi est assez vraie mais sa validité est typiquement locale. Elle ne prévoit pas que l'information de l'influence des masses puissent être limitée par la vitesse de la lumière. Son incomplétude porte en elle une notion d'infini. Tous les grands mathématiciens qui ont suivi cette découverte, n'ont pas vu ce défaut. Il convient de garder en tête que l'objet univers, n'est pas une abstraction, mais du domaine du réel physique.

Ensuite Einstein a revu la loi de Newton à l'aulne de la limite c. Là aussi on a oublié de prendre en compte, la localité. Il n'a pas fait état des limites du domaine de validité. Pire ! Par la suite, on a construit un modèle d'univers où la cause de sa matérialité a été attribuée à la gravitation ! Il y a encore des physiciens qui croient (sic) que des équations mathématiques ont construit l'univers. Nous montrerons que la gravitation est un effet et non pas une cause. Cependant la vue d'Einstein est bien plus réaliste que celle de Copenhague. Elle tient compte d'une propagation finie de l'effet gravitationnel. Elle dit avec raison, qu'une densité d'énergie, courbe l'espace-temps. Ce dernier concept dit qu'en plus des 3 dimensions (x, y, z) il faut rajouter une longueur sous forme de c t. En terme de dimension physique, on voit de suite que [L/T] × [T] = [L]. En revanche, elle ne dit rien sur l'aspect physique de la trame de l'espace-temps. Einstein a cependant toujours dit que son analyse des effets, ne doit pas être confondu avec les causes de la gravitation. Sur ce point, il n'a pas été écouté. Cachez ces causes que je ne saurais voir !

Alors vous allez me dire : « quelle est la cause de la limite : c = 300 000 km/s ? » Vous êtes sûr que vous me posez cette question ? Ah bon car personne ne se la pose (mis à part Einstein). Nous allons aborder cela dans le détail fouillé du fonctionnement du BEC. En attendant, la capacité analytique des mathématiques a permis notamment, la construction d'une importante équation (Schrödinger). Elle décrit ce que l'on appelle la réduction du paquet d'ondes. Elle décrit ce qui se passe lors de l'opération de mesure de l'état d'une ou plusieurs particules. Une analogie peut approcher le problème : soit les ondes concentriques générées par un caillou lancé dans l'eau. Dans cet état (onde), elles sont réputées être « partout à la fois ». Ainsi, l'opération de mesure, reviendrait à ramener cet « éparpillement » à l'impact du caillou qui a produit ces ondes. Cela paraît fou mais nous verrons que dans le cadre du BEC (là où tout se joue), cela est possible. Pourquoi ? Bon déjà l'analogie est limitée car elle suppose que les ondes (les rides sur l'eau) s'éloignent continûment. Dans la réalité des oscillateurs-tachyons du BEC, ces ondes partent et reviennent (donc oscillent) et la mesure se fait toujours dans le centre de symétrie. Attention, ce centre est mobile alors que dans l'analogie, l'impact du caillou est figé au centre.

Mais cette belle équation est tout aussi incomplète que celle de Newton ! Comme d'habitude ces concepteurs ont ignoré la localité. Cette équation ne précise pas la vitesse de propagation de l'information. Mais certains physiciens profitent de cette incomplétude pour croire (sic) que l'opération se fait à vitesse infinie ! Quelle folie ! Il existe enfin, une autre équation, liée à relativité générale. Elle construit un facteur (gamma : γ) d'étirement du temps ou de la masse quand la vitesse v, d'une particule massique, s'approche de la vitesse limite, c. Elle s'écrit : γ = 1/(1 – v²/c²)1/2. Dans laquelle on voit que si (v² / c² =1), on obtient zéro au dénominateur et donc un taux d'étirement infini ! Cette relation est exacte mais il lui manque juste une limite physique bien précise. On en reparlera.

Conclusion épistémologique : L'école de Copenhague, foncièrement réductionniste, a ignoré la dualité de localité. Ses disciples ont été choqués par l'expérience de monsieur ASPECT, dans les années 80. Ils sont médusés par celle, récente, des chinois, qui mesurent une vitesse non infinie entre deux événements de non localité.

Tableau 8-1

points divergents

modèle standard

modèle oscar

dualisme

peu évoqué

la clé universelle

dualité de localité

non localité avec propagation instantanée.

la non localité possède une propagation supraluminique mais limitée

ratio : Coulomb / Grave

Compare l'électron avec le proton, 1836 fois plus massique. (vélo contre camion)

compare l'électron avec le positron qui est en tout point symétrique

Force Gravitationnelle de Newton

accepte l'éventualité de l'instantanéité entre deux masses distantes

propagation strictement limitée à c

intrication des états

accepte l'instantanéité de l'information

A → B

information A → B donnée par tachyons supraluminique mais à vitesse limitée

coefficient relativiste

γ = 1/(1 – v²/c²)1/2

relation qui accepte l'infinie

si : v = c

relation exacte mais avec la limite ξ

(vérifiée avec les rayons cosmiques)

rayon mini de l'électron

accepte l'augure de : r = 0

longueur de Compton / ξ

notion d'infini

est acceptée en physique

ne concerne que les nombres

dichotomie fermion-boson

sans critère de localité

non localement, tout est boson

proton (composite)

pas de véritable modèle physique

car pas de dichotomie de localité

non localement stable et condensat de paires électron-positrons

masse de Planck (mP)

simple argument dimensionnel

vaut ξ² masses d'électron

constante de Planck (ħ)

source universelle non définie

représentant l'électron qui est universel

La dualité onde/corpuscule, base importante de la théorie quantique, est une réminiscence du boson-2-tachyons qui est à la base de tout. La quantification de l'univers est donnée par ħ dont l'électron est le seul représentant. Le ratio Colomb / grave est donné dans la relation [2].

sommaire


9. Premier aperçu du « rien » dual

Sur la base de ce que nous avons vu au chapitre 4, nous allons découvrir l'extraordinaire pouvoir de la dualité, dans son plus simple appareil. Les boson-2-tachyons (1D) matérialisent le BEC (sphérique) originel. On a dit qu'ils étaient tous synchronisés. Ils quittent le point zéro commun par couches entières pour revenir ensuite et repartir. Bref, ils oscillent de concert. Premières questions : pourquoi sont-ils synchronisés ? D'où sortent-t-ils ? Combien sont-ils ? Toutes ces questions sont légitimes. Il faut d'abord bien comprendre ce qu'est un boson-2-tachyons 1D. Une notion essentielle à intégrer est celle du confinement et du référentiel. Les deux tachyons existent réellement, mais chacun dans son référentiel. Mais étant liés par leurs charges électriques, ils s'annulent parfaitement. Donc dans les référentiels « tachyon » on a [M L T Q] et [M' L' T' Q']. Mais dans le référentiel boson, la somme des deux, s'annule parfaitement. D'accord, on obtient un zéro parfait mais pourquoi ne pas prendre un zéro absolu tout simple ? Parce que toutes les lois physiques nous disent que tendre vers zéro provoque l'infini. On appelle cela la dispersion. Mrs Heisenberg dit que si une valeur de position (x) tend vers zéro alors l'impulsion (p) tend vers l'infini ! Rappelons-nous (tableau 6-1) l'impulsion s'écrit [M L/T] . Cette loi incontournable pose cependant un problème. Si on raisonne en oscillateur simple, alors d'où sortirait l'impulsion [M L/T]? Du chapeau d'un magicien ? On voit de suite que la seule solution est duale. Matière et antimatière peuvent exister mais à la condition expresse qu'elles s'annulent dans le référentiel boson.

On obtient un véritable « rien » physique mais il se pose un autre problème... Qui a fixé la période bien précise de ces oscillateurs ? Qui a fixé les valeurs précises de M, L T ? Pire ! Qui a fixé leur nombre ? C'est là qu'intervient la notion de dualité des états de l'univers. Avant d'avoir un BEC bien synchronisé, bien sphérique, il existe un état d'univers totalement anarchique ! On l'appelle l'état stochastique. Le point commun qu'il a avec le BEC fossile, est l'annulation stricte de [M L T]. La notion de dispersion vue plus haut, dit que si la position x tend vers 0, alors on tend vers une infinité d'impulsions possibles. Cette loi nous dit clairement que le zéro physique est dual. Il est fait de deux impulsions contraires. Le spectre de leur valeurs possibles, est infini. Or la dimension de l'impulsion [M L/T] comporte bien les 3 mousquetaires de la physique. Au chapitre 7 on a vu que  Q = f(ML). Donc on a bien de quoi osciller [M L/T] dans le référentiel tachyon, tout en garantissant un vrai zéro, dans le référentiel boson-2-tachyons.


référentiel tachyon (+)

référentiel boson-2-tachyons  (0)

référentiel tachyon (–)

+ [M L/T]                     → Q+

0

Q ←            – [M L/T]

La loi de dispersion indique que le zéro absolu est interdit car tendre vers zéro, revient à créer un potentiel infini de deux impulsions contraires dont la somme est un zéro relatif. L'interaction des deux charges (Q), est le lien qui attache les deux belligérants. Ce lien est la garantie d'une énergie strictement nulle. Il n'y a pas de banque occulte d'énergie.

Cela veut dire plusieurs choses : a) seuls les zéros relatifs élémentaires, sont autorisés ; b) donc chaque zéro potentiel élémentaire, génère un oscillateur dont l'impulsion est différente ; c) comme l'espace, le temps, et la masse, sont annulés (boson du zéro), chacun évolue dans son « monde fantôme » (le référentiel boson). Ils ne sont pas connectés entre eux. Combien sont-ils ? Déjà on peut dire qu'ils sont indénombrables. Mais peuvent-ils être en nombre infini ? La réponse est dans la question ! Si ce sont des nombres sans matérialité et donc [M L T] = 0, alors oui, on a le droit de parler d'infini. D'ailleurs, c'est la seule solution, puisque on ne peut définir une limite. L'infini des zéros, oui mais surtout pas l'infini des paramètres physiques. Qui aurait payé l'addition ?

Mais à quoi ressemble l'espace-temps à ce stade ? A rien ! Les zéros fluctuant restent à zéro et ne sont pas connectés. Chaque espace 1D est annulé mais l'ensemble forme un espace virtuel indéfini. On a un monde de zéros invisibles qui grouillent et ce, sans écoulement du temps. Dans le BEC limité, sphérique et synchronisé qui sera formé, l'espace est virtuellement en 3D. On a même une constante de temps, source de la quatrième dimension, avec sa vitesse limitée. Mais dans le stade stochastique, l'empilement virtuel est infini et il n'y a donc pas de centre. Imaginer un déplacement, d'un point zéro à un autre est impossible car la géométrie 3D est en devenir. L'entropie de désordre est à son maximum.

Mais de quoi sont faits ces doubles tachyons qui s'annulent ? D'où vient la masse ? Attention, cette dernière question est biaisée. En effet, nous avons entrevue l'idée que le produit [M L] était initialement indissociable. Il est constant pour les particules : a) de Planck ; b) de l'électron ; c) du tachyon ; d) des leptons ; d) du proton (sous certaines conditions de groupe). Cela veut dire que la notion de masse est une fonction inverse de son amplitude d'oscillation. C'est cela qui valide la loi de dispersion de Heisenberg ! Aux limites, une dispersion [L] nulle, donne une masse [M] infinie. C'est pour cela que le zéro absolu physique ne peut exister. On peut même dire qu'un oscillateur ayant une masse infinie... ne pourrait plus vibrer et donc ne serait plus un oscillateur. Cette loi, avec la symétrie duale, sont les seules lois du « rien » de l'univers. Alors pourquoi forcément osciller ? La raison est simple : l'oscillation stochastique possède un potentiel de spectre infini de période propre au cycle en cours. Cela est permis car c'est le nombre de possibilités, et non pas le temps, qui est infini. Ainsi, l'oscillation permet le caractère statistique que n'a pas la contrainte de la valeur unique. Celle-ci serait choisie par qui ? Cet aspect mystique est incompatible avec la démarche scientifique. 

Alors de quoi est fait le boson-2-tachyons ? A ce stade d'univers, il est la seule réponse (oscillante et duale), pour contrer un zéro statique impossible. Pour osciller, il a besoin d'un doublet [M L + M' L'], totalement arbitraire et de somme nulle. Le boson-2-tachyons est la cause profonde de la dualité onde/corpuscule, il matérialise le zéro physique. Ce zéro n'est pas du tout celui des mathématiques. 

On donnera plus loin, la preuve que le temps (interne et confiné) est induit par [M L], tout comme la charge. Attention à ce stade « vrai vide » d'univers, la solution moniste, consistant en une fluctuation du zéro (à droite et à gauche), n'est pas valide. Elle implique un crédit d'énergie qui n'est justifiable que dans le cadre du « faux vide » de nos expériences. Tout le monde peut comprendre cela et pourtant, certains physiciens (réductionniste) spéculent en prêtant des vertus locales, au « vrai vide ».

Sommaire


10. Le flux de synchronisation forme le BEC fossile

Que disent les statistiques ? D'abord que ces bosons-zéros ne sont pas « non connexes » mais « statistiquement non connexes ». Cela veut dire qu'il existe une chance extrêmement faible pour que des « points zéros » se superposent en se synchronisant. Si le temps s'écoulait, il faudrait des milliards de milliards d'années de combinaisons hasardeuses, pour avoir un début de synchronisation.... Mais justement, le temps ne s'écoule pas ! Ouf ! Alors quel que soit le nombre de fluctuations nécessaires, les combinaisons amenant le flux de synchronisation, sont forcées de se produire ! L'univers a horreur du vide et c'est pour cela que nous sommes là pour le vérifier. L'univers part bien du « rien » dual.

Il existe donc un flux de synchronisation, des bosons. Que font des bosons qui se synchronisent ? Ils forment un condensat de Bose Einstein (BEC). Notez qu'il existe des études qui démontrent que tous les types d'oscillateur, sont irrémédiablement attirés par la synchronisation. Cette loi nous vient de monsieur Huygens (avec ces horloges qui se synchronisent comme par magie). Elle a été étendue à tous les oscillateurs, y compris aux oscillateurs quantiques. Il faut bien voir que cette phase d'univers voit son désordre décroître (entropie décroissante). Donc le BEC voit sa densité augmenter jusqu'à ce qu'il soit saturé. C'est bien ce qui a été évoqué au chapitre 4. L'entropie (comme tout le reste) est duale car le flux de synchronisation inverse sa tendance. L'encours de désordre, progresse maintenant vers l'ordre. Range ta chambre !

Comment naissent les constantes ? Au fur et à mesure de la fusion des points zéro, s'opère une moyenne entre les valeurs aléatoires. Cette moyenne, totalement aléatoire, fixe la constante [M L]. Elle fixe également un ratio universel : je l'ai appelé ξ, lettre grecque qui se prononce xi ou ksi. Ce ratio est égal à 1,54 × 1011. Ce dernier est omniprésent en physique et notamment en [2]. Dans l'infinité de l'univers stochastique, il se forme donc un BEC. Son point zéro commun ne peut-être situé. Il n'a pas de coordonnées spatiale car il n'existe pas de centre. En revanche, le point zéro commun est bien au centre du BEC en création. On a les constantes suivantes :

Tableau 10-1

paramètres

tachyon

intervalle couche

sphère zéro

RE

RBEC

genre espace

ƛo = L / ξ4

ƛe = L / ξ3

ƛpz = L / ξ2

L / ξ

L = 1,42 × 1021 m

genre temps tachyon

to = te / ξ4




te = 1,28 × 10–21 s

genre temps électron


te = 1,28 × 10–21 s




genre nombre (2D)



ƛpz² / ƛo² = ξ4


(ƛpz² / ƛo²) to / te = ξ8

Les ξ4 tachyons sur la sphère du point zéro, émis dans un cycle to , (ξ4 fois plus grand) permettent d'alimenter les ξ8 tachyons de la couche à pleine amplitude. Comme il y a ξ3 couches, le nombre total est de ξ8 × ξ3 = ξ11 tachyons. Ce tableau devient complètement compréhensible en lisant le chapitre 11. On note que ce BEC fossile (à saturation) n'est pas isotrope car son intervalle tangentiel est ξ fois plus petit que son intervalle radial. On verra plus tard la signification de la colonne RE . Le tachyon est  à la fois local et non local ! Il a ainsi, deux constantes de temps  et deux d'espace (en bleu ci-dessus).

sommaire

11. Comment fonctionne le BEC fossile avant saturation ?

Sur la base de ce que nous avons vu, le flux de synchronisation vient grossir les rangs du BEC. Avant saturation, il n'y a toujours pas d'écoulement du temps et pas de masse. L'espace global 3D est virtuel. La sphère du BEC possède un rayon R stable puisque matérialisé par tous les oscillateurs tachyons synchronisés. Il est virtuellement formé par la somme des couches (2D) de tachyons (1D), soit 3D. Pour fixer les idées, le modèle montre que le rayon du BEC est d'autant plus grand, que la masse (confinée) du tachyon est petite. On a déjà vu que l'électron (ex-tachyon) est la référence universelle. Ensuite sur la base [2], on a le rapport massique : électron / tachyon : ξ3 = 1033. Le rayon de Compton de l'électron (ƛe = 10–13 m) a pour image cosmique dans le BEC : RBEC = 1021 m. C'est la taille d'une galaxie ! Les tachyons très légers sont très très longs ! Et, cerise sur le gâteau, le rayon RE, du tableau 10-1, correspond à la taille d'une grosse étoile primordiale ! On en reparlera.

Ainsi, le BEC fossile possède ξ3 = 1033 couches, chacune espacée d'un intervalle radial de : 10–13 m. Il existe une contrainte d'isotropie de densité qui implique in fine, que l'intervalle tangentiel devra être égal à l'intervalle radial, (10–13 m). Mais le lien [2] impose que lors de la saturation, il existe ξ4 = 1044 tachyons sur la circonférence. Cela veut dire que la saturation est la limite où les boson-2-tachyons se chevauchent. Ainsi, la taille transverse (épaisseur) des tachyons est plus petite de celle de l'électron du ratio ξ. Ce ratio joue un rôle très précis plus tard. Mais pour le moment, il nous suffit de savoir que les relations [2] montrent que la première couche du BEC fossile, est saturée d'un facteur ξ (en 1D). On en déduit que la surface élémentaire (2D) est alors ξ2 fois trop petite.

Mais que se passe-t-il dans le BEC, avant saturation ? Prenons une analogie avec un jongleur. Il a une (petite) partie des balles dans les mains et la majorité est en vol. Cette analogie est intéressante car les balles ralentissent sous l'effet de la gravitation. La décélération est en 1/r². Dans le BEC il n'y a pas de gravitation mais juste l'attracteur du point zéro commun. La vitesse des balles du jongleur est telle que la densité baisse comme la vitesse. En effet, elle sont serrées dans les mains puis elles s'écartent largement en vol. Cet effet existe sur la surface des couches du BEC, qui augmentent en R². Cela veut dire que les intervalles auraient tendance à augmenter avec la croissance des couches ! Mais ce n'est pas le cas puisque la vitesse varie en 1/R². Donc la densité reste constante !

Mais qu'elle est la conséquence de cette régulation ? Les tachyon de chaque couche, ont tendance à combler la couche qui la précède. Sans faire de math, on comprend que l'intervalle élémentaire double chaque fois que le rayon double. Comme la surface augmente en R² et que la vitesse varie en 1/R², alors la densité reste constante dans le BEC. Mais pour combler les trous, il faut s'écarter en balayant une surface. Cela implique pour chaque tachyon, une trajectoire hélicoïdale. Ainsi, une certaine rotation est intrinsèque à chaque boson-2-tachyons. La notion de spin, habituellement attribuée aux particules, est en fait, un effet relatif au couplage avec les tachyons. Les particules en révèlent le spin. On verra comment et pourquoi ce spin est quantifié (0, 1/2, 1) fois la valeur de la constante de Planck. On verra pourquoi il existe une gêne concernant ce terme de spin. Car voulant dire « rotation », on tombe sur une contradiction avec la limite c. Alors, comme pour le rayon classique, on a transformé cet effet physique bien réel, en un être mathématique des plus docile. Cet être abstrait contourne toutes les contradictions (apparentes) de la physique. On est toujours dans ce réflexe d'évitement du réel !

On a vu que le rapport des rayons entre un intervalle élémentaire et le BEC entier, est de : ξ3 = 1033. Donc le ratio de vitesse est du même ordre : la célérité du tachyon est égale à : co = c ξ3. On peut voir que le produit vitesse × masse du tachyon est égal à celui de l'électron. Cela veut dire que l'impulsion intrinsèque d'un tachyon séparé (changement de localité) deviendra un électron. Il suffit pour cela d'évoquer la constante [M L]. Voici l'image la plus réaliste qui soit : quand on « regarde » le tachyon dans son ensemble (BEC), sa masse est petite. C'est exactement la dualité « onde/corpuscule » qui a tant surpris dans le passé. Le tachyon est la cause que tant de physiciens ont vainement cherchée. Mais quand on « regarde » le tachyon dans l'intervalle qui le sépare des couches suivantes, sa masse est celle de l'électron. Le terme « couches suivantes » est très important car il détermine la trame de l'espace-temps (3D) dans lequel vont baigner les particules de matière crées sur la première couche ! Alors, il ne faut pas s'étonner du couplage fondamental qui existe entre ces deux milieux. Vous avez dit dualité ?

La cause de la vitesse de la lumière c, est du même ordre. Comme la période du tachyon est égale à celle de l'électron, alors la traversée d'un intervalle dans ce temps élémentaire te, est égale à : c =  intervalle / temps élémentaire. Cela revient exactement à : co = rayon BEC / temps élémentaire. Il y a ici une subtilité : pour qu'un tachyon communique avec son voisin (intervalle élémentaire), il lui faut toujours passer par le point zéro commun. Il n'a pas d'autre connexion possible. Ainsi la rapidité du tachyon ne lui sert guère puisqu'il est obligé d'augmenter d'autant son trajet. Ceci est la cause profonde de la limite c. Les expériences sur l'intrication, ne disent que cela ! Cela veut dire que tous les tachyons du BEC, sont reliés entre eux. Ils sont le substrat d'un véritable computer géant. Leurs états propres ne sont pas (0 ou 1) mais varient continûment (analogique). En revanche, leur rotations hélicoïdales sont binaires et appariées. Et on sait le mesurer.



Sommaire


12. Aparté sur le théorème d'incomplétude de Gödel

Un lecteur me fait remarquer l'importance de l'incomplétude de Gödel en mathématique. Il m'a invité à visionner son interview de Didier GUIGNARD. Ce dernier indique notamment le phénomène d'auto-référence induit par la mathématique. Gödel parle des écueils d'indécidabilité qui s'empilent jusqu'à créer des « boucles étranges » dans lesquelles la démonstration se mord la queue. Voici la tenue de mon mail retour :

Bonjour Monsieur Anicet Blaise OKANA,

J'ai écouté avec grand intérêt votre interview de Didier GUIGNARD sur le théorème d'incomplétude de Gödel.  J'ai apprécié une grande partie de son discours et notamment sur le thème de l'ordinateur, qui manque cruellement de sémantique.  Je fais un parallèle avec la mathématique,  plutôt destinée à décrire la physique plutôt que de l'expliquer. 

En revanche,  son discours ne cite pas les clés essentielles de  la dualité : description/explication ; localité/ non localité. C'est dommage car sa question posée sur  l'univers : continu ou discontinu, est mal posée. L'univers est à la fois continu ET discontinu. Le meilleur exemple est dans cette question : la particule est-elle une onde ou un corpuscule? Réponse : les deux et donc ET et non OU !

Autre point qu'il a bien expliqué : la notion de cohérence en mathématique est limitée au seul évitement de la contradiction. C'est vrai, elle se moque du réel. Alors que la notion de cohérence en physique est à la fois, l'intensité du faisceau d'indices et son taux de convergence,  le tout donné par la confrontation théorie/expériences et ce dans la rigueur de la dualité de localité. On ne joue pas dans la même cour. 

La dualité physique de base, est dans la définition du zéro ou du "rien" : le zéro absolu mathématique / le zéro dual physique.  La grande erreur de l'école de Copenhague,  tient dans cette confusion, cet amalgame ! 
Ensuite il y a ce fameux triangle d'Einstein : Physique ; esprit ;  mathématique.  Je défends Einstein tout au long de mes écrits, mais pas dans ce cas précis. D'ailleurs Didier GUIGNARD l'a dit lui-même : "tout est physique, nous sommes tous les fils de l'univers".  Je démontre que ce triangle est en fait une arborescence : Physique (donc univers) → esprit → mathématique. La mathématique est une branche de la physique. Les mathématiques n'expliquent absolument rien en physique, elles ne font que la décrire. Cette confusion est typiquement occidentale. Elle passe souvent inaperçue car sur la seule base de la description, on peut faire des prédictions. Il y a là un côté pervers, une confusion classique entre cause et effet.

On dit que la prédiction est le Graal de la physique. Mais en réalité le but ultime est de comprendre bien plus que de décrire. En fait, avec les deux, les prédictions ne s'accompagnent pas de révélation d'énigmes nouvelles, car au contraire, elle en résout. Là aussi, on ne fait jamais de bilan (voir la liste des 53 énigmes fondamentales).     

Apparemment vous avez lu l'encours de rédaction de mon second livre. Si c'est le cas, vous avez vu quelle place occupe pour moi,  la dualité universelle et notamment, celle portant sur la localité. Sur ces seules bases, je démontre que la mathématique est non seulement incapable de comprendre l'univers mais en plus, qu'elle est source de confusions multiples. La seule (et belle) vertu de la mathématique est de décrire (correctement) ce que le physicien est arrivé à comprendre.  La mathématique ferme (rigoureusement)  la marche de la physique et ne sait pas l'ouvrir. Il est même très dangereux qu'elle le fasse. Elle invente des êtres mathématiques, puis leurs auteurs ont tendance à les confondre avec des objets physiques. 

Ainsi la question : qui a commencé, la physique  OU la mathématique, n'est pas pertinente car les deux sont indissociables.  La mathématique est une branche de la physique et notamment, les lois statistiques. Le zéro dual physique se conjugue dans ces conditions. La seule loi primordiale n'est pas une hypothèse. Elle est la suivante :

1/ Le zéro ou "rien" physique ne peut pas être statique (sous peine d'infini, de constantes prédéfinies et de non évolution). 
2/ La dispersion de Heisenberg dans le cadre dual,  ne peut exprimer que des zéros physiques, sous la forme d'oscillateurs duaux stochastiques.
3/ L'existence la physique est basée sur la dispersion de Heisenberg dans le cadre dual (deux impulsions contraires).  
4/ il existe un attracteur fondamental, la synchronisation,  lié aux statistiques et à l'entropie. Le tout est dérivé du principe de l'action nulle duale.

Ce dernier principe (ADN = Action Nulle Duale) est la généralisation non locale du principe de moindre action.  Espérer la rigueur dans la seule localité (hors de la dualité de localité) est un leurre dans lequel sont tombés les maîtres de l'école de Copenhague.

Toutes les lois (1, 2, 3, 4) appellent des notions de statistiques que les maths décrivent très bien. MAIS je montre qu'elles découlent de lois physiques. Quand Didier GUIGNARD dit que l'univers porte en lui du hard + soft, il a raison puisque  tout est dual ! Mais ce soft n'est pas d'essence mystique. Il est la conséquence (fouillée et complexifiée) des points (1, 2, 3, 4) découlant de la première loi physique : la  dualité que l'on peut qualifier de : "symétrie dans le plus simple appareil".  

PS : je rajoute ici une réflexion sur le modèle mathématique de Riemann. Le champ spéculatif des mathématiques est tellement vaste, qu'il a pu construire une géométrie munie d'une courbure intrinsèque. La motivation est grande puisque Einstein nous a dit (avec raison) que l'on peut lier la notion de courbure à celle de densité d'énergie. Mais encore une fois la « déraisonnable puissance des mathématiques » ne fait que confondre les effets et les causes. Premièrement la géométrie n'est qu'une conséquence de la matérialité de l'univers. Il possède une trame (bosons-2-tachyons) qui, pour des raisons de symétrie perturbée, se déforment, se courbent ! Donc en résumé ; Sur les effets d'Einstein (pas les causes mais lui en était conscient), Riemann, plutôt que de chercher les causes, rajoute une couche de spéculation. Il ne faut donc pas s'étonner que des « physiciens » pensent que l'univers est fait d'équations abstraites. Et quand maintenant, on mesure une accélération (localement) alors le réflexe est de rajouter une constante dans l'équation..... On marche sur la tête ! Puis récemment, on constate que l'univers n'a pas de courbure intrinsèque ! Comment ?? Alors que fait-on ? On pouvait juste convenir que la spéculation mathématique est fausse et que le monde est bien euclidien (géométrie classique). Et bien non, on préfère rajouter deux autres étages à la fusée spéculative, en disant : « les équilibres de l'univers sont magiques car la fin de l'expansion se situe pile à l'infini...». Outre l'aspect mystique (jamais bien loin), on nous ressort cette notion d'infini qui n'a rien à voir avec la physique. On est en plein dans les boucles étranges de Gödel ! Et tant qu'à faire, on en rajoute tous les jours ! C'est gratuit et facile ! La spéculation est le mal du siècle et ce, dans tous les domaines.

Sommaire



13. Saturation du BEC fossile et annihilation

Le flux continu de synchronisation amène forcément la saturation. Elle commence forcément par une première couche. Les masses et charges des tachyons voisins de la première couche, se superposent. La conséquence est l'alourdissement des oscillateurs (donc baisse de la fréquence). Mais il y a pire ! Si les masses s'additionnent d'une manière scalaire, les charges + et –, voisines, s'annulent algébriquement par superposition. Donc non seulement les oscillateurs perdent leur fréquence mais en plus, ils perdent leur lien radial intrinsèque. Les bosons-2-tachyons, se déchirent ! C'est un changement radical de localité !

Que font les tachyons séparés, de la première couche ? Pour bien comprendre, il faut revenir au chapitre 11. Il est dit que la masse du tachyon est fonction de l'inverse de son amplitude spatiale. Cela est confirmé par le fait que [M L] est une constante. C'est une autre facette de la fameuse dualité onde/corpuscule. Ici le corpuscule est le point zéro commun et l'amplitude de l'onde, est le rayon du BEC. La connexion à tous les autres tachyons, s'établit lors de l'état corpuscule. La mesure locale est une sorte de connexion d'où la fameuse réduction du paquet d'onde. Tout ce qui apparaît magique dans la théorie quantique, n'est que le reflet du comportement des bosons-2-tachyons.

Ainsi les tachyons de la première couche, perdent leur grande amplitude, relative au [L] du BEC. Ce qui les sépare de toutes les autres couches, est limité à l'intervalle élémentaire. Cet intervalle est  ξ3 fois plus petit que le rayon du BEC. En somme, la séparation de la couche suivante, revient à celle de toutes les autres couches. Ainsi le [M] est multiplié par le même ratio, ξ3 ! Les tachyons (+/–) confinés, sont devenus des paires électron-positrons séparées. Plutôt que d'osciller sur le très grand RBEC = 1021 m, l'ex-tachyon (électron-positron), oscille maintenant sur la longueur de Compton : ƛe = 10–13 m. Tout est oscillateur !

Que font les paires électron-positrons séparées ? Mais sont-elles vraiment séparées ? A cet instant précis, beaucoup d'événements se précisent. Il y a d'abord l'annihilation, évoquée au chapitre 7. Sa cause est le ralentissement dû à la transition des tachyons de la première couche. Il met en péril la séparation. Une grande partie des paires électron-positrons, est annihilée. Le taux d'annihilation est typiquement arbitraire. Il vaut : α (alpha) = 137,035999.... qui précise l'hécatombe ! Seul un sur 137, est conservé. Mais attention cette annihilation primordiale est strictement symétrique, contrairement à ce que laisse entendre le modèle standard. Comment peut-il en être autrement ? L'existence même des particules, dépend de leur dualité symétrique. Mais les paires séparées, le sont-elles vraiment ? Et bien non car se serait trahir le fameux « rien » à partir duquel, tout s'est construit.

Quel est le nouveau lien entre les paires radialement séparées ? Avant d'être séparées, elles étaient des tachyons liées radialement par leur charge respective élémentaire. Mais maintenant que les paires se trouvent réparties sur l'aire de la première couche, leur seul lien est collectif et tangentiel. Chaque particule est liée – via toutes les autres – à son alter ego, situé à l'opposé (demi circonférence). Ainsi, la charge élémentaire e, admet 2 composantes : a) propre à [ML] avec un signe + ou – ; b) la seconde composante – purement attractive – résulte de la division par le nombre de paires présentes sur la demi circonférence du BEC. Le lien [2] nous dit que ce nombre (1D) est ξ4 = 1044. Cette composante, purement attractive, est la gravitation. Cela veut dire, qu'avant annihilation, la surface (2D) comportait ξ8 = 1089 paires dont la plupart ont été annihilées. Cela veut dire que ξ8 = 1089 photons ont été émis sur la surface du BEC. C'est justement en accord avec les estimations !

Sommaire


14. Gravitation et matière noire, une cause commune

Le chapitre précédent donne la cause de la gravitation. Elle peut s'interpréter comme une transition entre des liens radiaux individuelles vers un lien collectif avec gradient angulaire. Sa dualité est directe : chaque intervalle élémentaire et chaque particule, porte un faible gradient de la charge électrique qui devient donc la charge gravitationnelle. Encore une fois, ceux qui s'intéressent aux causes (ils ne sont si pas nombreux) peuvent tomber dans le piège du monisme. Certains disent que c'est l'espace élémentaire qui porte le lien gravitationnel et d'autres disent que ce sont les particules. Non ce sont les deux ! Mais en plus, il existe une autre dualité : a) la composante du faible gradient de charge électrique, toujours attractive (gravitation) ; b) la charge électrique de chaque particule élémentaire (électron ou positron) selon : e² = f(me ƛe). Cette dernière comporte un signe (+ ou –) qui rend attractif ou répulsif. Ainsi, la loi du «   rien » est conservée puisque la gravitation, toujours attractive, est sensée permettre à terme, de réunir les opposés symétriques dans le « rien » originel ! On réalise ainsi, la naïveté d'une expansion infinie qui conserverait infiniment les énergies. Voir relation [2]. Cette relation permet de faire une prédiction de la valeur G à : 6,67242081356496 × 10–11 m3 / kg / s². Cela est compatible avec la dernière mesure faite en 2010 par Faller soit : 6,67234(14) × 10–11 m3 / kg / s². La valeur entre paranthèses(14) indique l'incertitude sur les 2 derniers chiffres (34). Ainsi notre prédiction est largement comprise dans la fourchette de sa mesure.   

La matière noire découle directement du gradient de charge sur la demi circonférence du BEC. Elle est inséparable de la gravitation ! On a vu que l'annihilation n'est complète que si la rencontre concerne 2 particules opposées (180°). Il est ici utile de revoir l'expérience de pensée du chapitre 4. L'angle entre les opposés est de 180° ou π. Donc π donne une annihilation complète (binaire), si rencontre il y a. Dans le cas de πc'est le cas locale – les particules élémentaires passent de 1 à 0 ! La brique élémentaire disparaît et devient photon sans masse. Mais que se passe-t-il si l'angle est plus petit que π ? Ce n'est pas possible localement. Mais à grande échelle, c'est possible lors d'une collision de galaxies. Les belligérantes sont de sources différentes. Elles forment un angle θ relatif non nul : θ < π.

Ainsi l'annihilation se fait proportionnellement à cet angle. Elle n'est pas binaire (0 ou 1) comme localement mais analogique (toutes les valeurs comprises entre 0 vers 1). Cela va dégénérer les briques élémentaires en « gravats » informes. Ce seront des débris d'électron-positrons. La quantification est brisée. Ces « gravats » sont totalement stériles pour construire les atomes bien visibles, de la matière ordinaire. C'est la matière noire !  Elle ne représente plus qu'un large spectre d'ondes éparses, comme des parasites ou bruits de fond. Or l'expérience DAMA détecte une variation périodique des bruits de fond. Comme c'est bizarre.  On sait que les collisions de galaxies sont légions dans le passé. On observe couramment des nuages de matière noire à chaque collision ! Dans les chapitres à suivre nous allons parler, entre autres, de la mitose fractale qui, par définition, favorise les collisions. Or ces dernières sont bien observées à grande fréquence, dans le passé. Découvrir la cause de la gravitation, lève le voile sur la matière noire.

Mais que deviennent ces gravats informes au fil de l'expansion ? On verra que l'expansion se termine par une coquille 2D, dont l 'épaisseur est celle d'un BEC. Donc si le volume global augmente, celui de la bulle-univers, diminue. Ainsi la densité de la matière augmente, ce qui tend à réactiver les collisions. Les gravats de matière noire subissent ainsi plusieurs séries de collisions. Elles finissent par les annihiler complètement, au même tire que les collisions frontales.

Analogie Brique-Gravats

Attention ! cela n'est vrai que si la paire est de création non locale (séparation par délocalisation originelle)  

........

La représentation des paires « abimées » du dessin est simplifiée. A l'échelle quantique, on doit considérer l'électron comme une dualité onde/partticule. L'onde possède 2 critères : a) l'amplitude (comme le niveau de tension électrique) ; b) la longueur d'onde (inversement proportionnelle à la fréquence). Ainsi l'aspect « gravats » de l'électron, possède une amplitude et une fréquence plus faibles que l'électron élémentaire ou entier. Ce dernier, en parfaite harmonie avec le tissu de tachyons formant l'espace-temps, peut se condenser en proton et former la matière visible (VM). En revanche, les « gravats », de tailles diverses et variées, forment un spectre d'ondes parasites. Pire, ils perdent leur dualité onde-particule. En effet, cette aptitude est conditionnée par une réduction « particule » ajustée à la taille du tachyon. Cet ajustement, brisé pour les paires non entières, est impossible, c'est la matière noire (DM). Nous verrrons plus loin pourquoi il existe un flux de DM émanant du centre galactique. Sa détection devrait être sous la forme d'un bruit de fond d'intensité variable, compte tenu de la rotation de la Terre autour du Soleil. Or nous verrrons que ce flux variable (saisonnier) est bien mesuré dans une expérience appelée DAMA.

Sommaire

15. Mitose fractale et collisions précoces

Rappelons la cause de la « séparation » ou plutôt de la transition de localité. La saturation est provoquée par la superposition des tachyons voisins. Le tableau 10-1, montre que leur épaisseur est ξ fois plus faible que le rayon « onde » de l'électron ou de l'intervalle radial. Par définition, la surface élémentaire tangentielle était alors ξ2 fois trop faible pour être égale à celle radiale. Cela veut dire qu'elle concentrait ξ2 fois trop de particules élémentaires. Pourquoi trop ? Un BEC équilibré doit être de densité isotrope (égale dans toutes les directions). Alors que fait un BEC non équilibré ? Il ne peut que se diviser jusqu'à ce qu'il soit équilibré. C'est la mitose ! Son ratio est donc naturellement ξ2 = 1022 . Ce nombre est à la fois le nombre estimé d'étoiles dans l'univers et également le ratio précis entre la masse de Planck et la masse de l'électron [2].

Un petit résumé : La première couche du BEC fossile, possède une forte densité de paires (+/–) qui s'attirent. Mais intervient une annihilation de taux : α ~ 137,0359 (ou α² en 2 D) qui donne la  première réduction de densité. C'est un agrandissement d'intervalle. Puis l'anisotropie des intervalles, déclenche la mitose. Celle-ci se fait donc naturellement en étapes fractales, chacune du même ratio, α². Des considérations justifiées plus tard, contraignent une mitose fractale en 5 étapes (α5 en 1D et donc α10 en 2D). A ces 5 étapes de mitose, on rajoute l'annihilation du même taux α2, soit, α2 × α10 = α12. Ce taux – issu du hasard – est statistiquement différent du taux attendu à ξ2 pour la mitose. L'accord entre les deux se fait au prix d'un désaccord égal à 1835,26 [3]. Comme par hasard, ce nombre est proche de la masse du proton (1836,15) mesurée en unité masse électron. Est-ce possible que des paires ne s'annihilent pas entre voisines ? Oui car toutes les particules sont séparées de leur alter ego. Donc ces créations non locales sont – entre voisines – des pseudos bosons. Cela est très différent d'une création locale (en laboratoire).

La mitose fractale consiste à démultiplier chaque étape. Le centre de chaque étape de mitose, émet dans toutes les directions, les éléments de l'étape suivante. En effet la mitose consiste en un mouvement de translation-division à vitesse c, à partir du centre d'une étape donnée. Cela veut dire que les mouvements sont désordonnés. Une partie est plutôt dirigée vers l'extérieur (vers l'expansion) et une autre, plutôt vers l'intérieur. Au final des 5 étapes, toutes les directions sont concernées pour les BEC-fils. Une partie a bénéficié de 5 fois de la vitesse c, toujours orientée dans la direction externe. A l'autre extrémité, une autre partie des BEC-fils, est éjectée vers le centre à vitesse c(centre) à partir d'une vitesse c(extérieur). Cette partie a donc une vitesse résultante, nulle. Il y a donc un spectre continu de vitesses d'expansion, qui s'étend de 0 à 5 c. L'expansion de l'univers se fait donc en couches de vitesses allant initialement, de 0 à 5 c. Cela génère des collisions, surtout au début de l'expansion. C'est exactement ce que l'on observe.

Les collisions du début de l'univers sont observées et elles sont fréquentes. De plus, elle sont toujours accompagnées de nuage de matière noire. C'est bien ce qui est attendu par ce modèle. Après les 5 étapes de mitose, le nombre de BEC-fils est de ξ2. Chacun emmène une partie de la matière, en son sein. Chaque BEC est une matrice d'étoile. On verra comment une composante constante de la gravitation, accélère l'accrétion de la matière en son centre, pour former son étoile hôte. Je rappelle que le contenu de ce livre est toujours confirmé par la mesure. C'est donc au cours de la mitose que la couche 2D se conforme en 3D. Ainsi, les paires d'électron-positrons, sous forme de « points », deviennent des couches sphériques concentriques, dans le proton. Chacune de ces couches est une superposition des charges qui s'annulent parfaitement. Si elles ne s'annulaient pas, la force serait alors infinie.

Mais où se trouve notre galaxie dans cette bulle expansive en couches de vitesses ? Pourquoi ne voit-on pas un centre et une direction d'expansion ? Sans anticiper sur la suite, on peut dire que ce mode d'expansion, ne permet pas de voir facilement, une anisotropie d'expansion. Que l'on regarde vers l'extérieur, tangentiellement ou vers l'intérieur, on voit le même taux d'éloignement des autres galaxies. L'univers paraît isotrope ! Les vulgarisateurs du modèle standard parlent d'un gâteau aux raisins, en cours de gonflage sous l'action de la cuisson. C'est vrai que tous les raisins s'éloignent les uns des autres. Cependant ils sont gênés car ce gâteau a un centre ! Ils sont aussi gênés car ils n'évoquent qu'un seul état d'univers. Incorrigible monisme ! Non l'univers est dual. Globalement, il est infini et n'a pas de centre. Mais la bulle en expansion, qu'il a créée, possède elle, un centre. Mais alors on devrait le voir ! Mais oui, regardez en direction de l'éridan. Il y a un grand espace unique, froid et vide, d'un milliard d'années-lumière. On l'estime être à environ 7 milliards d'années-lumière de nous. Ah, j'oubliais ! On détecte que ses bords sont en cours d'accélération ! Nous verrons en détail toutes ce données. Alors que dis-t-on dans les milieux officiels ? On est très embêtés car le modèle de Riemann n'a pas de centre ! Alors on a trouvé la solution : depuis une dizaine d'années on a mis cette observation ... sous le tapis ! Elle fait partie des grandes énigmes.

Quand certains ont essayés de mettre en avant deux grandes nouvelles observations : a) la courbure de l'univers s'avère être nulle ; b) le trou unique de l'éridan apparaît être le centre, on leurs a rétorqué sèchement, l'argument suivant : « nous n'avons pas de place privilégiée dans l'univers et l'isotropie observationnelle prouve qu'il n'y pas de centre ». Bien sûr, nous sommes d'accord avec le début de la phrase, notre place n'est pas privilégiée. Cependant nous montrons que l'isotropie est également justifiée dans une géométrie euclidienne avec expansion en couches de vitesses. Nous verrons plus tard, les preuves observationnelles et théoriques. Notre position est à 11 % du rayon maximal de la bulle d'univers actuelle. Cette dernière progresse à un peu moins de 5 c et nous progressons donc à environ 0,5 c. En première approche, la durée de 13,8 milliards d'années-lumière, nous sépare logiquement des 7 milliards d'années-lumière observés, du trou de l'éridan. Mais cette seule piste ne nous suffit pas ! Nous verrons qu'ils y en a d'autres qui concourent toutes, au même résultat.

Sommaire

16. Masse de Planck, proton et naissance du temps

Il est clair que le proton (et aussi le neutron sous certaines conditions), est la seule particule composite stable. Alors si l'électron est justifié par le tachyon, on doit se demander quelle est la cause de l'existence du proton ? Et bien tout simplement le proton fossile était potentiellement ξ2 fois plus massique qu'aujourd'hui. Il avait le même ratio que : masse Planck / masse électron ! Les paires serrées (+/–) ont constitué le proton au cours de la mitose. Mais ces paires ne pouvaient être qu'entières ! Ainsi le nombre issu du hasard (1835,26) a du forcément s'arrondir en nombre entier. On démontre plus loin que ce nombre est 1841. Comment ? Il forme 8 sous groupes unités, réunis en 4 groupes (460) de paires neutres + 1 positron célibataire et confiné. Oui le proton possède la charge exacte du positron. C'est le premier objet physique composite de l'univers. Avec son cousin le neutron, et l'électron, ils forment toute la matière visible de l'univers. Nous sommes fait que de protons et donc de paires électron-positrons. L'anti matière est en nous. Celle qu'on fabrique localement ne représente donc rien de fondamental. Le réductionnisme est donc très réducteur !

Et le temps d'où vient-il ? Avant séparation, il existait un temps alternatif et confiné (non exprimé) dans chaque oscillateur boson-2-tachyons. Ce temps était propre à [M L] du tachyon. C'est la période constante du BEC (voir tableau 10-1) et également, celle de l'électron : te = 10–21 s. Sans faire de mathématique, on sait que le temps varie en fonction de la racine carrée de la masse d'un oscillateur. Or, le lien gravitationnel réunit toutes les paires sur la première couche. Cela revient à créer un oscillateur géant, comprenant ξ8 paires. De la racine carrée on obtient une période ξ4 fois plus grande que celle de l'électron (te = 10–21 s). Il faut cependant tenir compte de l'annihilation car l'oscillateur géant (cosmique) a été diminué du taux, α². Donc la demi période de l'univers devrait être égale à : te ξ4 / α² = 4×1019 s = 1242 milliards d'années. Cependant, cette durée sera revue à la baisse en intégrant les 5 étapes de mitose et son incidence moyenne sur l'expansion. En effet, ces 5 étapes sont liées à une moyenne de 2,5² fois la vitesse de la lumière. Ainsi le temps du cycle cosmique est donné à : 198 milliards d'années. On verra que cette période est confirmée par deux autres voies différentes. Nous n'en sommes aujourd'hui qu'au début : 13,8 milliards d'années.

Quelle est la force de rappel de l'oscillateur cosmique ? C'est la gravitation ! Elle ralentit l'expansion moyenne qui se trouve au-delà de l'horizon cosmologique. Un calcul simple permet de connaître la valeur de l'expansion maximale actuelle. Avec ce modèle, on connaît le nombre de photons, puisque c'est le nombre initial de paires sur la première couches du BEC fossile. IL y en avait ξ8 avant l'annihilation. On connaît en outre, la densité de photons dans l'univers (4,1 × 108 / m3) . Avec ces deux nombres, on trouve le rayon de l'univers, soit 61 milliards d'années-lumière. Cette valeur est plus grande que celle prévue dans le cadre du modèle mathématique : (45 milliards d'années-lumière). Elle est également plus grande que le rayon de Hubble : 13,8 milliards d'années-lumière. Le rayon maximal est grand car il correspond aux couches qui étaient initialement à vitesse 5 c. En réalité il est en cours de ralentissement. Actuellement il est : 61/ 7 ~ 8,8 fois plus grand que celui où se trouve notre galaxie hôte. Si notre vitesse moyenne locale, est d'environ : 0,5 c, alors la vitesse maximale est d'environ : 4,3 c < 5 c. Elle a donc bien ralenti depuis la mitose.

Mais cette annihilation sur le BEC fossile a dû émettre un front d'ondes sphérique de photons, dont la température initiale était celle des électrons ! On la connaît également, soit: 5,92 × 109 Kelvin. On a mesuré la température actuelle du fond diffus, soit : 2,725 Kelvin. Comme on sait que la température du front d'onde varie comme la racine carrée de la température, alors on vérifie bien notre vitesse moyenne d'expansion à 0,509 c. Mais attention, cette vitesse concerne l'ensemble {BEC + matière}. Cela veut dire que l'espace-temps et la matière ont la même vitesse d'expansion. Ce n'est pas le cas pour les vitesses relatives et locales qui présentent un différentiel avec les BEC-espace-temps. C'est ce différentiel qui crée le fameux effet relativiste.

Sommaire

17. L'espace-temps, un continuum de BECs

Plusieurs questions doivent se poser : a) comment s'organisent ces 1022 BEC-étoiles, nées de la mitose et en cours d'expansion ? ; b) pourquoi une vitesse c constante dans une expansion variable ? ; c) d'où viennent ces structures de l'univers ? ; d) c'est quoi ces filaments d'amas de galaxies ? On a vu que la mitose fractale crée une arborescence en 5 étapes. C'est un peu comme un arbre mais en mode accéléré. Le tronc principal donne des branches secondaires qui à leur tour, développent d'autres branches. Cependant ici, chaque « nouveau né » devient très rapidement aussi gros que sa « maman ». Cette image ressemble plus à la prolifération des cellules ou des bactéries. Cela veut dire que la belle sphère initiale se rempli de boursouflures en croissance rapide. Dans cet ensemble de BECs enchevêtrés en croissance, des grumeaux sont formés dès le départ. La vue actuelle, forcément brouillée, reflète un peu cette architecture première où les 5 étapes ont laissées quelques traces.  

Tab : 17-1

structures

bulle-univers

bulles vides

amas

galaxies

étoiles

initiales


1

annihilation 1D

annihilation 2D

mitose 1D

mitose 2D

α =137

α² ~ 18769

ξ = 1,54 ×1011

ξ2 = 2,3×1022

observées

23 %

~ 30

~ 1700

~ 1011

~ 1022

Le tableau 17-1, montre que les structures sont créées au cours de la mitose. Ainsi, dès le départ, les galaxies ont des taux d'enchevêtrements serrés de BEC-étoiles. Les vides inter filaments de galaxies, sont les traces tangibles, de l'appauvrissement induite par l'annihilation primordiale. Les filaments sont à la fois les parties rescapées et le résultat de la concentration gravitationnelle.  Encore une fois, la solution est duale et donc pas seulement la dernière cause comme certains le croient. Le taux d'enchevêtrement des BECs inter galactiques, est faible. Ce différentiel de taux est lié au couplage {BEC-matière}. Il existe 2 critères de couplage : a) la densité de matière ; b) la qualité de la matière. Le second critère se subdivise en 2 parties : b-1) matière visible ; b-2) matière noire. Il est clair que la concentration d'étoiles dans une galaxie, augmente son taux et tend à la resserrer. Son équilibre se fait grâce à sa rotation. Dans les bulles vides, la rareté de la matière et la présence de matière noire, leurs confèrent un faible taux d'enchevêtrement. Ainsi cela résout d'un coup plusieurs grandes énigmes.

Quelles sont les énigmes résolues ? : a) pourquoi l'expansion est limitée aux vides inter galactiques ; b) comment se maintient la constance de la vitesse de la lumière dans le contexte d'étirement ? ; c) quelle est la nature des halos galactiques ? ; d) Pourquoi ces filaments de galaxies ? La réponse du point a vient du faible taux {BEC-matière}. Ce dernier revient au taux : τ = {BEC-BEC}, par définition. Il est remarquable de constater que le halo galactique observé est de la taille de l'enchevêtrement des BECs dont les centres sont étalés sur le rayon de la galaxie, soit 200 000 années-lumière. Le point b concerne la notion d'étirement. En fait, le déchevêtrement des BECs, n'induit aucun étirement. Donc l'intervalle élémentaire (ƛe) reste constant : c = ƛe / te. La vitesse de la lumière permet de traverser l'espace élémentaire dans la période du BEC (te). Le point c concerne la notion d'enchevêtrement des BEC-étoiles dont les centres sont étalés sur le rayon de la galaxies. Enfin la réponse du point d consiste juste à réaliser que ces filaments représentent la partie rescapée de l'annihilation primordiale. Certes, ils sont aussi concentrés par la gravitation (deux causes). Ainsi le continuum d'espace-temps conserve toutes ses constantes malgré l'expansion, voire son accélération !

Et le mystère des émissions au centre des galaxies ? Le cœur très serré des galaxies provoque en son cente un trou noir. Cela veut dire que des millions de BECs se retrouvent en situation de saturation (partielle). Il vient que des tachyons sont séparés et transformés en paires électron-positrons, comme sur le BEC-fossile. Mais dans ce cas, les émissions de particules, ont une vitesse relative à la hauteur de c avec les BECs statiques. Les trajectoires des particules créées sont telles qu'elles provoquent des collisions assez éloignées du centre ! Il y a donc une certaine production de matière noire au sein des galaxies. On observe bien les émissions de paires électron-positrons. Ensuite, après collision, la matière noire produite, possède un faible couplage au BECs. Cela l'amène à migrer sous l'action de la rotation.

La matière noire s'entasse aux limites du halo. Pourquoi ? Parce qu'à partir de cette limite, le couplage devient nettement plus faible. Cela veut dire que sa vitesse augmente brusquement, tout comme les autos après le péage d'une autoroute. Donc il y a un effet de cisaillement de densité... et c'est exactement ce qui est observé. Mais il faut aborder deux grandes énigmes : a) comment un trou noir peut-il émettre des particules alors qu'il est sensé tout emprisonner ? ; b) comment des particules éjectées à célérité c, n'ont pas une énergie infinie ? La première question montre que ce trou noir est spécial. Il contient un point zéro semi saturé ! L'énergie sortante est suffisante pour vaincre l'attraction du trou noir. La réponse (b) est déjà abordée dans le tableau 8-1 lors de la discussion sur les limites. Il faut revoir le coefficient relativiste, sensé atteindre l'infini dans son expression mathématique non limitée ! La limite physique est donnée en amont du tableau 10-1 avec le coefficient universelle, ξ = 1,54 × 1011. Or les mesures sont claires : les plus grandes énergies des particules, appelées rayons cosmiques, équivalent à celle un atome d'hélium, multipliée par ξ !  Ceci est la troisième mesure concrète de ξ.  Il y en a d'autres.

Sommaire

18. Mitose et π-ADN universel

La signification physique du « rien » est loin de la simple abstraction du zéro mathématique. Ce « rien » est matérialisé par l'oscillateur boson-2-tachyons. On a vu que son action duale était nulle dans son opposition à angle π. Alors il vient naturellement cette appellation : π-ADN. Elle dit clairement que l'Action Duale est Nulle pour un angle θ = π. Dans le cadre des paires électron-positrons, elle détermine le taux d'annihilation en fonction de l'angle : θ = 0 à π. C'est pour cela que les collisions de galaxies créent des gravats de briques élémentaires plutôt que de les annuler carrément. Cela est impossible localement, alors on n'en parle pas. Ces gravats (matière noire) sont majoritaires dans l'univers. Il y a plus de gravats que de briques élémentaires entières. Le chantier univers n'est pas aussi net qu'il en a l'air.  Une autre façon d'écrire π-ADN est : eiπ+1= 0. Cela vient de la convention en nombre complexe, où le premier terme est égal à : –1. Rassurez-vous on saura se passer de cette forme mathématique !

Par ailleurs, chaque BEC-fils est la matrice de son étoile-hôte. Il existe le taux de couplage abordé au chapitre 17. Il est une sorte de perturbation entre matière et bosons-2-tachyons qui trament l'espace-temps. Donc les π-ADN tiennent forcément compte de ce couplage. Si on imagine un BEC sans matière, il est clair que les π-ADN seraient strictement respectés. L'action nulle duale donnerait alors une traduction géométrique, parfaitement symétrique. Mais le couplage généralisé modifie cette belle symétrie. Elle peut se minimiser (pas s'annuler) si toute la matière est bien au centre. La non symétrie coûte de l'énergie et le BEC cherche juste à l'annuler. Cela veut dire que le BEC, emplit d'un nuage de proton (hydrogène), possède 2 moyens pour le ramener au centre. Le premier est la gravitation telle qu'on la connait et le second est cette force constante du BEC.  C'est un peu comme si des milliards de petits ressorts (duaux) s'équilibraient mieux, en ramenant la matière, au centre.


C'est pourquoi la gravitation possède deux composantes (dualité toujours). La première est bien connue car elle varie comme la force électrique, en 1/r². La seconde est constante car elle est à l'échelle du BEC. Elle est très faible localement. Mais à la taille du BEC, elle surpasse largement la composante en 1/r² tant RBEC est grand ! C'est elle qui explique le temps court de la formation des étoiles. On s'étonne que les premières étoiles se soient formées en moins de 300 millions d'années, alors qu'on attendait près de 3 fois plus par la seule composante en 1/r². Cette accélération centripète ne se détecte que de loin et d'ailleurs, elle est mesurée sur la sonde Pioneer 11. Elle présente un accélération constante de l'ordre de : 10–10 m/s² en direction du centre. Notre calcul montre que l'accélération classique (G M /R²) donne : 1020 m/s² alors que celle du BEC, est en accord avec celle mesurée sur Pioneer 11. C'est la quatrième fois que l'on retrouve le fameux ratio : ξ =1,54×1011. Il y en aura d'autres.

Les biologistes s'interrogent sur la cause de la mitose qui est la clé du vivant. Si tout nous vient de l'univers, alors la mitose y occupe une place privilégiée. Il y a également la notion d'entropie de désordre. Dans cet univers en expansion, le désordre augmente partout, sauf...  dans le vivant. Le vivant a le même souci d'ordre que le BEC. La clé première de l'intelligence, est dans le souci permanent d'équilibrer son énergie intrinsèque. Ce besoin impérieux se résout par deux voies : a) réduire sa consommation interne ; b) chercher à en importer. Les plantes arrangent l'orientation de leurs feuilles pour recueillir au mieux, les photons du soleil. Bien sûr, la complexité a fait son œuvre, au fil du temps. La notion de mitose propre au vivant, relève d'un flux de synchronisation qui sature la première cellule. Elle n'a d'autre solution que de se diviser. Elle imite en cela l'univers lui-même. Il y a également l'explosion fractale des plantes avec leur arborescence complexe. Alors bien sûr on peut dire que l'explosion fractale sert à augmenter la surface pour mieux collecter les photons. Mais la mitose fractale de l'univers, a servi aussi à augmenter les surfaces élémentaires. Au stade de développement de l'humain, on ne peut que comparer les clés principales. Nous les avons forcément héritées de l'univers.

Mais réellement, l'univers a-t-il un ADN au sens du stockage d'informations ? Oui mais sous une forme extrêmement simple. Le sens de l'entropie (de désordre) est parallèle au sens de la complexité. Chaque cellule de notre corps est couplée avec le tissu de boson-2-tachyons. Ces derniers, sont tous reliés entre eux, par le centre commun. Même si tout cela n'est pas très ordonné, il existe un potentiel d'échange d'informations globales, dans notre BEC-hôte. En fait, par le jeu des enchevêtrements, cette globalité concerne toute la bulle univers. On montre par une autre voie, qu'il y a forcément une inter causalité globale (ou holiste). En effet, un événement local sera toujours transmis à la non localité (relative) de la bulle univers. On a dit cela à propos d'un battement d'ailes d'un papillon, à l'échelle de la Terre. Mais cela reste vrai dans la bulle univers. On a vu qu'il était naïf de parler de l'univers en terme moniste. Comme tout ce qu'il a créé, il est foncièrement dual. Il y a la bulle-univers (éphémère, limitée, ayant un centre) qui est contenue dans l'état d'univers stochastique (permanent, illimité, sans centre). Or la vie s'exprime de la même manière. Pour un sujet donné (limité et éphémère) on a une filiation (illimitée et permanente*). L'astérisque pour ramener modestement le terme « permanent » à l'échelle relative des contraintes terrestres. Il se trouve que cette dualité est déterminante pour l'adaptation d'une filiation à un environnement. En effet, la limite de vie, ouvre la voie à des modifications génétiques, statistiquement, à chaque nouveau sujet. Certaines d'entre elles, répondent aux changements de cet environnement. En revanche, les lois du hasard, font que certaines filiations, ne s'adaptent pas et disparaissent. Le BEC est entièrement régi par la loi des grands nombres. L'ADN de chaque bulle univers est caractérisé par ses constantes propres issues de la moyenne du lot synchronisé. Sa signature est le fameux nombre ξ. Elle dépend du hasard et peut-être aussi des restes de BECs, laissés par la génération précédente. On verra que notre bulle-univers, en donne une autre signature précise,  f(ξ) avec la masse du muon. Cela a un rapport avec l'entropie de l'information. Nous en reparlerons.

Sommaire

19. Le puits subquantique élémentaire, de ratio ξ

Le fameux ratio ξ est né de la saturation de la première couche. On a vu qu'il était largement mesuré. C'est lui qui a déclenché la mitose du BEC, car l'intervalle tangentiel était ξ fois trop faible par rapport à l'intervalle radial (anisotropie). C'est lui qui donne le nombre de galaxies et son carré donne le nombre de BEC-étoiles. Ce dernier est également le ratio entre la masse de Planck et celle de l'électron. Il est le témoin tangible du taux de saturation. Mais si l'intervalle des particules quantiques, a été augmenté par mitose, du ratio ξ, l'épaisseur du tachyon est restée en l'état. Cela veut dire qu'à l'intervalle élémentaire quantique ƛe, il correspond une « corde » tachyon d'épaisseur ; ƛo, ξ fois plus faible. Les deux niveaux sont couplés dans une belle harmonie. l'intervalle ƛe est une sorte de maille faite avec un fil d'épaisseur, ƛo. On rappelle que la régularité (l'isotropie) de cette maille, n'est rendue possible que par la célérité des tachyons, via le point zéro central. Quand un électron occupe cette maille, il est couplé, via le puits subquantique, à la corde tachyon.

A ce stade, il est conseillé de revoir le tableau 10-1.

Regardons les transferts d'énergie qui pourraient transiter par ce puits, entre le tachyon et l'intervalle élémentaire quantique. On doit savoir que l'énergie varie toujours en 1/r, y compris dans le puits subquantique. Exemple : l'énergie du tachyon (dans son référentiel) est ξ3 fois plus grande que celle de l'électron (E = me c²) car si m est ξ3 fois plus petite, le carré de la vitesse, co², est ξ6 fois plus grand. Donc la transition maximale, limitée en 1/r reste au ratio : ξ. C'est bien ce que nous mesurons concernant la limite haute (1020 eV), des rayons cosmiques. On a pour un noyau d'hydrogène : ξ m c² / e = 1,45×1020 eV. Mais un puits appelle la notion de jauge. Disons le nettement, aucune énergie gratuite ne peut sortir de ce puits. Chaque volume élémentaire de notre niveau quantique, comporte une dimension vers le niveau subquantique. Si une particule occupe un volume élémentaire, alors elle est couplée avec ce puits. Elle a des relations de jauge !

La première relation de jauge, est de l'ordre de l'information. Il s'agit de l'orientation du spin (état du spin). Selon le modèle standard, cette notion ne peut être une rotation comme on le croyait au moment de sa découverte. A son habitude, il a donc créé un être mathématique qui ne s'encombre plus des contraintes physiques (!). Le modèle oscar n'a pas renoncé à assumer les contraintes physiques et dit clairement que le spin est propre au tachyon. En première approche, nous dirons qu'un électron (ex-tachyon) est couplé avec le référentiel « un tachyon ». Alors qu'un photon (boson) est couplé avec un boson-2-tachyons. Le boson-2-tachyons confère deux fois, 1/2 demi spin à la particule photon (donc 1). Tandis que l'électron est couplé avec un demi spin. Alors quand on intrique deux particules (les mettre dans le même état de spin), on intrique aussi les tachyons sous-jacents. Il vient qu'on a beau séparer les 2 particules, elles restent associées dans leur état initial.

Vous avez dit ξ ? Oui, car la dernière expérience d'intrication entre 2 particules {A-B} – faite par une équipe chinoise a montré que la vitesse de l'information {A→B} est supérieur à c. Le facteur minimum est de 13800 × c. Comme dit au dernier paragraphe du chapitre 11, l'information d'un intervalle élémentaire à l'autre, passe toujours par le centre commun. Cela veut dire que pour toutes distances entre les deux particules, le temps de l'échange est constant : te . La vitesse est ξ3 fois plus grande. Voir le titre : « Bounding the speed of `spooky action at a distance » soit en français : "délimitation de la vitesse de l'action fantôme à distance". Cette expérience limite la vitesse  a 13800 fois la vitesse de la lumière.

Il n'y a pas de lien instantané et donc pas de vitesse infinie. La confusion courante porte sur trois éléments essentiels :

a) on dit « variables cachées » sans préciser « locales ou non locales »,

b) on dit « non localité » sans préciser de limite,

c) la vitesse des tachyons, violerait la vitesse de la lumière.

Le premier élément vient de monsieur BELL qui a montré qu'il n'y a pas de variables cachées locales. Bien noter, locales. Or les tachyons sont non locaux. De plus ils ne sont pas si cachés que cela.  Le second élément s'appuie sur l'incomplétude de l'équation de Schrödinger. Comme la relation de Newton (et d'autres), elle ne dit rien sur la causalité temporelle. Le troisième élément est spécieux car on sait très bien que cette limite ne concerne que les échanges tangibles d'information ou d'énergie. On a montré que l'information d'état n'était pas exploitable au-delà de la vitesse de la lumière. On a vu qu'elle est était plus grande (à posteriori) mais on ne pourrait pas l'exploiter. De plus, on montre que c'est la vitesse des tachyons qui garantit celle de la lumière. Voyons dans les chapitres suivants, les autres manifestations de la signature du puits subquantique.


Sommaire

20. Le puits subquantique et le boson W

Quand une transition intervient dans une particule quantique composite, elle génère un choc qui se manifeste par un boson vecteur. On a déjà vu l'analogie avec le caillou jeté dans l'eau. Il induit un « trou » éphémère avant de s'étaler par des rides (ondes) concentriques. Une autre analogie est bien connue des électriciens, le courant d'extra-rupture. En gros, quand on interrompt un circuit inductif, il se produit un pic de tension qui traduit le phénomène de variation. Le circuit inductif (bobine) se comporte comme une roue inertielle même faible. Si on veut la bloquer d'un coup, il se produit un choc. C'est un problème de variation trop rapide. Le boson vecteur (W) se comporte exactement comme cela. Il est le pic (fort), transmettant la force faible. Il a une masse éphémère (comme un pic) qui matérialise ponctuellement la transition. Prenons comme exemple, le muon. Le modèle standard le considère comme non composite et ignore totalement d'où il vient et comment et pourquoi ? On sait juste que sa masse est ~207 fois celle de l'électron et que sa charge est juste celle de l'électron. Le modèle oscar dit qu'il est composé en deux parties : a) une partie neutre de 103 paires électron-positrons, soit 206 unités ; b) un électron célibataire et confiné. Le muon, très instable se désintègre en un électron + 1 neutrino (muonique) + un neutrino (électronique). Mais cette transition mobilise le fameux boson de jauge, W, dans un temps très court. Le modèle standard a bien mesuré tout cela mais il est encore une fois devant une énigme : où est passé la masse du muon sachant que la masse du neutrino est réputée nulle ?

Alors de quelle transition s'agit-il ? Il s'agit de transférer la masse neutre (206 en unité électron) dans le puits subquantique. Pourquoi ? Parce que c'est de là que le muon est sorti ! On verra plus tard comment, en apportant l'énergie nécessaire, le tissu subquantique résonne précisément à cette masse du muon. On a vu que la brutalité de ce transfert, fait apparaître le boson W. Il s'agit de rendre à un faisceau de tachyons, cette coquille sphérique faite d'ondes d'électron-positrons. Il s'agit de lui redonner le statut π-ADN qu'il avait perdu lors de son extraction d'un faisceau de boson-2-tachyons. Mais cela ne peut se faire qu'en deux temps. Ce statut est d'abord de type transverse, ce sont les rides sur l'eau. A terme, l'eau doit totalement oublier l'incident. Mais en attendant il faut diviser la sphère neutre du muon, en 2 sphères qui s'annulent. Ce déplacement induit localement une déformation du faisceau de boson-2-tachyons. Cette bosse, va ensuite se répartir à tout l'univers, mais à la vitesse (lente) de la lumière. Cette onde est le neutrino. On retrouve une forme intermédiaire (transactionnelle) du π-ADN originel. La masse globale du neutrino est nulle mais réelle dans chacun de ses deux confinements.

Recourir à la règle du π-ADN originel, est certes une contrainte mais qui s'avère très féconde. Elle lève les énigmes par brassées, sans poser de nouvelles hypothèses. C'est la méthode la plus sûre. On verra plus tard comment la genèse du muon, est la résonance relative à toutes les particules de l'univers. Son existence sera également justifiée par... f(ξ). Donc une certaine énergie permet d'extraire les paires électron-positrons, constituant le muon. Le muon s'organise en ondes sphériques où les charges contraires s'annulent. Au départ, elle sont fortement attirées par la force électrostatique, puis par le masquage des charges, elle forme un condensat neutre. L'énergie est minimale dans la superposition des ondes chargées. L'électron célibataire est prisonnier car toute velléité de sortir de son piège, tend à démasquer les charges et coûte de l'énergie ! Mais ce condensat est instable car les paires, créées localement ne peuvent que s'annihiler. Mais pourquoi une paire créée localement s'annihile-t-elle en photon alors que le muon se transforme en neutrino ? Pourquoi, dans les deux cas, les masses disparaissent ? La règle π-ADN est-elle universelle ? Oui c'est la règle dans le tissu d'espace-temps.

Regardons une certaine particule (tout aussi instable), formée d'une seule paire électron-positron, le positronium. Il s'agit de deux corps en orbite autour de leur centre masse. On voit de suite la dualité onde-corpuscule pointer son nez. Le muon est un condensat d'ondes sphériques alors que le positronium est sous forme corpusculaire. Comme l'analogie avec le circuit inductif, le condensat peut se voir comme une bobine inductive. Ces transitions provoquent un pic (boson W). Alors que le positronium, fait de deux corps, passe directement à l'état π-ADN sous forme de 2 photons. Dans les deux cas, la masse disparaît et la propagation est fixée à la vitesse de la lumière. Dans les deux cas, il s'agit de création locale. En revanche, la partie neutre du muon transite en deux entités neutres de type π-ADN transverse. Mais la transition d'énergie est réputée être en 1D (1/r 1/ξ). Cependant, elle est portée par les couches sphériques en 2D. Ramenée à la transition radiale (1D), le choc de transition (bosons W) est donc en 1/ξ. La masse de ce boson vecteur est très précisément liée à : ξ fois celle de l'électron. W = f(me ξ). Le très énigmatique neutrino emporte la masse neutre du muon.

Sommaire

21. L'énigme de la masse des neutrinos

Ainsi la masse apparente du neutrino muonique est nulle. Mais d'autres mesures génèrent une forte controverse liée à un phénomène d'oscillation, impliquant une masse. Mais leur propagation à la vitesse de la lumière, dit le contraire ! Le modèle standard est coincé ! Solution : on a vu que le neutrino, un peu comme le photon, se comporte comme un boson-2-tachyons transverse, où la masse s'annule. Mais comment s'annule-t-elle ? Nous allons utiliser encore une analogie, le gyroscope. Si vous prenez dans vos mains, un disque tournant à grande vitesse, il résistera à tout changement d'orientation. Son moment gyroscopique donne l'impression qu'une masse supplémentaire surgit quand on cherche à incliner l'axe de rotation. Or si vous mettez deux disques tournant en sens inverse, cet effet gyroscopique s'annule. C'est une facette tangible et macroscopique, du fameux π-ADN (ou boson-2-tachyons). C'est la règle d'or de cet univers..... parti de rien. Rappelons-nous le chapitre 7 qui indique que le moment 1D,  [M.L], comporte une partie vectorielle [L] qui permet l'annulation des 2 moments [M.L] en opposition. Il dit que la masse M est indissociable de son amplitude L. Ainsi : L+ + L = 0 et donc le produit : ML+ + ML = 0. Reprenons le cas du muon avec ses 103 paires neutres d'électron-positrons. La transition brusque du boson W, trahit la division en 2 parties opposées, de 103 unités qui s'annulent.

Le chapitre précédent nous dit que la masse globale du neutrino, est nulle. Cette idée n'est pas vraiment nouvelle car M. Majorana avait émis l'idée que le neutrino puisse être sa propre antiparticule. C'est un peu comme l'escargot qui est hermaphrodite (il a deux sexes opposés). Les neutrinos sont pleins de contradictions : a) ils devraient être de masse nulle pour se propager comme les photons à vitesse de la lumière ; b) on sait qu'un neutrino d'un certain genre, peut osciller en autre genre. Cette particularité le contraint d'avoir une masse. Alors masse ou pas masse ? Il faut se rappeler que tous les boson-2-tachyons d'un BEC, sont reliés par le centre et ce, en 10–21 s. Ainsi notre modèle indique que le neutrino est bien de type Majorana, car les deux masses miroir s'annulent selon la règle : π-ADN transverse. Par ailleurs, leur image miroir est reliée à tout le BEC, via le point zéro. On en conclut qu'elles peuvent se confondre avec d'autres « images miroir ». Exemple : il existe un cousin (lourd) du muon qui s'appelle de tauon. On sait distinguer la signature d'un neutrino muon d'un neutrino tauon. Or quand on mesure un flux connu d'un type, on trouve aussi des neutrinos de l'autre type. Toutes ces apparentes contradictions, disparaissent naturellement dans le modèle oscar.


Figure 21-1

C
e dessin montre clairement pourquoi le spin du neutrino est 1/2 alors que celui du photon est 1. les faisceaux de tachyons voisins (demi boson) sont de spin 1/2. Pour le photon on voit bien qu'ils sont rattachés à un boson-2-tachyons. Le système {2 photons} est lié au système {2 tachyons}. Comme on l'a vu, la dualité appliquée au gyroscope, annule son moment. C'est également le cas pour les charges contraires confondues.

Tableau 21-2 :

dualités

A

B

A+B

boson-2-tachyons

1

1

action = 0

charges (superposées)

+

charge = 0

moment gyroscopique

Gauche

Droite

moment = 0

neutrino

Gauche

Droite

masse = 0

photon

quantique

subquantique

masse = 0

La dualité est partout et le fameux π-ADN en est la règle d'or. L'image quantique

des bosons-2-tachyons, est omniprésente et parfaitement mesurable.

Figure 21-3

source : Alain Boudet

Une vue d'artiste qui montre l'hélicité gauche et droite des deux parties

d'un neutrino de type Majorana

Le tableau 21-1, montre une certaine similitude entre le neutrino et le moment gyroscopique. De fait les neutrinos on une certaine hélicité. Elle est gauche ou droite. On ne mesure jamais de neutrinos d'hélicité droite. Alors on dit couramment cette phrase : « le fait que les neutrinos soient toujours gauches explique le phénomène de violation de la parité dans l'interaction faible ». Or le mot « explique » est abusif. On devrait dire : « est cohérent avec ». Oui c'est cohérent mais ce qui explique est la notion d'image miroir du niveau subquantique. Le « disque » gyroscopique qui tourne à droite est celui des tachyons. Ce sens est évidemment arbitraire au départ. Mais ce qui en fait sa généralisation, est le fameux lien de tous les tachyons, passant par le zéro central du BEC. La question importante est : à quoi sert cette image miroir ? Il faut rappeler inlassablement que les tachyons dominent tout. Le passage éphémère en entité muon n'est qu'un excroissance provisoire d'un déséquilibre local du tissu de boson-2-tachyons. Cela veut dire que cette masse doit retourner à l'ensemble de la bulle-univers, via la vitesse finie, de la lumière. Pour ce faire, le mode « oscillation transverse » permet l'annulation des masses et donc d'attendre la vitesse de la lumière. Cette vitesse n'est pas une option ! Elle correspond à la limite de la tendance au ré-équilibrage non local.

Figure 21-4

source : Alain Boudet

Vue d'artiste d'un neutrino de Majorana-Oscar, dans lequel la vitesse de rotation

est maximale au niveau du rayon corpusculaire. Il est l'image transverse du π-ADN originel

avec cependant un développement en 2D, qui lui donne cette forme conique. Vu dans son référentiel

global, il apparaît neutre et sans masse. En revanche, dans chacun de ces référentiels confinés, il est chargé et massique.

Ces masses confinées peuvent alors osciller car la partie subquantique est potentiellement mélangée avec l'ensemble non local du BEC.

L'idée générique de la théorie des cordes, n'est pas éloignée de cet enroulement serré au point zéro. Cependant, la pauvreté de ses

prémisses physiques, l'ont fait ensuite, dériver vers de folles abstractions spéculatives.   

.


22. Comment bat le cœur de l'électron, ex-tachyon

L'électron est la reine des particules et pourtant on ne connaît pas son cœur. Les inventeurs de la théorie quantique, ont cherché en vain à le sonder. Des énigmes difficiles se sont présentées : a) on ne trouve pas de rayon classique (celui qui fait correspondre l'énergie électrique à l'énergie de masse) ; b) comment est répartie la charge électrique ? ; c) d'où vient sa masse, est-il en rotation ? Devant autant d'énigmes, on a décidé que charge et rayon seraient considérés comme ponctuels. Mais cela pose le problème des infinis et du moment cinétique (électron toupie). Alors on a renoncé à la physique en créant des êtres mathématiques. Expérimentalement, l'électron montre qu'il a une rotation intrinsèque mais elle ne peut correspondre à celle d'un disque dont le rayon serait sa longueur de Compton, sous peine d'aller plus vite que la lumière....

En revanche, le modèle oscar, part des contraintes physiques, liées au statut d'ex-tachyon de l'électron. Il était tachyon avec une trajectoire hélicoïdale sur le rayon du BEC. Puis il s'est séparé du reste du BEC via le seul intervalle radial (ƛe) entre 2 couches ! Dans son statut tachyon, la dualité onde-particule, s'exprimait (en 1D) entre le point zéro et le rayon du BEC. L'électron a hérité de la corde tachyon munie de son oscillation et de sa rotation hélicoïdale. Sur la première couche, ce sont des points qui représentaient les sections des tachyons. Mais il y a également des surfaces, relatives aux intervalles. L'électron oscille donc entre la section de la corde (tachyon) et sa surface de Compton. Il oscille sur cette amplitude en conservant sa composante hélicoïdale. Dans le BEC, la corde tachyon était contrainte de tourner un quart de tour chaque fois que la distance était multipliée par 2. Sans faire de math, cela correspond au logarithme base 2 du ratio entre le point zéro et le rayon du BEC (ξ2). log(ξ2;2) / 4 = 18,58 tours / cycle. Le temps du cycle étant te.

Que devient cette vitesse angulaire sur l'amplitude maximale de l'électron ? Elle fait comme la danseuse qui écarte les bras, sa vitesse de rotation, ralentit. On se souvient que le rayon de l'électron varie d'un facteur ξ. Ainsi la rotation diminue comme : 18,58 / ξ. Cela veut dire que la rotation est surtout active pour l'état ponctuel de l'électron. Monsieur Planck a fixé la constante ħ en fonction de l'électron élémentaire (ħ = me ƛe² / te). A première vue, La dimension [M L²/ T] est celle d'un disque qui tourne de surface L² ! Mais si ƛe est le rayon, alors : λe = 2 π ƛe, est la circonférence. Elle est donc 2 π fois plus grande et ça pose problème car la vitesse tangentielle, est plus grande que la vitesse de la lumière ! Ce n'est pas acceptable ! Alors comment faire correspondre la dimension de ħ = [M L² / T ] qui exige une surface qui tourne ?

En fait, la surface (ƛe²), est l'amplitude (ƛe) que multiplie le rayon (ƛe) balayé par l'onde. C'est un carré ! La rotation est maximale au centre et minimale dans l'expression « onde ». Ainsi, lors des collisions (entre corpuscules), on obtient une trajectoire qui trahit une rotation, alors que celle de l'état « onde » est négligeable. Mais cette échange de surface avec ralentissement se transforme en une onde sphérique (2D). Cette surface 2D englobe un volume 3D, tout comme le fait le cuir d'un ballon. Hors de l'opération mesure, la dualité onde-corpuscule oscille au rythme universel, te. Hors de l'opération mesure, la charge est oscillante et répartie. Lors de la mesure, elle apparaît comme étant ponctuelle.

Ce qui apparaît comme un disque tournant, de surface ƛe² est juste une oscillation ayant la forme d'un cône aplati. C'est plutôt la corde tachyon qui grandit comme un cône hélicoïdal. La « pointe » du cône est matérialisée par l'épaisseur du tachyon. La surface, de rayon ƛe est celle qui matérialise l'aire élémentaire quantique. La pointe, de rayon très petit, tourne très vite alors que la vitesse angulaire de la surface est quasi nulle. Ainsi : ħ= me ƛe² / te = me ƛe c possède deux paramètres. La vitesse moyenne d'oscillation dans la hauteur du cône, et le rayon élémentaire, ƛe. La moyenne est à la moitié du cône et le spin est donc 1/2 ħ. Lors d'un impact, c'est la rotation interne (corpusculaire) qui est mesurée. L'aspect 1D du tachyon, était dû à l'absence de degrés de liberté. La dualité onde-corpuscule fait varier sa surface 2D. Elle s'incurve ensuite en 3D.

Figure 22-1

source : Alain Boudet


Vues d'artiste. La première figure représente un électron, évoluant du centre vers son amplitude maximale. Elle est exactement l'image contractée de son état ex-tachyon. La partie haute est la longueur de Compton où la vitesse est minimale. Il oscille dans le cadre de la dualité onde/corpuscule. La vitesse est maximale au centre. La seconde figure laisse penser que les coquillages se construisent comme la progression hélicoïdale des tachyons. Ils sont et nous sommes, des ex-tachyons évoluant dans un tissu de boson-2-tachyons. On peut comparer le ralentissement de fabrication de la coquille avec la variation à la baisse de la vitesse angulaire. Le point zéro est celui d'un demi π-ADN mais de type transverse. La figure de gauche montre bien le règne du 1D torsadé. Le 3D dans lequel nous vivons est une illusion. L'analogie est le textile, où le 3D est obtenu à partir d'un fil, tout comme ces écrits (sur le papier) sont en 2D à partir d'un fil d'encre 1D.

Selon l'indétermination de Heisenberg, il est théoriquement impossible de décrire le détail en dessous du cycle te. Mais si par exemple, on considère que la pointe tourne à 18 tours / te, alors la vitesse angulaire est de : ~ 1022 π/s. Sur la surface élémentaire, elle tombe à 1022/ξ soit 1011 π/s. Cela lui confère une vitesse tangentielle de : 1011 ƛe < c / 100, ce qui lève l'énigme de la rotation de l'électron. L'électron est bien un ex-tachyon avec une compression de sa forme hélicoïdale. Il passe d'un monde 1D, à un monde 2D par son taux d'amplitude qui passe de ξ² à ξ. Il embrasse un 2D sphérique qui lui-même embrasse un 3D qui pourrait ressembler à un escargot. Mais de quoi est faite sa coquille ? D'électrons et rien d'autre ! Et nous de quoi sommes-nous faits ? Sommes-nous des enfants de l'univers ? Donnons-nous des signes de mitose ; d'arborescence fractale ; de nombres 5 et 2 ; du ratio universel ξ = 1011 ? La réponse est positive, y compris pour le nombre de nos neurones (1011).  Ce dernier point reste cependant une spéculation pour le vivant. Mais pour l'univers, nous avons vu qu'il ressort dans plus de 6 points précis. Et ce n'est pas fini !

Comparons les figures 21-4 et 22-1. On voit de suite que la première est l'image normale de la symétrie π-ADN originelle. Ainsi le neutrino est le principal témoin du modèle Oscar. Il est nettement énigmatique pour tous les autres modèles. Regardons maintenant la seconde figure. Que remarquons-nous ? Elle n'est pas symétrique ! Cela veut dire qu'elle est instable ! Oui mais quelle magnitude d'instabilité ? Bonjour dualité. Il y a la paire électron-positron : a) arrachée du tachyon sur le BEC originel. Son instabilité est à l'échelle de la durée de vie de l'univers ; b) créé localement en apportant l'énergie correspondante et sa durée de vie est très courte. Une autre particule est témoin du π-ADN originelle ; le photon. Voir la figure 21-1 et le chapitre suivant.

Sommaire

23. L'oscillation des neutrinos

On a vu que la moitié subquantique du neutrino de Majorana, était une onde non locale. Dans un cycle te, l'onde recouvre tout le BEC, hors perturbation. Statistiquement, elle risque d'interférer avec d'autres ondes de type neutrino. Déjà, en première analyse, on peut concevoir qu'un neutrino de la famille électron, puisse croiser une neutrino de la famille muon ou tauon. Il y en a trois en tout qui représentent les leptons. La mesure d'un flux de neutrinos s'effectue en photographiant les flashs des collisions entre les neutrinos et les atomes contenus dans des grandes cuves remplies d'eau pure. Par exemple, le soleil, sensé émettre un certain flux de neutrinos électroniques, n'en fournit qu'environ 50 % dans les détecteurs. En lieu et place du flux manquant, on détecte des neutrinos (muon ou tauon).

On dit alors qu'ils ont oscillé d'une « saveur » à l'autre. Mais pour cela, il faut avoir une masse. Or le neutrino est sensé ne pas en avoir pour galoper à vitesse c, tout comme les photons. On apprend également que les neutrinos manquants du soleil, ont oscillé avant de sortir de l'astre. On peut donc penser qu'une moitié des neutrinos électroniques a interféré avec les neutrino-ondes des deux autres familles. On considère généralement que ce type d'oscillation vient des états superposés d'une saveur à l'autre. L'eau, nous fournit une analogie avec ce que l'on appelle les vagues scélérates. Des petites vagues peuvent se superposer pour former de très grandes vagues. La théorie du soliton explique ce phénomène de superposition, dans tous les domaines de la physique. Il y a même une théorie du soliton de Pelegrine qui s'inspire de l'équation de Schrödinger. Ce soliton est caractérisé justement par une dualité de localité. La question brûlante de la masse des neutrinos, reste une énigme. Mais pour le modèle oscar, la masse est typiquement duale. Elle est globalement nulle comme le π-ADN originel. Mais lors de collisions, elle peut laisser apparaître une asymétrie entre ses deux moitiés.

Figure 23-1


Il faut rappeler que la notion de non localité, s'entend ici comme relative. Elle ne spécule pas sur l'instantanéité qui sous tend une vitesse d'information infinie. C'est juste la vitesse finie des oscillateur-tachyons. Les résonances du tissu subquantique n'apportent que la partie « soft » ou informative. C'est cela qui fait « osciller » les neutrinos d'une saveur à l'autre sous l'action d'une perturbation locale. C'est cette dualité : information + énergie, qui fait osciller les neutrninos.

La figure 23-1 montre les figures d'interférences créées au niveau subquantique. Le neutrino de Majorana est typiquement dual. Sa partie subquantique est étendue à tout le BEC. Elle est de nature informative. Les neutrinos : νe, νμ, ντ, sont tous de masse globale nulle. Les informations de leur conformité préexistent dans la matrice subquantique. Il suffit d'un choc local d'énergie adéquate, pour osciller d'une saveur à l'autre. Par exemple, si le neutrino qui progresse selon : A → B, est perturbé, il peut échanger selon les deux critères : a) l'énergie perturbative ; b) l'information subquantique, la mieux centrée sur l'énergie de perturbation. Autrement dit, il ne prend pas n'importe quelle valeur, mais seulement celles portées par l'information. La dualité est double : a) la dualité de Majorana ; b) la dualité information-énergie. On pourrait dire : « cerveau-muscle ».

Mais ce n'est pas si simple car la partie étendue et informative, porte également une masse dont la densité est incroyablement faible. Considérons la demi masse d'un muon (103 électrons) distribuée à tout le BEC. Sa densité, distribuée aux ξ9 intervalles du BEC, devient extrêmement négligeable. Cependant, des milliards d'autres neutrinos sont également présents. Dans ce cas, la réduction du paquet d'ondes ne ramènera que l'information de mise en forme de l'énergie de la perturbation locale. L'oscillation des neutrinos est compatible avec la dualité de localité (relative). Il faut noter que le modèle standard se rapprocherait de ce modèle, si il abandonnait – comme l'on fait beaucoup de physiciens – la notion d'infini en physique. Ainsi la dualité de localité déboucherait forcément sur les tachyons à vitesse finie.

Le modèle standard affirme que l'espace est rempli des neutrinos, nés du Big Bang. En effet, il considère que quarks et gluons (deux êtres mathématiques), sortis du chapeau, ont formé les neutrons, protons, électrons. A partir de ces bases spéculatives, il décrit alors une chaîne de réactions primordiales, qui émettent beaucoup de neutrinos. Ce même scénario, oblige à spéculer sur une annihilation asymétrique où l'anti-matière aurait disparue. Mais l'homogénéité mesurée de la température implique une causalité qui ruine le modèle. Mais une fois lancé dans les spéculations (addiction), pourquoi ne pas continuer. Alors on a inventé opportunément, une période inflationniste, qui « arrange tout ». Le manque de prémisses physiques fondatrices amène forcément à spéculer sur la spéculation. Alors que la notion de π-ADN qui se retrouve à tous les niveaux de la physique, les évite toutes. Puis on s'étonne de trouver une mystérieuse matière noire. On s'étonne également de voir que l'expansion en accélération. Plutôt de la voir comme étant l'accélération locale, on a cru résoudre en rajoutant une constante dans l'équation de la gravitation (!).  C'est encore un amalgame entre effet et cause. De plus, on fait la confusion entre l'infini des nombres et la physique du réel.

La physique est en crise. Dans le passé, elle en a connue plusieurs. Au XVI eme siècle, la communauté scientifique enseignait – dans le plus grand des conforts – les lois d'Aristote, bien établies depuis 3 siècles avant notre ère. En accord avec la bible, elles prônaient l'immobilité de la Terre qui était alors, le centre de l'univers. Au XVI eme siècle, Copernic et Galilée furent les premiers à remettre en cause le géocentrisme d'Aristote et de Ptolémée. Ils ont été harcelé par la majorité des savants en place et par l'église. Puis Bruno Giordano, s'appuyant sur les travaux de Copernic, fut moins prudent que Galilée. Il fut brûlé vif par l'inquisition pour sa théorie de l'héliocentrisme (!). Il a fallu attendre les travaux de Newton, fin du XVII eme siècle, pour enfin abandonner les vieilles lunes d'Aristote.

Aujourd'hui, les nouvelles idées ont également du mal à voir le jour. Pour les mêmes raisons, quelques uns – bien en place – n'ont aucune envie de quitter leur zone de confort. Comme au XVI eme siècle, nier ce que l'on a enseigné, réclame beaucoup de courage et d'abnégation. Mais croyez-vous que le monde des physiciens soit devenu plus tolérant ? Pas du tout. Il n'y a pas que l'inquisition pour être féroce et barbare. Voyez le cas de cet illustre savant que fut Monsieur Boltzmann. Quand il a sorti sa fameuse loi sur l'entropie, certains de ses pairs, se sont moqués de lui. Ils l'ont harcelé encore et encore, jusqu'à l'amener au suicide, le 5 septembre 1906 ! Maintenant, la constante de Boltzmann (K) est jugée indispensable à la physique. Sa fameuse loi sur l'entropie informationnelle, S = K ln (W), est géniale. A-t-on entendu quelque excuse venant de ces salauds ? Que nenni ! D'ailleurs, certains aujourd'hui encore, n'en ont pas saisi le sens profond. Ce sont les mêmes qui freinent des 4 fers pour empêcher toute innovation, avec leur seule compétence, la méchanceté !  Alors, ici et maintenant, je rends hommage à monsieur Boltzmann. Dans ce même livre, je vais montrer que cette loi, est un des piliers du modèle oscar, sous la forme : μ = ln (ξ8).

Sommaire


24. Comment galope un photon ?

Albert Einstein rêvait de voir comment les photons chevauchaient le « vide ». En fait la question est mal posée car il faut tenir compte de la dualité onde-corpuscule. L'explication est – comme toujours – dérivée des contraintes du boson-2-tachyons puisque c'est la règle première de l'univers (dans ces deux états). Déjà on peut dire que l'univers n'est pas lisse. Il possède des intervalles élémentaires. Le photon fonctionne comme le neutrino à quelques différences près. Chaque espace élémentaire, ƛe (haut du puits subquantique) est l'image rétrécie du BEC. Les 2 échelles sont régies par la période universelle, te. Donc l'onde photon est aspirée et rejetée, selon : c = ƛe / te [3]. Un univers lisse est juste une spéculation mathématique qui se traite avec des équations différentielles. Plus les prémisses physiques sont faibles, plus les abstractions mathématiques sont spéculatives et complexes.

Comme le neutrino, le photon est l'image quantique du boson-2-tachyons. Il comporte deux parties : a) une moitié subquantique non locale ; b) une moitié quantique. La somme est de masse et charge, nulles. S'il se propage à vitesse c, c'est pour distribuer à tout l'univers, l'énergie qui lui avait donné naissance. Cette dernière avait été conformée par la collecte des boson-2-tachyons, à travers tour l'univers, à la vitesse des tachyons, co. Mais pour évacuer l'énergie de l'annihilation, la vitesse est celle de la lumière, c. La figure 24-1 ci-dessous, montre l'asymétrie de la transition. Rappelons-nous la figure 21-1. On y voit la paire électron-positron, transitant en 2 photons. Ils forment un ensemble à 4 branches, avec le boson-2-tachyons.

                                Figure 24-1                                                                         Figure 24-2


La figure 24-1 montre que le transit subquantique → quantique de l'information de création, est 1033 fois plus rapide que la répartition faisant suite à l'annihilation. Il s'agit de distribuer à vitesse c l'énergie à chacun des intervalles élémentaires de tout l'univers. La figure 24-2, montre le passage du photon, d'un intervalle élémentaire, à l'autre. Cela correspond exactement à un cycle tachyon. Mais il faut se souvenir de la dualité onde corpuscule. Comme [M L] est une constante, on voit bien que plus L est étendu, plus M devient faible. On retrouve ici la fameuse dualité de localité La dualité onde-corpuscule est une dualité de localité. Revenons à nos rides (ou ondes) concentriques s'éloignant du lieu de la chute du caillou. D'emblée on compte 2 types de L : a) l'un est liée à la taille locale de l'onde ; b) l'autre est lié à la taille étendue, du cercle en progression radiale.

Sommaire

25. Collisions de galaxies = matière noire

Ce modèle dit clairement que l'univers est fait de paires électron-positrons. Ces particules sont les briques élémentaires qui composent la matière. Selon l'expérience de pensée du chapitre VI, leur séparation sur le BEC primordial, par un angle : θ = π (opposition), est la cause de la non annihilation. Mais les collisions de galaxies, reconnectent des régions, initialement séparées par des petits angles variables : θ < π . Ces angles ne provoquent pas l'annihilation totale des briques élémentaires, mais les réduisent en gravats de tailles diverses. Selon la dualité onde-corpuscule, ce champ de gravats peut se révéler comme des fréquences parasites ou bruits de fond. Ces gravats expliquent la matière noire car on ne construit rien avec des gravats. La matière visible est faite d'atomes, bâtis avec des briques entières. Le caractère fractal de la mitose a provoqué beaucoup de collisions, dans le passé. C'est également ce que l'on observe.

La clé de ce modèle, basée sur le π-ADN est-elle observée ? La réponse est oui. Il y a par exemple ce lien du CEA qui indique clairement que la matière noire apparaît après les collisions de galaxies. On trouve cette phrase de Frédéric Bournaud : « le fait que les débris d'une collision de galaxies contiennent deux fois plus de matière invisible que visible est une totale surprise ». Mais ce lien parle également de galaxies naines – formées d'une collision de galaxies  dont le halo est très étenduIl dit également : « les disques des galaxies contiennent bien de la matière noire, contrairement aux prédictions des modèles cosmologiques ». Et bien oui car la matière noire créée au sein de la galaxie, lors de la collision, migre ensuite vers la halo. 

Ce type de galaxie naine (ayant subi une collision) est donc logiquement remplie de matière noire. Comme vu au chapitre XVII, le couplage de la matière noire est moindre que celui de la matière ordinaire. Donc les enchevêtrements de BECs son