"OSCAR" évolue en modèle DHL
(Dualité Hypersymétrique de Localité)
Préambule
50. Résumé : 0
1
2 3 4
5 6 7
8
9 10
51
Prédictions 52
Conclusions → 1 2 3 4 5 6 7 8 81
---
Avertissement
Parmi
les dizaines de modèles d'univers, le modèle DHL est
le seul dont la cohérence de ces 5 prémisses, se
vérifie en résolvant 53 énigmes du modèle
standard sans rajouter aucune spéculation. Exit un espace-temps
magique dont les 4 dimensions serait de génération
spontanée. Exit le "principe" cosmologique qui spécule
sur une homogénéité et une isotropie. Exit "la
nature a horreur du vide" car au contraire, la notion "d'existence
en tous points" est basée sur la recherche d'un zéro
parfait absolu et impossible à atteindre. L'analogie la plus
correcte est celle relative au fameux "risque zéro". Chacun
sait qu'il n'existe pas mais tout le monde rêve du contraire.
Cette dualité universelle de la nature, prend la forme de la
recherche permanente (en tous points) de l'impossible inertie
zéro. Mais une infinité de "presque-zéros" est
totalement injustifiable. Ainsi la nature à inventé
l'oscillateur dipolaire pour obtenir des zéros physiques,
basés sur la symétrie. Comme l'école du Yin Yang
ces dualités de 2 pôles contraires, créent une
infinité de 3eme corps. J'ai appelé ce corps BODYS
(Boson Oscillateur Dipolaire Yin Yang Stochastique). Ainsi ces
BODYS-zéros infinis, présentent une entropie de
désordre (au sens de Boltzmann) qui tend vers l'infini.
C'est là qu'intervient la 4eme dualités qui compense ce
grand nombre stochatique par un nombre limité synchronisé
formant des BECs cosmologiques. La suite indique que la 5eme
dualité d'influence {interne↔externe} amène un seul
BEC à arriver à saturation. Le Big-Bang qui s'en suit
prend la forme d'une mitose qui suit la loi de Fibonacci......
Il
vient que les modèles doivent-être jugés par le
ratio {Nb de prémisses / Nb d'énigmes résolues}.
De plus, les 5 prémisses du modèle
DHL, découlent physiquement de la première par
un raisonnement logico-déductif
Les
5 prémisses du modèle DHL
1
|
2
|
3
|
4
|
5
|
parfait-absolu
imparfait
|
inertie
M
amplitude
L
|
ℬodys
2
pôles
|
stochastique
synchronisé
|
interne
externe
|
dualité
des zéros
|
dualité
M.L= Cte
|
3e
corps
|
dualité
entropique
|
dualité
d'influence
|
Existence de l'oscillation dipolaire (état stochastique d'univers)
|
Condensat
de Bose Einstein
|
Une des raisons de la crise (souvent éludée) que
traverse la physique
fondamentale de « l'univers »,
est la difficulté qu'ont
les physiciens à caractériser le
« vide ». Des noms
comme « tachyon supraluminique »
ou « axion »
ont été évoqués pour tenter
de régler tel ou tel problème
particulier. Un malaise persistant existe autour de cette
dénomination « vide ».
Higgs a proposé de le
caractériser comme un
« champ scalaire » muni de son
boson associé . Le
« vide » est également
vu comme un
ensemble d'oscillateurs harmoniques ou anharmoniques, selon les cas.
Les phénomènes de non localité
militent pour un espace-temps tissé
de « tachyons supraluminiques ».
Cependant cette idée
est rejetée par la théorie de la
relativité qui précise que la
vitesse ne saurait dépasser celle de la lumière c.
La
clé universelle est le principe
de dualité.
Tout d'abord, il est plus judicieux de parler de la
« dualité
d'univers » plutôt que de
« l'univers » dans son
unicité. Cette dualité implique un
état d'univers stochastique et
non connexe, contenant une Bulle-Univers en expansion. Le premier est
fait d'une infinité d'oscillateurs dipolaires ayant deux
référentiels :
1/
Référentiel deux pôles
opposés : il y règne ce
paradoxe inertiel, caractérisé par
deux interdits : M >
0 ; M = 0. Ce paradoxe contraint
l'oscillation
qui cherche indéfiniment
l'impossible zéro ! C'est le
mécanisme de l'impulsion de Dirac qui force
l'oscillation.
2/
Référentiel dipolaire : La
somme algébrique des 2 pôles,
forme un strict
zéro physique.
Selon la théorie du Yin Yang la dualité dipolaire forme
un 3eme corps qui caractérise le zéro physique
basée sur la symétrie des deux pôles
contraires. La somme globale des zéros est donc
strictement à
zéro. L'entropie
informationnelle de cet état d'univers, est infinie.
L'infini
appliqué en physique, nécessite un strict
zéro des paramètres M,
L, T.
2/
Le 3eme corps: le 3eme corps est appelé ℬodys pour Boson Oscillateur Dipolaire Yin Yang Subquantique. Son aspect dipolaire est la seule
voie pour obtenir un zéro physique parfait par symétrie de deux opposés. Dans le
référentiel de chacun des pôles, la lutte se
poursuit dans l'espérance d'obtenir
l'impossible zéro inertiel absolu et parfait.
La dualité entropique implique la symétrie entre un
nombre infini en forte entropie de désordre et un nombre
limité en cours de synchronisation. Ainsi cet état
d'univers à entropie infinie,
ne peut que
déboucher sur une synchronisation partielle formant BEC
où
l'entropie est minimale. La saturation de ce BEC débouche
sur une
mitose (Big Bang) qui produit une délocalisation des seuls
dipôles
périphériques. Localement, les pôles
séparés
(électron-positrons) se comportent comme des bosons,
contrairement à
ceux créés localement. Le lien particulier de
chaque dipôle, se
manifeste – globalement lors de l'expansion – par
la gravitation.
A terme, cette dernière permet de retrouver
l'équilibre (toujours
le zéro) de la Bulle-Univers. Elle retourne à
terme à son état
stochastique et non connexe. Tout comme pour l'oscillateur dipolaire
stochastique, l'existence macroscopique est provisoire et
liée au
référentiel
local. La
période de l'oscillateur global qu'est la Bulle-Univers, est
proportionnelle à la racine carrée de sa masse.
L'espace-temps
est foncièrement dual :
a) son
référentiel
subquantique et
supraluminique –
à localité élargie –
tissé d'oscillateurs dipolaires assurant
la connexité globale ; b) son
référentiel
quantique
et macro – à
localité réduite – où la
vitesse de la lumière est réglée par
l'échelle subquantique. Non seulement il n'y a pas de
contradiction
avec la relativité mais la cause de la limite c
est dévoilée.
Rien
ne peut se comprendre sans évoquer le principe de dualité
de localité.
Tableau résumé des prémisses du modèle d'univers DHL
Les
5 dualités naturelles du modèle DHL (Dualité
Hypersymétrique de Localité)
|
n°
|
types
|
dualités
|
causes
physiques
|
1
|
zéro
|
parfait↔imparfait
|
Pour
chaque pôle, l'espérance d'une inertie atteignant le zéro
parfait, génère un nombre infini d'oscillations, car le champ
des intervalles menant au zéro parfait, est infini.
|
2
|
constante
|
inertie×longueur
|
Selon
la dualité des types de zéros, l'existence du couple aléatoire
{masse × amplitude} est incontournable. C'est la source de la loi
de Compton.
|
3
|
3e
corps
|
monopolaire↔dipolaire
|
La
forme dipolaire est la seule solution pour obtenir le zéro
physique parfait. Sa réversibilité révèle ensuite les masses
des pôles séparés et explique les photons et neutrinos.
|
4
|
entropie
|
ordre↔désordre
|
Le
nombre infini de ℬodys-zéros
en état de fort désordre, génère la probabilité d'existence
d'un nombre limité en état d'ordre, formant ainsi un BEC
synchronisé.
|
5
|
influence
|
densité
/ surface
|
Au-delà
d'un certain niveau de densité des ℬodys
internes, le flux de synchronisation, s'accélère. Puis, au
terme de l'expansion, la réduction de densité inverse le flux.
|
La
majorité des ℬodys-zéros
1D synchronisés, forment l'espace temps 4D via leur connexion
non-locale au « point zéro commun » des BECs. Une
minorité voit ses pôles se séparer par délocalisation relative
à leur ℬodys
d'origine. Cela révèle les paramètres physiques des pôles qui
deviennent les paires électron-positrons fusionnant en protons au
cours de la « Mitose-Big-Bang-Expansion ». Les quarks,
induits dans leur confinement, jouent un rôle mineur. Ce sont les
5 composantes de la dualité
de localité.
|
Préambule
La
physique fondamentale et les questions concernant les
mystères
de
l'univers ne doivent pas rester dans le giron d'une seule
minorité
dominante mais élargies à tous les citoyens.
Cependant ce domaine
est traditionnellement empreint de mathématiques ardues qui
sont de
nature à décourager le néophyte. On
connait par ailleurs
l'importance des débats transverses via
une compétence
de généraliste. Mais la
maîtrise globale de la physique est
complétement éparpillée,
dispersée.
Les spécialistes, par nature, ont des
compétences pointues dans des domaines limités.
On manque cruellement de chefs d'ochestre pour ordonner la
musique de la physique. La physique est l'univers et l'univers est
unique, non dispersé. De
ce fait,
la physique est en crise depuis plus de trente ans et le
citoyen lambda – et même certains
spécialistes – l'ignorent
superbement.
Alors
comment faire pour ouvrir ce domaine à tous en
évitant le
nécessaire langage mathématique permettant de le
formaliser ?
La méthode
employée ici se
présente en deux étapes. Une première
étape
a consisté à écrire
un livre en 2012, L'univers
miroir, décrivant un modèle complet,
« avec
équations » , doté d'une
bibliographie et d'un
lexique. Cet
ouvrage devient la référence de
cet ouvrage en
cours dont les descriptions et explications sont de nature
littéraire.
De plus il sera proposé au lecteur une notation de forme [n]
qui
renverra vers une explication plus fournie, en fin de livre. Ainsi le
lecteur, dérouté par les
mathématiques, pourra
poursuivre sa route
en mode purement littéral. J'ai, par le passé,
beaucoup
critiqué
certains livres de mathématique qui entamaient un
sujet
par... les
équations plutôt que par l'explication. Juste de
quoi
dégoûter les
élèves.
C'est pourquoi, quand j'enseignais je suivais scrupuleusement le chemin
suivant :
a) donner
envie (analogie la faim du ventre) ; b) manipuler et
s'approprier ; c) intellectualiser en formulant d'une
manière
abstraite et donc mathématiquement. Chacune de ces phases
devant
passer par des errements et des erreurs. Ce sont les échecs
et les corrections
successives qui amènent, à terme, la
lumière et rien
d'autre.
La
physique doit se comprendre
avant de passer à son expression
mathématique. Cette dernière doit être
au service
de la physique
et surtout ne pas la remplacer. C'est malheureusement ce qui se passe
actuellement.
Comment ? Le spectre des connaissances accumulées
est tel,
qu'il
a fallu subdiviser les sciences par nature. Ensuite la subdivision
s'est poursuivie jusqu'à créer des
spécialisations
y compris dans
la même branche de la physique. La somme des connaissances en
physique est telle, que personne ne peut à la fois en
connaître
chaque détail rigoureux et la vue globale. Toutes
ces connaissances de la physique universelle, sont
sous forme
de millions
de publications hyper spécialisées. Les
détails
sont tellement
poussés que seul le langage mathématique est
pertinent
pour espérer
des communications transverses. Le problème est qu'il y a de
moins
en moins de communications d'une spécialité
à
l'autre. Les limites
de la trop grande rigueur amène à tuer la
communication
transverse.
La vue générale (non triviale) est devenue
très
difficile.
Mais
il y a pire !
Il
y a ce que l'on a appelé : « la
redoutable efficacité
des mathématiques ». Certains physiciens,
passés maîtres dans
l'art de manier les équations mathématiques, s'en
servent, non plus
pour décrire la physique mais pour la remplacer (!). C'est
ainsi
que l'on
a considéré certains
« objets » physiques
comme des
« êtres
mathématiques ». Alors bien
sûr on se défend en disant qu'il ne
s'agit que de modèle..., mais petit à
petit le « modèle »
se substitue avec ce que l'on croît être
la réalité physique. Le
plus grand des dangers, est de faire l'amalgame entre le
zéro
mathématique et le zéro physique.
Heureusement, je ne
suis pas le seul
physicien à dénoncer cela.
Il
existe trois types de zéro :
Le
zéro mathématique absolu (non physique)
dont
l'inverse est l'infini
Le
zéro physique local jamais atteint de par la loi
d'indétermination
Le
zéro physique issu de la résultante nulle de
l'oscillateur dipolaire.
L'univers
doit son
existence à ce paradoxe concernant l'inertie M, selon :
.
Pour
toute valeur inertielle, arbitrairement proche du zéro absolu et
parfait d'un pôle, il existe une infinité d'intervalle la
séparant de ce zéro parfait. L'espérance de ce
zéro parfait, génère une infinité
d'oscillations aléatoires.
sommaire
1. La
dualité {réductionnisme / holisme}
La
plupart des livres de vulgarisation, partent de l'instant
présent
pour ensuite remonter le temps pour aller vers le plus
général.
Cette méthode n'est pas du tout adaptée
à la pédagogie car elle
part du plus compliqué vers le plus simple. Bien
sûr ses défenseurs
argumentent en disant que la confrontation
« théorie–
expérience» n'est possible que localement. C'est
la méthode
purement réductionniste. L'alternative est la
méthode dite holiste
(vue d'ensemble). La méthode holiste a
été abandonnée car elle
était empreinte de flou artistique. On lui a
préféré la rigueur
expérimentale locale. Au début du 20eme
siècle, on
n'avait aucun moyen de vérifier les grandes
échelles et il était
donc raisonnable de choisir la voie réductionniste.
Mais
aujourd'hui, on possède des moyens technologiques
énormes pour
expérimenter à toutes les échelles.
Alors
faut-il retourner à la voie holiste ? Non il faut
exploiter la
dualité, confronter les deux voies. Mais ce choix de type
binaire (oui
ou non) est resté en place, plutôt que d'exploiter
les
deux voies. Dans tous les domaines, on peut
constater les ravages de la sanction binaire. L'univers et à
la
fois local et non local (donc le détail
est lié
au global).
Voici
un exemple : au cours du 19ème
siècle, les
biologistes ont polémiqué durant près
de cent ans, pour savoir qui
était responsable des caractères de la
filiation : le
spermatozoïde ou l'ovule. Quelle question idiote !
C'est la
voie duale qui est la source de toutes les réponses de la
physique
de l'univers. L'univers et tout ce qu'il contient, est
foncièrement
dual. Nous ne sommes pas « poussière
d'étoile » comme
on a pu le dire mais nous sommes les enfants de l'univers. On n'en
parle pas assez ! Tout ce qui se trouve dans l'univers, y
compris la vie, n'est que copie conforme.
Pour
comprendre l'univers et ce qu'il a enfanté, il faut passer
par la
clé de la dualité. Donc les biologistes ont fini
par comprendre
que la solution est de type dual. Il n'y a pas d'exemple où
la
solution puisse être autre chose que duale. La biologie, au
sens
large, nous montre cette dualité. Cette dernière
vient déjà de la
mitose. Elle est une succession de divisions par deux. Elle est la
clé de la vie.
Alors
quelle est la dualité dans l'approche physique ?
C'est bien
sûr la confrontation entre les voies
de recherche {réductionniste + holiste}. Cela vous
paraît
évident ? Eh bien sachez que ce n'est pas
partagé. Le genre humain préfère le
monisme au dual. Des
chercheurs ne jurent que par le réductionnisme et d'autres
que par
le holisme. Alors la première clé de l'univers
est-elle la
dualité ? Oui
tout part de là.
Pour
bien comprendre la démarche duale (locale + non locale), il
existe
deux (sic) règles essentielles :
1/
partir des lois physiques les plus fondamentales.
2/
vérifier en permanence si les conclusions de l'approche sont
cohérentes et mesurables et ce en invitant à la
place d'honneur, la
dualité de localité. On arrête de
spéculer.
Mais
avant de détailler les lois essentielles de la physique, je
voudrais
parler de l'universalité de la dualité. Par
exemple on peut déjà
aborder ce qu'est le dual de l'univers observable. Sans anticiper sur
ce qui va suivre, on peut dire que l'univers actuel, est en phase de
désordre (entropie croissante). On s'attend donc que son
état dual
soit en phase de décroissance du désordre
(entropie en
décroissance). Mais celui-ci n'est pas directement
observable. Mais
peut-on espérer l'aborder quand même ?
Oui et nous verrons très précisément
comment l'univers suit un cycle entre ces deux
états. Vous verrez que cette version cyclique est
moins naïve que celle décrite comme un
«rebond ». En ce moment
l'entropie court au
désordre et quand elle sera maximale, sa courbe
s'inversera et
tendra vers l'ordre parfait. Attention on ne se contentera pas de
dire : « c'est le cycle de
l'entropie » mais on dira
exactement pourquoi et surtout comment cela se mesure.
Tableau 1-1 Voici
quelques éléments physiques et leur dual
respectif.
éléments
|
le dual
correspondant
|
univers
observable* : entropie ↑
|
univers
primordial : entropie ↓
|
localité
(espace)
|
non
localité (relative)
|
inertie
(masse)
|
accélération
|
raideur
(ressort)
|
souplesse
|
temporel
(le temps s'écoule)
|
intemporel
|
ponctuel
(longueur ou rayon = 0) ; interdit en physique
|
infini ;
interdit en physique
|
décrire
(se contenter de...)
|
expliquer
|
stochastique
(tend vers le désordre)
|
synchronisation
(tend vers l'ordre)
|
*Les
lois de l'entropie disent clairement que la croissance de l'univers,
implique un système isolé
donc limité. S'il est
limité, l'univers observable
ne peut pas être infini. Il existe cependant des physiciens
qui « croient »
quand même à son infinité. Comme le
montre le tableau, le dual de
l'infini est le ponctuel. Alors ces mêmes physiciens,
considèrent
que les particules élémentaires sont ponctuelles.
En fait le calcul mathématique sait résoudre ce
type de concept, interdit en physique. Ce qui est grave c'est ce type
de démarche : a) on ne connaît pas la
taille d'une particule ;
b) on spécule en disant qu'elle est ponctuelle ; c)
on sait
résoudre mathématiquement les
conséquences de la spéculation, de
type infini ; d) on est triomphant. Pas moi.
sommaire
2. Les graves erreurs
épistémologiques
L'univers
nous montre clairement la dualité de localité.
Cela dément
totalement le principe cosmologique. Que dit Wikipédia
à cet égard ? :
« Le principe
cosmologique est l'hypothèse aujourd'hui
généralement considérée
comme vérifiée selon laquelle l'Univers est
spatialement homogène,
c'est-à-dire que son apparence
générale ne dépend pas de la
position de l'observateur. Il a pour conséquence que l'Homme
n'occupe pas de position privilégiée dans
l'Univers, en opposition
avec la théorie géocentrique (aujourd'hui
abandonnée), mais en
accord avec le principe copernicien. En pratique, le principe
cosmologique présuppose aussi que l'univers est isotrope,
c'est-à-dire que son aspect ne dépend pas de la
direction dans
laquelle on l'observe (par exemple son taux d'expansion ne
dépend
pas de la direction) ». Cette
formulation (réductionniste)
n'est pas assez rigoureuse car elle ne
tient pas compte de la dualité de localité.
Cette
dernière
dit
que si toutes les localités sont effectivement
identiques,
elles
sont cependant,
très
différentes de
la
non
localité (voir
chapitre 4, l'expérience de pensée).
Mais
il
faut définir ce qu'est la non localité car elle
fait l'objet d'une grande confusion ! Certains l'ont comprise
comme étant absolue !
Nous allons montrer au fil de ce livre, que la notion d'absolu est
incompatible avec la physique. Elle ne concerne que les nombres. La
non localité physique est explicitement relative. Elle
exclut la
dualité de type {c ↔ ∞},
soit la vitesse de la lumière opposée
à une vitesse d'information,
infinie. La dualité de localité de l'univers est
sous la forme :{c
↔ c0}.
Elle remplace l'infini par une vitesse supraluminique finie et
limitée à une information d'état (voir
intrication plus loin). On
montrera comment et pourquoi, la constance de la vitesse c, est
régulée par la non localité relative.
Notre
science moderne vient d'une part, de la relativité
d'Einstein et
d'autre part, de l'école de Copenhague via la
théorie quantique.
Tout s'est tramé au début du siècle
dernier. Voici quelques noms
des acteurs : Bell, Bohm, Boltzmann, Niels Bohr,
Werner Heisenberg, Pascual Jordan,
Max
Born, Pauli, Fermi, Planck, Dirac, Pauli, Schrödinger,
Compton,
Eddington.... Ces deux théories qui donnent chacune quelques
succès,
ne s'accordent pas. Il y a notamment le côté lisse
de l'espace d'
Einstein, non conforme au côté granuleux de celui
de la théorie
quantique. Il manque une clé et on la cherche
désespérément
depuis près d'un siècle. Nous allons montrer que
cette clé se
trouve dans le concept de dualité de localité.
Devant
certains défis que nous décrirons, les
« maîtres » ont
prononcé cette phrase inouïe :
« il ne faut pas chercher
à comprendre ». Ces inventeurs de la
théorie quantique –
qui par ailleurs donne des résultats indéniables
– ont capitulé
devant certaines expériences qui semblaient trahir les lois
fondamentales de la physique. Par exemple, ne pouvant mesurer le
rayon « classique » de
l'électron, et ne pouvant mettre
en avant une explication, ils ont arbitrairement
considéré :
a) que ce dernier était nul et b) que la physique classique
ne
s'appliquait pas à ce niveau. Nous allons montrer que ce
sont deux
très graves erreurs qui ont mis la physique dans l'impasse
dans
laquelle elle se trouve aujourd'hui. Certains dont Einstein ont
dénoncé cette méthode.
La
rigueur à l'époque, semble très
aboutie : on réalise des
expériences physiques et on cherche à les relier
entre elles pour
en tirer des lois générales et ce, le plus
rigoureusement possible.
Pourquoi ais-je employé le mot semble ? Tout
simplement parce
que cela porte implicitement une spéculation. On
décrète que la
validité de ces loi est générale.
Cette spéculation s'appelle le
principe cosmologique. Ce principe fait l'amalgame entre le local et
le non local. On sait maintenant que cela n'est vrai que si l'on
compare un local lambda à un autre local lambda'. Si toutes
les
localités sont les mêmes, elles sont chacune
très différentes de
la non localité. C'est avant tout, une démarche
de prudence. Il y
a là un facteur d'échelle qui n'a pas
été pris en compte.
Il
y a notamment les expériences (locales) de
création de paires de
particules. Pour le moment, nous allons traiter les seules paires
proton-antiproton et électron-positron. En injectant de
l'énergie
au bon niveau (E = m c²) , on sait
créer ce type de
particules et d'autres. Cette création locale entre
matière et
antimatière est toujours instable. Les deux
entités confrontées
s'annihilent toujours. Or on voit que l'univers est rempli de protons
et d'électrons – de création non locale
– qui sont très
stables. Il y a bien une dualité fondamentale de
localité. Cette
clé est essentielle pour comprendre. Et pourtant, cherchez
sur
internet, vous ne trouverez que peu de liens pour la
locution :
« dualité
de localité ».
sommaire
3. La
dualité de localité
Cette
subtilité est passée à l'as....
Rappelez-vous comme on a du mal
avec la dualité en général. Remarquez,
on ne peut pas jeter la
pierre aux savants du début du siècle dernier car
ils ne pouvaient
connaître les résultats d'une
expérience réalisée dans les
années 1980. Sans en donner le détail tout de
suite, nous allons
dire que cette expérience, réalisée
par monsieur ASPECT, n'est
toujours pas interprétée correctement par une
majorité de la
communauté scientifique. Alors vous allez me dire :
si eux –
champions de mathématique – ne comprennent pas,
alors je n'ai
aucune chance. Eh bien si, vous allez comprendre.
C'est
le même problème que celui qui a fait l'objet de
la polémique sur
la filiation. En niant la dualité, matheux ou pas, on ne
peut
comprendre. Je connais tellement de matheux (pauvre
privilège de
l'âge) qui comprennent mal la physique. Donc cette
expérience,
hyper importante, à été
interprétée à minima comme
suit :
l'univers est non local. Qu'est-ce que cela veut bien dire ?
Voici
un premier jet de l'explication : a) on se
débrouille pour
mettre deux particules (A, B) dans le même état
quantique. Elles
sont mariées ou intriquées. En fait, on ne peut
connaître que
l'état (A, B) mais pas séparément A ou
B. Leur état, sensé
varier tout le temps, ne peut-être connu qu'après
l'opération de
mesure. On envoie A et B dans deux directions opposées
à une
grande distance.
Si
on mesure l'état de A, alors
« aussitôt »
l'état de B
est conforme. J'ai mis le terme
« aussitôt » entre
guillemets car c'est là où tout
déraille. Le problème est que
l'information de l'état A → B est allée
plus vite que la lumière.
Messieurs Mermin et Bricmont ont cherché à
classer l'état de
désarroi de la communauté scientifique. En
résumé voici les 5
grands axes d'interprétation :
Tableau
3-1
groupes
|
argument
|
contre
argument
|
1
|
une
équation importante dit bien que l'état est
conservé mais sans préciser la distance.
|
oui mais
cela n'explique rien puisque cette équation
(Schrödinger) le dit par défaut. Elle implique une
vitesse infinie !
|
2
|
il y a des
variables cachées locales qui transportent un message de
cohérence entre les deux
|
non cela a
été largement démontré par
monsieur BELL pas de variables cachées locales
|
3
|
Le temps
est inversé et fait remonter l'info
|
belle
spéculation mais qui débouche sur une vitesse
infinie !
|
4
|
Ce n'est
pas important et je regarde ailleurs
|
c'est
facile d'éluder !
|
5
|
l'état
des particules est porté par la trame d'espace-temps par des
dipôles supraluminiques.
|
Je suis en
accord avec cela ! En effet, toutes les autres solutions
débouchent sur une vitesse infinie.
|
Il
y a un autre argument qui sera développé
dans la suite de
ce livre. Il montre sans ambiguïté
pourquoi il existe une sous
structure supraluminique. De plus non seulement elle ne viole pas la
constante de la lumière mais elle la régule. Mais
notez bien la
folie : Ceux qui rejettent les dipôles qui vont trop
vite...
acceptent la vitesse infinie issue de leur spéculation (!).
Vive la
logique.
Il
faut bien distinguer les
variables cachées locales des
variables
cachées non locales. Et là encore,
on trouve des
physiciens qui
concluent dans l'amalgame. Ils disent :
« pas de
variables cachées donc pas de
dipôles ».
En ignorant la
dualité de localité, ils se privent de
comprendre. De toute façon,
l'école de Copenhague leur a enseigné : "ne pas
chercher à comprendre".
Mais
revenons à nos chercheurs de Copenhague. Ils n'ont pas
connaissance
de cette expérience qui s'est passée bien plus
tard. Alors quand
monsieur FERMI a constaté que certaines particules ne
voulaient pas
se condenser (se grouper), ils les a classées dans une
famille qu'il
a nommée les FERMIONS. Elles n'aiment pas vivre
ensemble. Dans le même temps monsieur BOSE a
classé d'autres
particules appelées BOSONS. Celles-ci au contraire, ne
demandent qu'à
s'assembler, se condenser. Elles forment même des Condensats
de BOSE
EINSTEIN, appelés BEC.
Ensuite monsieur DIRAC nous a
expliqué que
l'électron de charge négative possède
un élément d'antimatière
de charge positive, qui s'appelle positron. S'ils se rencontrent,
ils s'annihilent. Leur masse disparaît et
l'énergie s'évacue sous
la forme de deux photons. Que retient-on de cela ? il est
impossible que des paires positron-électrons puissent
cohabiter
puisqu'ils ne sont pas des bosons. Alors de quoi sont faits les protons
?
C'est
là que se situe la grande erreur
épistémologique ! Car cela
n'est vrai que localement. Alors vous allez me dire pourquoi
c'est faux non localement ? Il faut être clair. Oui
mais d'abord un petit résumé :
Tableau 3-2
les
fermions fondamentaux
|
création
locale
|
création
non locale
|
proton
|
créé
en injectant de l'énergie mais sont instables
|
stable et
forme tout l'univers
|
antiproton
|
?
|
électron
–
|
créé
en injectant de l'énergie mais sont instables
|
stable
|
anti
électron (positron +)
|
?
|
Quand
un neutron (neutre) change d'état, il se transforme en un
proton de
charge +, un électron, un neutrino. Le proton
« pèse »
1836,15 électrons et il a la charge d'un positron !
On serait
tenté de dire qu'il est fait de paires
électron-positrons mais
FERMI nous dit que ce n'est pas possible ! Même pas
en rêve !
Eh bien si, en rêve ou plutôt en
expérience de pensée à la
Einstein (voir ci-après).
Alors
que reste-il de vrai dans la théorie quantique ?
Pas de souci,
une très grande partie. Mais attention, la
dualité de localité va
tout chambouler. On voit bien que l'électron est une
particule
spéciale. Voyons le chapitre suivant.
sommaire
4. Réduction de
localité → dualité
{restreinte-étendue}
Les
acteurs : Boson → comme une corde formée de 2
dipôles
opposés et oscillants d'une manière
symétrique,
autour d'un point zéro central.
Posons
– sans le démontrer pour l'instant
– qu'à un
moment
donné, l'univers était sous forme d'un immense BEC.
Rappelez-vous, une condensation de bosons.
C'est une grande bulle formée de bosons primitifs. Que sont
ces
bosons ? Il sont des oscillateurs duaux (sic)
formés de
deux dipôles opposés. Nous allons admettre
provisoirement qu'ils
oscillent autour d'un point zéro commun situé au
centre
la bulle.
Je vous rassure nous verrons comment arrive cette bulle et ce, d'une
manière très
détaillée avec des lois physiques bien
connues. A l'approche
du point zéro, les dipôles repartent de plus belle
vers la
périphérie de
la bulle. Ils ralentissent puis retournent au point zéro
où les deux masses tendent vers
zéro. C'est
justement ce qui leur donne des "fourmis dans les jambes", i.e. une nouvelle
impulsion, les éloignant à nouveau. leur charge
électique les maintient
attachés, comme un ressort. Ils gardent tous la
même
amplitude et c'est ce qui forme le rayon du la bulle-BEC. Ils
sont très
nombreux et forment des couches successives qui se croisent. Des
forces électriques transverses les tiennent
parfaitement
à distance et les intervalles sont
conservés. Cet
ensemble forme une trame qui
matérialise l'espace-temps. On montrera en son
temps,
pourquoi et comment ce BEC s'enrichit tellement de
bosons, arrive forcément
à
saturation. Cela veut dire que les intervalles se réduisent
tellement que les dipôles voisins (localement) se
superposent.
Catastrophe !
les masses s'additionnent tandis que les charges s'annulent (par
masquage). Les
charges étaient les « ressorts de rappel
» qui maintenaient
ensemble les dipôles dans les bosons oscillants. La brisure
de
symétrie (ressorts cassés) se traduit
par une
brisure de
localité. Le lien interne entre chaque dipôle
passe de
local étendu à non
local. La nouvelle localité est celle, active entre voisins.
Que
se passe-t-il localement ? les dipôles voisins (+ et
–)
s'attirent mais ne s'annihilent pas. Pourquoi ? Parce que cela
ne peut se produire qu'avec leur alter
ego à l'opposé, dont ils sont
séparés.
Donc, localement, ils ne
« voient » plus leur alter ego,
chacun
situé à l'opposé. Ils se comportent
alors (entre voisins) comme
des bosons. En fait on montrera précisément (avec
les lois connues) pourquoi la séparation des
dipôles les
transforment en
électron-positrons. On note en passant que seuls les
dipôles de la
première couche (première à
être saturée) se transforment en
matière. Les autres – ultra majoritaires,
– continuent de
matérialiser l'espace-temps. Il n'y a qu'une seule source
à toutes
choses. Ah oui mais où est la dualité ?
Elle s'exprime
toujours et encore dans l'oscillateur boson dual, formé de
deux dipôles opposés. On verra plus tard que le
quantum du
« rien »
est un boson dual où masse, espace, temps, s'annulent
strictement.
Mais à ce stade stochastique, rien n'est encore
synchronisé....
C'est en cours..... L'entropie va décroître.... On
verra les détails plus loin.

Figure 4-1 La
séparation des dipôles formant les bosons
oscillateurs,
revient à briser la localité à grande
échelle. Elle se
divise donc en autant de localités
réduites (entre
voisins). Les dipôles (+ et –) voisins se
comportent alors comme des
bosons et peuvent se condenser sans
s'annihiler. Ils
deviennent des paires électron-positrons. Si les
opposés
(angle 180°) venaient à se rencontrer, il y aurait
annihilation complète de chaque paire (100%). Mais si la
rencontre concernait des paires dont l'angle relatif est par exemple de
18°, alors les paires concernées seraient
annihilées
chacune à 10 %. Les 90 % restants seraient
alors
dégénérés. C'est la
perte du quantum
électron. Une sorte de gravats incapable de servir de
brique élémentaire pour construire des
atomes bien
visibles.... On devine déjà la cause de la
matière
noire....A voir plus loin... En plus, on résout
l'immense
problème de la non symétrie apparente de
l'univers.... On
verra qu'en fait, cela résout plus de 20 grandes
énigmes,
directement, en suivant juste les lois de la
physique.
|
Et
voilà FERMI n'avait pas pu voir cela : la
dichotomie boson-fermion
n'est valable que localement. Séparés de leur
alter ego, les
positrons et électrons voisins, se comportent comme des
bosons. Ils
s'associent. Ils forment les protons [1].
Mais
cette expérience de pensée n'ayant pas
été faite, la dualité de
localité a été
éludée. Alors, contraint et forcé, on
a imaginé
un proton, comme un être mathématique qui
répondait à une
certaine façon de s'associer en
éléments plus lourds (Monsieur
Gell-Mann). Cela a mené à la
découverte des quarks de charges,
1/2, 2/3. L'observation scrupuleuse et le génie de Gell-Mann
a
permis de les prévoir. Ensuite, on les a effectivement
mesurés.
Problèmes : a) leur masse est beaucoup trop faible
pour
expliquer celle du proton ; b) d'où
sortent-t-ils ? On
s'en fout ! Pas moi.
Les
quarks ne sont stables que s'ils sont confinés.
Dès qu'on essaie de
les isoler ils disparaissent très vite. Il vient de suite
qu'ils
sont induits....et non constitutifs. Là encore on a confondu
la
cause avec l'effet. Le mode de construction des atomes lourds
amène
à penser que des quarks de charge 1/3, 2/3, existent au sein
des
protons. On ne s'est pas posé la question :
sont-ils induits où
constitutifs ? Comme on avait rien à se mettre sous
la dent, on
a sauté sur la deuxième solution.
sommaire
5.
Le
proton, objet physique ou être
mathématique ?
Nous
avons vu les avantages et les inconvénients de la
méthode purement
réductionniste. Elle ne cherche pas les causes et s'attache
seulement aux effets. Ainsi en 1920, Rutherford découvre le
proton
en utilisant une chambre à brouillard. La technique est la
suivante : on provoque des collisions et on observe les
effets.
Ces derniers sont toujours sous forme de trajectoire dont la courbure
trahit les paramètres physiques de la particule
étudiée. On
s'aperçut que les assemblages de protons et neutrons
formaient
l'ensemble des atomes de la matière. Cependant on avait
remarqué
que les protons, neutrons et leurs assemblages, ne
réagissaient pas
comme l'électron. A une certaine distance du noyau, on
détectait un
seuil où apparaissait une force plus grande que celle
attendue de l'électromagnétisme.
On
l'appela force forte.
Les
particules ayant cette force forte, furent appelées hadrons.
Les
autres, comme l'électron ou le muon, furent
nommées lepton. Des
hadrons peuvent être FERMIONS ou BOSONS alors que les leptons
ne
peuvent qu'être FERMION. La méthode
réductionniste consiste à
observer les effets et de les classer par famille. Dans ce but, en
1961, Gell-Mann proposa de classer les particules selon la
théorie
mathématique des groupes. Cette théorie est
intéressante car elle
est motivée par le concept de symétrie
appliqué aux nombres. Or ce
concept de symétrie est essentiel en physique. Il est
même une des
clés de la physique et donc de l'univers. Rappelez-vous nos
bosons-2 dipôles. Ils sont classés selon la
symétrie C2.
Il
s'agit de deux éléments engendrés par
une symétrie centrale. Mais
attention, il ne s'agit que de nombre. En observant la famille des
éléments périodiques (tous les
atomes), Gell-Mann a remarqué que
son organisation ressemblait à un certain groupe de
symétrie,
appelé SU(3).
En
suivant ce chemin, il a trouvé qu'une certaine combinaison,
permettait de retrouver toutes les autres. Il a inventé des
« briques de
symétrie » qu'il a appelé
quarks. Cette
théorie met en avant le nombre magique, huit. En bombardant
les
noyaux, on a effectivement détecté trois petits
« points
durs » au sein des hadrons. Pour que cela fonctionne
bien, ces « briques de
symétrie » devaient présenter
des
combinaisons de charges électriques selon :
(–1/3, +2/3) de
la charge élémentaire de l'électron.
Par exemple : –1/3 +
2(2/3) = + 1 pour le proton et : +2/3 + 2(–1/3) = 0
pour le
neutron. Cela marche pour tous les hadrons, c'est un triomphe.
Vraiment ? Le proton est-il un être
mathématique ? Est-il
utile de s'intéresser aux causes de cet objet
physique ? Est-il
constitué de quarks ou ces derniers sont justes
induits par une
loi physique ? Pourquoi cela ne marche-t-il pas pour les
leptons ? Répondez Gell-Mann, les gens veulent
savoir !
Donc
messieurs Fermi et Gell-Mann, nous ont interdit de voir les protons
(et neutrons) comme étant composés de paires
électron-positrons.
Tout paraît leur donner raison. Sauf l'essentiel, le principe
du
rasoir d’Ockham. Ce principe stipule qu'une bonne
théorie doit
apporter de la simplicité (mais pas du simplisme). Or ici
c'est la
complexité qui est au rendez-vous ; a) on compte
plusieurs
dizaines de types de particules
« élémentaires » ;
b) on ne dit pas comment sont créés les
quarks ; c) on
invente un autre être mathématique, le
« gluon » pour
« expliquer » la force
forte ; d) on aboutit à un
univers totalement asymétrique (pas
d'antimatière). Ces conclusions
sont totalement inacceptables ! L'univers est parfaitement
symétrique, c'est sa première règle.
Ainsi, le modèle
mathématique du proton, serait fait de 8 gluons (bosons)
couplés
avec 3 quarks. Les gluons seraient de masse nulle et les quarks ne
« pèsent » moins de
2 % de la masse du proton. Les
gluons (!) colleraient les éléments constitutifs
du proton mais on
ne sait pas comment ni pourquoi.
On
a soulevé le problème de la masse du proton et il
faut en parler.
Monsieur Higgs a considéré que le
« vide » possédait
un « champ » de type scalaire
(isotrope où invariant
avec la direction) qui donnerait de la masse aux particules. Comme
tous les échanges avec le
« vide » il faut un boson
vecteur. On sait déjà qu'un neutron devenant
proton, libère un
électron + neutrino. Il laisse apparaître
furtivement une
particule lourde le boson de jauge W. En passant, il vaudrait mieux
donner un nom honnête à ce
« vide » qui ne l'est pas.
Nous sommes quelques uns à l'appeler le subquantique. De
plus tous
les champs sont portés par une trame
d'espace-temps, faite de BODYS. (Voir la non
localité limitée
de l'intrication).
Analogie :
une pierre jetée dans l'eau forme un creux furtif (boson W)
puis
apparaissent des ondes concentriques qui répartissent
graduellement
l'énergie du creux, à toute l'étendue
de l'eau. Il faut savoir que
la masse du neutron est plus grande que celle du proton et
l'électron. Le neutrino est sensé
représenter cette différence.
Attention, cette analogie a ses limites. Monsieur Higgs a
pensé que
la masse du proton pouvait provenir de ce champ. Lequel ? Celui de
création locale ou celui de création non locale
(stable) ? Il ne le précise pas car il n'a
pas réalisé l'importance cruciale du
critère de localité. Comme
tout champ, il se traduit par une certaine résonance,
matérialisée
par un boson vecteur. C'est donc bien le boson de Higgs.
Théoriquement, on avait aucune idée de sa masse.
Mais en bombardant
des particules dans les collisionneurs, on a pu voir des
« résonances » qui
signaient une certaine masse pour le
Higgs entre deux valeurs floues, dans un premier temps.
Compte
tenu de la somme des résultats déjà
acquis, on a pu ensuite,
situer le boson de Higgs entre deux bornes autour de : 125 GeV.
C'est quoi GeV ? On a G,
comme giga ou milliard ou
9 zéros soit 1 suivi de 9 zéros, soit
« 10 puissance 9 »
soit : 109 ; ensuite on
a : eV,
comme électron volt. C'est juste
l'énergie : me
c², divisée par la charge
élémentaire de l'électron, e.*
Alors on a triomphé lorsque l'on a mesuré un
« pic »
situé à 125 GeV. Cette valeur
n'était prévue qu'en rapport
avec la somme des essais précédents. Alors
existe-t-il vraiment ? La réponse est oui. Est-ce
lui qui donne la masse au proton ?
Quel proton ? Celui instable de création locale ou
celui stable
formant la matière visible de l'univers ? C'est
là que le bât
blesse ! Cette différence fondamentale entre
particule stable
(création non locale) et particule instable
(création locale), est
totalement ignorée. On n'explique toujours pas la masse du
proton
stable.
*
exprimé en coulomb, cette charge est l'unité de
l'électron. Cette
unité, électron-volt (eV), est pratique pour
l'expérimentateur. Mais il serait plus pragmatique de parler
en nombre sans dimension,
exprimé en unité électron. Par exemple
l'électron qui fait 511
000 eV, devrait plutôt représenter
l'unité. Ainsi un proton fait
1836,15, un muon fait 206,76 unités électron.
L'électron est l'unité
naturelle de masse, espace, temps, [M, L, T] de l'univers. Cette
unité est dérivée du
dipôle.
sommaire
6.
L'univers vu par ses dimensions physiques
Le
néophyte est souvent rebuté – outre les
équations mathématiques
– par la signification des paramètres physiques.
Nous allons voir
les combinaisons que l'on peut faire avec les 4 acteurs principaux de
la physique. Dans le concept des dimensions, on ne s'occupe pas des
nombres qui ajustent les relations. On ne s'occupe que de la
cohérence du jeu de construction. Ces 4 acteurs de la
physique sont
un peu comme les 4 nucléotides (A, C, G, T) de l'ADN. Avec
ce simple
alphabet de base, l'ADN contient des milliards d'informations. En
physique fondamentale, les bases s'appellent [M, L, T, Q] pour masse,
longueur, temps et charge. La mise entre crochets, précise
qu'il
s'agit de dimensions sans chiffrement. Dans cette démarche,
on ne
regarde que la cohérence des combinaisons des 4 acteurs.
A
quoi ça sert ? Déjà cela
simplifie grandement les relations
physiques. De plus, cela permet de vérifier facilement la
cohérence
d'une relation. Par exemple on sait qu'une vitesse est le
résultat
d'une longueur divisée par un temps [L / T]. Si dans une
combinaison
on attend une vitesse et que l'on aboutit par exemple, à [L
T] alors
on sait qu'il y a une erreur. Regardons de plus près les 4
acteurs
de base. Il y a d'abord la masse dont la dimension s'écrit
[M]. La
masse est une notion d'inertie. C'est d'ailleurs comme cela qu'on
peut la mesurer. Quel est le dual de l'inertie [M] ? C'est
l'accélération. Plus un corps est difficile
à accélérer, plus il
est inerte. Mais nous allons montrer que tout ce qui est quantique ou
subquantique, est sous forme d'oscillateur. Or un oscillateur ne fait
qu'accélérer et freiner d'autant plus que sa
fréquence est élevée. Ainsi, dans ce
cadre, le dual de l'inertie est la fréquence. Elle
s'exprime par l'inverse du temps [1 / T]. Plus la fréquence
est
élevée moins le temps de cycle est grand. Une
petite précision :
la forme [1 / T] se simplifie en [T–1].
Ensuite
nous avons la longueur [L]. Dans le cadre de l'oscillateur à
une
dimension ou 1D, on l'appelle l'amplitude spatiale. Dans
l'oscillateur, la masse et l'amplitude, sont intimement
liées.
Cependant il nous faut bien distinguer l'oscillateur macroscopique,
telle que la corde de guitare, d'un oscillateur quantique. Par
exemple, pour une guitare, plus la masse et la longueur d'une corde
sont grandes, plus la note est grave. On peut régler
artificiellement la longueur ou changer la masse et la
qualité de la
corde à volonté. Tandis que l'oscillateur
électron, ne s'ajuste
pas. Son harmonie implique des paramètres bien
précis et constants.
Pour la corde de guitare, on a besoin de voir ce tableau :
Tableau
6-1
paramètres
|
commentaires
|
M
|
L
|
T
|
vitesse, v
|
longueur/temps
= l / t
|
|
1
|
1–1
|
accélération,
g
|
longueur/temps²
= l / t²
|
|
1
|
1–2
|
masse
linéique, d
|
masse/longueur
= m / l
|
1
|
1–1
|
|
impulsion,
p
|
masse
× longueur / temps = m l / t
|
1
|
1
|
1–1
|
force, F
|
masse
× accélération = m g
|
1
|
1
|
1–2
|
raideur, K
|
force /
longueur = F / l
|
1
|
|
1–2
|
Quand
on achète un câble, on doit stipuler sa masse
linéique, sa force
et sa raideur.
Quand
on cherche la qualité d'une corde de guitare (ou d'un
câble de
téléphérique) on regarde sa masse
linéique (d = masse par
mètre) et sa force par
mètre soit
sa raideur, K. On voit bien que le
temps d'un cycle est
augmenté par la longueur et la masse. Donc le temps est
proportionnel à : longueur ×
masse/mètre, soit M. En
revanche, la raideur K est de nature à diminuer le temps
d'un cycle.
Il faut donc diviser par la raideur K. On a : d
× longueur / K = [M] / [M T–2]
= [T2]. On
voit de suite que le dual de la masse est la fréquence
(élevée au
carré). La raideur exprime cette dualité [M T–2].
On a bien la notion d'inertie qui s'oppose à toute variation
(la
fréquence au carré). La raideur qualifie un
ressort ou un
oscillateur. Avec le tableau 6-1, on peut même savoir de quoi
dépend
la vitesse de propagation de l'onde, dans la corde de guitare. On
voit de suite que si la
« mollesse » n'est pas un facteur
de rapidité, la raideur en est un. La masse est de nature
à
ralentir. On a donc un début de solution : K /
masse ou raideur
sur inertie. Mais on voit bien que la vitesse [L / T] exige une
notion de longueur [L]. Si on fait [M / T²] ×
[L²] / [M], les
deux masses s'annulent et on obtient bien le carré d'une
vitesse :
[L² / T²]. On peut également simplifier en
mettant la force F, en
écrivant : v² = F
l / d. Les combinaisons des
dimensions physiques, sont un aide précieuse pour comprendre
la
physique. On peut mesurer le temps d'un cycle sur un long
câble
tendu. Vous posez : t² = M L/ F
avec M la masse du câble
et F la tension. Admettons que vous connaissiez la tension F (en
Newton) et que vous mesuriez t² (aller-retour
de l'onde). Il
suffit de produire un choc sur le câble et mesurer le temps
du
retour de l'onde (le choc est renvoyé par l'appui de l'autre
extrémité). Ainsi vous pourrez calculer la masse.
Si vous
connaissez la masse par mètre (catalogue) et la tension,
alors vous
aurez la longueur de la portée [L].
sommaire
7. L'oscillateur
dipolaire quantique
Parlons
maintenant de l'oscillateur dipolaire quantique. Nos
anciens de
l'école
de Copenhague,
ont
dit avec raison, que l'équivalent électrique de
la raideur
mécanique, est
lié à la charge Q. Ils ont
écrit : Q²
= f [M
L] et
plus précisément :
e²
=
f(me
ƛe).
Ainsi Q² = Q × Q indique
l'influence
de deux
charges en vis à vis. S'il
y a deux charges alors l'oscillateur
devrait-être
dual.... comme le BODYS.
Nos
anciens ont
dit que l'harmonie n'est atteinte que si la
« raideur »
électrique,
est
adaptée à [M
L]. C'est
différent de la corde de guitare dont la notion de temps est
déjà
inscrite dans la raideur K =
[M / T²]. L'oscillateur
électron,
ne peut que s'adapter à : Q²
= f [M
L].
Dont acte ! La charge élémentaire, e
est bien historiquement,
déterminée
par
les seuls
paramètres de l'électron : e²
=
f(me
ƛe).
Cette
évidence est pourtant souvent niée, voir
ici où l'on dit : « La
charge élémentaire est, en physique, la charge
électrique d'un
proton ou, de façon équivalente,
l'opposé de la charge électrique
d'un électron. Elle est notée
». Cette tournure de phrase est
typiquement faite pour banaliser le rôle crucial de
l'électron. Nous allons voir que ce
n'est pas la seule tentative de banalisation.
Nos
éclaireurs
du siècle
dernier, avaient
compris que
l'énergie de masse de
l'électron (E
= m
c²) doit-être
équivalente à son énergie
électrique. Nous ne faisons pas d'équation ici
mais sachez qu'ils
attendaient
la même énergie avec : E
= f(e²/ro).
Mais catastrophe
(!), ce
rayon ro
dit
« rayon
classique »,
ne se mesure pas ! La
belle symétrie ne semble pas au rendez-vous !
La
démarche réductionniste
est mise en échec par la non égalité apparente,
entre l'énergie
massique (le
fameux
m c²) et
l'énergie
électrique.
La crise
est sévère ! Alors, faute
de mieux, on a déclaré :
« il ne faut
pas chercher à
comprendre le mystère
quantique.....» .
On
prête même à Paul
Dirac, cette déclaration « Shut
up and calculate ! »,
soit « ferme-la et calcule » !
Mais
le modèle
Oscar a-t-il
une
explication
à
ce grave manquement à la symétrie ? Oui
et nous verrons
qu'avec l'approche duale
{holisme + réductionnisme}, la
réponse devient
évidente. Sur le
BEC
fossile,
le
rayon ro
est juste l'intervalle élémentaire avant
l'annihilation du facteur
(1D) = 137,035999.... Après
annihilation, cet intervalle devient le fameux ƛe
,
que
l'on sait
mesurer. Autrement
dit, cette belle symétrie, initialement liée au
rayon ro,
est
maintenant liée à ƛe
. Le
lien [2]
le confirme par
une relation
bien connue.
Devant
cet échec, on s'est réfugié dans le
mystique en concluant :
« les lois de
la physique des particules, sont
impénétrables..... ». A
très petite échelle, la physique classique n'est
plus continue.
Elle est quantifiée pour toutes les particules. Et
monsieur
Planck de
proposer
sa constante de Planck, ħ.
Elle
convient tellement à
toutes les particules, qu'on en
a
« oublié » son
origine. elle
vient du seul
électron, tout comme la charge
élémentaire ! Elle est
donnée par :
ħ
= me
c
ƛe.
Alors on
s'est juste persuadé
qu'elle pourrait aussi venir du proton. Mais ce n'est pas
vérifié
du tout ! (on
verra même
qu'en cherchant cela,
on confirme la composition du proton en paire
électron-positrons).
On assiste alors
à un tour de passe-passe incroyable ! On
a deux éléments contradictoires :
a)
la charge
élémentaire, e
et la constante
ħ,
représentent
la brique élémentaire de toutes les particules.
b)
leur source
est
vérifiée
comme étant
l'électron
mais cela semble
interdit
par Gell-Mann et
Fermi.
Que
faire ? On a carrément éludé
la source électron.
Et
l'oscillateur dual dans tout ça ? Il est la
clé pour passer de
« rien » à
« tout » ! On a
éludé
l'électron comme brique élémentaire
alors qu'il est en plus,
l'aboutissement du dipôle. Revenons à notre
expérience de pensée
et à notre BEC
fossile. On a vu qu'il était
composé d'oscillateurs
appelés BODYS. La belle loi de
symétrie est là dans sa
plus simple expression. Deux dipôles –
confinés
dans le boson –
s'annulent parfaitement dans le référentiel
boson ! Et oui, il
n'y a pas d'espace, pas de temps, pas de masse, il n'y a
rien !
Attention ce « rien » n'est pas
une valeur absolue. Il
est « rien » dans le
référentiel boson. En revanche,
dans chacun des référentiels dipôles,
[M , L , T] sont bien
présents. Cela veut dire qu'ils possèdent les
ingrédients pour
osciller mais que rien ne
« transpire » à
l'extérieur.
Ce BODYS est la seule représentation du
zéro physique.
Tant que la saturation n'a pas eu lieu, le BEC-fossile,
composé de
ces bosons, est fantomatique. Avec les simples notions de
dualité,
confinement et référentiel, nous venons
d'entrevoir ce qu'est le
« rien » fondamental. Mais il
reste la question
cruciale : d'où viennent ces bosons, la cause
profonde ? Nous
allons répondre avec tous les détails
souhaitables. Mais avant, il
nous faut comprendre quelques points sur les erreurs
épistémologiques
de la physique fondamentale.
La
clé de l'oscillateur dual est fondamentale. Il existe une
égalité physique mal connue:
me
ƛe
=
mP
lP
=
ħ / c.
Elle compare
l'électron avec les unités de Planck [ML]
(dont on reparlera en détail) Elle est très
importante,
pour les raisons suivantes :
-
elle est
précise (ħ/c) ;
-
elle
confère un rôle central à
l'électron ;
-
elle indique que le produit [M.L] est
constant ;
-
elle
implique que [M.L] est indivisible ;
-
elle
est cohérente avec un mode oscillateur 1D, dans le cadre de
la dualité onde-corpuscule ;
-
elle peut se voir comme un moment d'inertie en 1D ;
-
la partie [L] du moment [M.L], est vectorielle.
Ainsi
les deux groupes en opposition peuvent s'annuler grâce au
caractère
vectoriel de [L]. Par ailleurs, si M → 0 alors L → ∞.
.
.
8. Les graves renoncements de
l'école de Copenhague
Résumons
la situation. La charge élémentaire universelle (e)
est objectivement, issue de l'électron. Le rayon classique
de
l'électron (non
mesurable
aujourd'hui),
provoque la
grave crise
de symétrie.
Monsieur Planck
sort sa fameuse constante ħ
= me
c
ƛe,
fonction de
l'électron.
Son
côté pratique fait
totalement oublier que son universalité vient de sa source
électron.
D'autant
que Fermi
et Gell-Mann, interdisent l'électron comme quanta ou brique
élémentaire du proton. Le
refus de la
dualité
{réductionnisme-holisme}
prive nos
anciens de
comprendre
ces point
essentiels :
a)
l'évolution du rayon classique vers le rayon de Compton, via
l'annihilation sur le BEC-fossile,
b) la loi de Fermi est
strictement
locale,
c) l'annihilation
originelle est parfaitement symétrique,
d) la non localité
– non
absolue – induit une dualité de vitesse finie, de
propagation.
Ce
dernier point, implique l'existence d'une vitesse supraluminique non
infinie et donc, l'existence des dipôles. Il
résout
également la
crise de l'inflation. On a sorti cette spéculation car on a
remarqué
que la température de l'univers était
homogène. On en a
déduit que l'ensemble de l'univers a
été un moment, en contact
direct, puis s'est étiré d'un coup, comme par
magie ! Et
pourtant, en faisant la simple expérience de
pensée (chapitre 4),
on évite cette transgression heuristique en
découvrant la simple
dualité de localité. Encore une fois, on se voile
la face en
croyant que la rigueur puisse être atteinte par la seule voie
réductionniste. Par définition, elle ne traite la
grande échelle
qu'à coup de spéculations.
La
voie du
monisme est tellement
ancrée
dans le genre humain, que l'on a rejeté la
dualité. On
s'est détourné des objets physiques du
réel, pour se jeter
éperdument dans la construction d'êtres
mathématiques.
Ces derniers,
manipulables à souhait, ont
permis
néanmoins de décrire
les expériences et même
de faire quelques
prédictions.
Les
empiristes se sont gargarisés de ces quelques
prédictions en
déclarant que la prédiction est le Graal du
physicien. A l'époque les protestations des
réalistes (comme
Einstein) n'avaient guère de portée car personne
ne mettait en
doute la validité de l'expérimentation locale. La
dualité de
localité n'était même pas
évoquée.
Revenons
sur l'affirmation : prédictions →
Graal. Passons sur l'aspect mystique, guère seyant au
physicien. La
mathématique est très douée pour
décrire correctement les
expériences et les liens logiques entre les
différents effets. Il est donc normal qu'elle puisse
aboutir
quelques
fois, à des
prédictions. Mais il arrive
souvent que les effets mesurés soient confondus avec les
causes.
Exemple :
Monsieur
Gell-Mann
constate avec
raison, une loi de construction des particules amenant sur la piste
des quarks. A ce stade on doit se poser la question : est-ce
un
effet ou une cause ? Homme
occidental,
dominant,
qu'as-tu
choisi ? Et
bien comme d'habitude, l'effet. Alors la cause qui induit
les quarks est passée à l'as. Cela
ressemble à la médecine occidentale : on
a beau dire depuis
des siècles, qu'il faut soigner les causes et dans
la pratique, on
s'occupe
surtout des
effets !
Chassez le
naturel et il
revient au galop...
Ces
quelques prédictions
sont émaillées d'apparitions
de nouvelles énigmes et de plus
de 18 paramètres
libres.
C'est quoi un paramètre libre ? Ce
sont des nombres, posés de manière heuristique,
pour combler les
trous d'incompréhension. Chaque fois
que les résultats démentent ce que l'on attend,
on s'arrange
avec un
nombre opportun
qui permet
de « résoudre »
à
tout prix.
La
déraisonnable efficacité
des mathématiques, règne
depuis l'école
de Copenhague,
en
contournant
certaines
lois fondamentales
de la
physique. Gell-Mann
a proposé les quarks comme composants des protons, en éludant
le fait
qu'ils pouvaient être
induits. Cet « oubli » est
d'autant plus suspect que les
quarks refusent de rester stables, lorsque l'on cherche
désespérément
à les isoler. Tout ce que
l'on peut mesurer va dans le sens de l'induction des quarks. Le
présent modèle montre comment nait l'induction
des quarks et ce, en
accord avec les observations.
Alors
la théorie quantique est entièrement
fausse ? Non elle
manque juste
de perspective concernant la dualité de localité.
Par exemple
le grand mathématicien Newton, a posé
une loi simple
sur la force qui attire deux masses, la gravitation : F
= G m1 m2
/ r². Cette loi est assez
vraie mais sa
validité est typiquement
locale. Elle ne prévoit pas que l'information de l'influence
des
masses puissent être limitée
par la vitesse de la lumière. Son
incomplétude
porte en elle
une notion d'infini. Tous
les
grands mathématiciens qui ont suivi cette
découverte, n'ont pas vu
ce défaut. Il
convient de
garder en tête que l'objet
univers, n'est
pas une
abstraction, mais du
domaine du réel physique.
Ensuite
Einstein a revu la
loi de
Newton
à l'aulne de la limite
c.
Là
aussi on a
oublié de prendre
en compte, la localité.
Il
n'a pas fait état des
limites du domaine
de
validité. Pire ! Par la
suite, on a
construit un
modèle d'univers où la cause de sa
matérialité a été
attribuée
à la gravitation ! Il y a encore des physiciens qui
croient
(sic) que des équations mathématiques ont
construit l'univers. Nous
montrerons que la gravitation est un effet
et non
pas une cause. Cependant
la vue d'Einstein
est bien
plus réaliste que celle de
Copenhague. Elle
tient compte
d'une propagation finie de l'effet gravitationnel. Elle
dit avec
raison, qu'une
densité
d'énergie,
courbe l'espace-temps. Ce dernier concept dit qu'en plus des 3
dimensions (x, y, z)
il faut rajouter une longueur sous forme de c t.
En terme de dimension physique, on voit de suite que
[L/T]
×
[T] =
[L].
En
revanche, elle ne dit rien sur l'aspect
physique de la
trame de
l'espace-temps. Einstein
a
cependant toujours dit que son analyse des effets, ne doit pas
être
confondu avec les causes de la gravitation. Sur ce point, il n'a pas
été écouté. Cachez ces
causes que je ne saurais voir !
Alors
vous allez me dire : « quelle est la cause
de la limite :
c = 300 000 km/s ? » Vous êtes
sûr que vous me posez
cette question ? Ah bon car personne ne se la pose (mis
à part
Einstein). Nous allons aborder cela dans le détail fouillé
du
fonctionnement
du BEC. En
attendant,
la capacité analytique des
mathématiques a permis
notamment, la construction d'une importante
équation (Schrödinger).
Elle décrit ce que l'on appelle la réduction
du paquet d'ondes. Elle
décrit
ce qui se passe lors
de l'opération de mesure de l'état d'une ou
plusieurs particules.
Une analogie peut approcher le problème : soit les
ondes
concentriques générées par un caillou
lancé dans l'eau. Dans cet
état (onde), elles sont réputées
être « partout à la
fois ». Ainsi, l'opération de mesure,
reviendrait à ramener
cet « éparpillement »
à l'impact du caillou qui a
produit ces ondes. Cela paraît fou mais nous verrons que dans
le
cadre du BEC (là où tout se joue), cela
est
possible. Pourquoi ?
Bon
déjà l'analogie
est limitée car elle suppose que les ondes (les rides sur
l'eau)
s'éloignent continûment. Dans la
réalité des
oscillateurs-dipôles du BEC, ces ondes partent et reviennent
(donc
oscillent) et la mesure se fait toujours dans le centre de
symétrie.
Attention, ce centre est mobile alors que dans l'analogie, l'impact
du caillou est figé au
centre.
Mais
cette belle équation est tout aussi incomplète
que celle de
Newton !
Comme
d'habitude
ces concepteurs
ont ignoré
la localité. Cette équation
ne précise
pas la vitesse de
propagation de l'information. Mais
certains
physiciens profitent
de cette incomplétude pour croire (sic) que
l'opération se fait à
vitesse infinie ! Quelle
folie ! Il
existe enfin,
une autre équation, liée à
relativité générale. Elle construit
un facteur (gamma :
γ)
d'étirement du temps ou de la masse quand la
vitesse v, d'une
particule massique, s'approche
de la
vitesse limite,
c.
Elle s'écrit :
γ
= 1/(1
–
v²/c²)1/2.
Dans laquelle on voit que si (v²
/ c² =1),
on obtient zéro au dénominateur et donc un taux
d'étirement
infini ! Cette
relation est exacte mais il lui
manque
juste
une
limite physique bien précise. On
en reparlera.
Conclusion
épistémologique :
L'école
de Copenhague, foncièrement réductionniste, a
ignoré la dualité
de localité.
Ses disciples ont été choqués par
l'expérience de monsieur
ASPECT, dans les années 80. Ils sont
médusés par celle, récente, des
chinois, qui mesurent une vitesse non infinie entre deux
événements
de non localité.
Tableau
8-1
points
divergents
|
modèle
standard
|
modèle
oscar
|
dualisme
|
peu
évoqué
|
la
clé universelle
|
dualité
de localité
|
non
localité avec propagation instantanée.
|
la non
localité possède une propagation supraluminique
mais limitée
|
ratio :
Coulomb / Grave
|
Compare
l'électron avec le proton, 1836 fois plus massique.
(vélo contre camion)
|
compare
l'électron avec le positron qui est en tout point
symétrique
|
Force
Gravitationnelle de Newton
|
accepte
l'éventualité de
l'instantanéité entre deux masses distantes
|
propagation
strictement limitée à c
|
intrication
des états
|
accepte
l'instantanéité de l'information
A
→ B
|
information
A → B donnée par dipôles supraluminique
mais
à vitesse limitée
|
coefficient
relativiste
γ = 1/(1 –
v²/c²)1/2
|
relation
qui accepte l'infinie
si :
v = c
|
relation
exacte mais avec la limite ξ
(vérifiée
avec les rayons cosmiques)
|
rayon mini
de l'électron
|
accepte
l'augure de : r = 0
|
longueur
de Compton / ξ
|
notion
d'infini
|
est
acceptée en physique
|
ne
concerne que les nombres
|
dichotomie
fermion-boson
|
sans
critère de localité
|
non
localement, tout est boson
|
proton
(composite)
|
pas de
véritable modèle physique
car pas de
dichotomie de localité
|
non
localement stable et condensat de paires électron-positrons
|
masse de
Planck (mP)
|
simple
argument dimensionnel
|
vaut ξ²
masses d'électron
|
constante
de Planck (ħ)
|
source
universelle non définie
|
représentant
l'électron qui est universel
|
La
dualité onde/corpuscule, base importante de la
théorie quantique,
est une réminiscence du BODYS qui est
à la base de tout. La
quantification de l'univers est donnée par ħ
dont
l'électron
est le seul représentant. Le
ratio Colomb / grave
est
donné dans la relation [2].
sommaire
9. Premier aperçu du
« rien »
dual, le BODYS
Sur
la base de ce que nous avons vu au chapitre 4, nous allons
découvrir
l'extraordinaire pouvoir de la dualité, dans son plus simple
appareil.
Les BODYS (1D) matérialisent le BEC
(sphérique)
originel. On a dit qu'ils étaient tous
synchronisés. Ils quittent
le point zéro commun par couches entières pour
revenir ensuite et repartir. Bref, ils oscillent de concert.
Premières questions :
pourquoi sont-ils synchronisés ? D'où
sortent-t-ils ? Combien sont-ils ? Toutes ces
questions sont légitimes. Il
faut d'abord bien comprendre ce qu'est un BODYS 1D.
Une
notion essentielle à intégrer est celle du
confinement et du
référentiel. Les
deux dipôles existent réellement, mais
chacun dans
son
référentiel. Mais étant
liés par leurs charges électriques, ils
s'annulent parfaitement.
Donc dans les référentiels
« dipôle » on a [M L T Q]
et [M' L' T' Q']. Mais dans le référentiel boson,
la somme des
deux, s'annule parfaitement. D'accord, on obtient un zéro
parfait
mais pourquoi ne pas prendre un zéro absolu tout
simple ? Parce
que toutes les lois physiques nous disent que tendre vers
zéro
provoque l'infini. On appelle cela la dispersion. Mrs Heisenberg dit
que si une valeur de
position (x) tend vers zéro alors l'impulsion (p) tend vers
l'infini ! Rappelons-nous (tableau 6-1) l'impulsion
s'écrit [M
L/T] . Cette loi incontournable pose cependant un problème.
Si on
raisonne en oscillateur simple, alors d'où sortirait
l'impulsion [M L/T]? Du chapeau d'un magicien ? On
voit de
suite que la seule solution est duale. Matière et
antimatière
peuvent exister mais à la condition expresse qu'elles
s'annulent dans le référentiel boson.
On
obtient un véritable
« rien » physique
mais il se pose un autre problème... Qui a fixé
la période bien
précise de ces oscillateurs ? Qui a fixé
les valeurs précises
de M, L T ? Pire ! Qui a fixé leur
nombre ? C'est là
qu'intervient la notion de dualité des états de
l'univers. Avant
d'avoir un BEC bien synchronisé, bien sphérique,
il existe un état
d'univers totalement anarchique ! On l'appelle
l'état
stochastique. Le point commun qu'il a avec le BEC fossile, est
l'annulation stricte de [M L
T]. La
notion de dispersion
vue plus haut, dit que si
la position
x
tend vers 0, alors
on tend
vers une infinité
d'impulsions possibles. Cette
loi nous dit clairement que le zéro physique est dual. Il
est fait
de deux impulsions contraires. Le spectre de leur valeurs possibles,
est infini. Or la dimension de l'impulsion [M
L/T]
comporte bien les 3
mousquetaires de la physique. Au chapitre 7 on a vu que Q
= f(ML). Donc
on a bien de quoi
osciller [M
L/T] dans
le référentiel dipôle, tout en
garantissant un
vrai zéro, dans le
référentiel BODYS.
référentiel
dipôle (+)
|
référentiel BODYS (0)
|
référentiel
dipôle (–)
|
+ [M L/T]
→ Q+
|
0
|
Q– ←
– [M L/T]
|
La
loi de dispersion indique que le zéro absolu est interdit
car tendre
vers zéro, revient à créer un
potentiel infini de deux impulsions
contraires dont la somme est un zéro relatif. L'interaction
des deux
charges (Q), est le lien qui attache les deux belligérants.
Ce lien
est la garantie d'une énergie strictement nulle. Il n'y a
pas de
banque occulte d'énergie.
Cela
veut dire plusieurs choses : a) seuls
les zéros
relatifs élémentaires,
sont
autorisés ;
b) donc chaque zéro potentiel
élémentaire, génère un
oscillateur
dont l'impulsion est différente ; c) comme
l'espace, le temps,
et la masse, sont annulés (boson
du zéro),
chacun évolue
dans son « monde
fantôme » (le
référentiel
boson).
Ils ne sont pas connectés entre
eux.
Combien sont-ils ? Déjà on peut dire
qu'ils sont indénombrables. Mais peuvent-ils
être en nombre infini ? La réponse est
dans la question ! Si ce sont des nombres sans
matérialité et donc [M
L T] = 0,
alors oui, on a le
droit de parler d'infini. D'ailleurs, c'est la seule solution,
puisque on
ne peut définir
une limite. L'infini
des
zéros, oui mais surtout pas l'infini des
paramètres physiques. Qui
aurait payé l'addition ?
Mais
à quoi ressemble l'espace-temps à ce
stade ? A rien ! Les
zéros fluctuant restent à zéro et ne
sont pas connectés. Chaque
espace 1D est
annulé mais
l'ensemble forme un espace virtuel indéfini.
On a un monde de zéros invisibles qui grouillent et ce, sans
écoulement du temps. Dans le
BEC limité, sphérique et synchronisé qui
sera formé, l'espace est
virtuellement en 3D. On a même une constante de temps, source
de la
quatrième dimension, avec sa vitesse limitée.
Mais dans le stade
stochastique, l'empilement virtuel est infini et il n'y a donc pas de
centre. Imaginer un déplacement, d'un point zéro
à un autre est
impossible car la géométrie 3D est en devenir.
L'entropie de
désordre est à son maximum.
Mais
de
quoi sont
faits ces BODYS-zéros ?
D'où vient la
masse ? Attention,
cette
dernière question est
biaisée.
En
effet, nous avons entrevue l'idée que le produit [M
L] était
initialement indissociable. Il est constant pour les
particules :
a) de Planck ; b) de l'électron ; c) du
dipôle ; d)
des leptons ; d) du proton (sous certaines conditions de
groupe). Cela veut dire que la notion de masse est une fonction
inverse de son amplitude d'oscillation. C'est cela qui valide la loi
de dispersion de Heisenberg ! Aux limites, une dispersion [L]
nulle, donne une masse [M] infinie. C'est pour cela que le
zéro
absolu
physique ne peut exister. On peut même dire qu'un oscillateur
ayant
une masse infinie... ne pourrait plus vibrer et donc ne serait plus
un oscillateur. Cette loi, avec
la symétrie duale, sont
les
seules
lois
du « rien » de l'univers. Alors
pourquoi forcément
osciller ? La raison est simple : l'oscillation
stochastique possède un potentiel de spectre infini de
période
propre au cycle en cours. Cela est permis
car c'est le nombre de possibilités, et non pas le temps,
qui est
infini. Ainsi, l'oscillation permet le caractère
statistique que n'a pas la contrainte de la valeur unique.
Celle-ci serait choisie par qui ? Cet aspect mystique est
incompatible avec la démarche scientifique.
Alors de quoi est fait
le BODYS ? A
ce stade
d'univers,
il est la seule réponse (oscillante
et duale),
pour contrer un zéro statique impossible. Pour osciller, il
a besoin
d'un doublet [M L + M' L'], totalement arbitraire et
de somme nulle.
Le BODYS est la cause profonde de la
dualité
onde/corpuscule, il matérialise
le zéro
physique. Ce zéro
n'est pas du tout celui
des mathématiques.
On donnera
plus loin, la preuve que le temps (interne et confiné) est
induit
par [M L], tout comme la charge. Attention à ce stade
« vrai
vide » d'univers, la solution moniste, consistant en
une
fluctuation du zéro (à droite et à
gauche), n'est pas valide. Elle
implique un crédit
d'énergie
qui n'est justifiable que dans le cadre du « faux
vide »
de nos expériences. Tout le monde peut comprendre cela et
pourtant,
certains physiciens (réductionniste) spéculent en
prêtant des
vertus locales, au « vrai vide ».
Sommaire
10. Le flux de synchronisation
forme le BEC fossile
Que
disent les statistiques ? D'abord que ces BODYS
ne sont pas « non connexes » mais
« statistiquement
non connexes ». Cela veut dire qu'il existe une
chance
extrêmement faible pour que des
« points zéros » se
superposent en se synchronisant. Si
le temps s'écoulait, il faudrait des milliards de milliards
d'années
de
combinaisons hasardeuses,
pour avoir
un début de
synchronisation.... Mais justement, le temps ne s'écoule
pas !
Ouf !
Alors
quel que soit le nombre de fluctuations nécessaires,
les combinaisons amenant le
flux de
synchronisation, sont
forcées de se produire ! L'univers a horreur du
vide et c'est
pour cela que nous sommes
là
pour le vérifier. L'univers
part bien du
« rien » dual.
Il
existe donc un flux de synchronisation, des BODYS. Que font des BODYS qui se synchronisent ? Ils forment un condensat
de Bose
Einstein (BEC). Notez qu'il existe des études qui
démontrent que
tous les
types
d'oscillateur, sont irrémédiablement
attirés par la
synchronisation. Cette loi nous vient de monsieur Huygens (avec ces
horloges qui se synchronisent comme par magie). Elle a
été étendue
à tous les oscillateurs, y compris aux oscillateurs
quantiques. Il
faut bien voir que cette phase d'univers voit son désordre
décroître
(entropie décroissante). Donc le BEC voit sa
densité augmenter
jusqu'à ce qu'il soit saturé. C'est
bien ce qui a
été évoqué
au chapitre 4. L'entropie
(comme tout le
reste) est duale car le
flux
de synchronisation inverse sa tendance. L'encours de
désordre,
progresse maintenant vers l'ordre. Range ta chambre !
Comment
naissent les constantes ?
Au fur et
à mesure de la
fusion des points zéro, s'opère une moyenne entre
les valeurs
aléatoires. Cette moyenne, totalement aléatoire, fixe
la
constante [M L]. Elle fixe
également un ratio
universel : je l'ai
appelé ξ,
lettre
grecque qui se
prononce xi ou ksi.
Ce ratio est
égal à 1,54
× 1011. Ce
dernier est omniprésent en physique et notamment en [2].
Dans
l'infinité de l'univers
stochastique, il se forme donc un BEC. Son point zéro commun
ne
peut-être situé. Il n'a pas de
coordonnées spatiale car il
n'existe pas de centre. En revanche, le point zéro commun
est bien
au centre du BEC en création. On
a les constantes suivantes :
Tableau
10-1
paramètres
|
dipôle
|
intervalle
couche
|
sphère
zéro
|
RE
|
RBEC
|
genre
espace
|
ƛo = L / ξ4
|
ƛe = L / ξ3
|
ƛpz = L / ξ2
|
L / ξ
|
L = 1,42 × 1021 m
|
genre
temps dipôle
|
to = te / ξ4
|
|
|
|
te = 1,28 × 10–21 s
|
genre
temps électron
|
|
te = 1,28 × 10–21 s
|
|
|
|
genre
nombre (2D)
|
|
|
ƛpz² / ƛo²
= ξ4
|
|
(ƛpz² / ƛo²)
to / te = ξ8
|
Les
ξ4 dipôles
sur la sphère du point
zéro, émis dans un cycle
to
, (ξ4
fois plus grand)
permettent d'alimenter les ξ8
dipôles de la couche à pleine amplitude. Comme il
y a
ξ3
couches, le nombre total est de
ξ8
×
ξ3
= ξ11 dipôles.
Ce tableau devient
complètement compréhensible
en lisant le chapitre 11. On note que ce BEC fossile (à
saturation)
n'est pas isotrope car son intervalle tangentiel est ξ
fois plus petit que son intervalle
radial. On verra
plus tard la signification de la colonne RE .
Le dipôle est à la fois local et non
local ! Il a
ainsi,
deux constantes de temps et deux d'espace (en bleu ci-dessus).
sommaire
11. Comment fonctionne le BEC
fossile
avant saturation ?
Sur
la base de ce que nous avons vu, le
flux de synchronisation vient grossir les rangs du BEC. Avant
saturation, il n'y a toujours pas d'écoulement
du temps et
pas
de masse.
L'espace global
3D est
virtuel. La
sphère du BEC possède un rayon R stable puisque
matérialisé par
tous les oscillateurs
dipôles
synchronisés. Il
est virtuellement formé par la somme des couches (2D) de
dipôles
(1D), soit 3D. Pour
fixer les
idées, le modèle montre que le rayon du BEC est
d'autant plus
grand, que la masse (confinée) du dipôle est
petite. On a
déjà vu
que l'électron (ex-dipôle) est la
référence universelle.
Ensuite sur
la base [2],
on a le
rapport massique : électron / dipôle : ξ3
= 1033.
Le rayon de Compton de l'électron (ƛe
= 10–13
m)
a pour image cosmique
dans le BEC :
RBEC
= 1021
m. C'est
la taille
d'une galaxie ! Les dipôles
très légers sont très
très longs ! Et, cerise sur le gâteau, le rayon
RE,
du tableau 10-1, correspond à la taille d'une grosse
étoile
primordiale ! On en reparlera.
Ainsi,
le BEC fossile
possède ξ3
= 1033
couches, chacune espacée d'un
intervalle radial de :
10–13
m.
Il existe une
contrainte d'isotropie de densité qui implique in
fine,
que l'intervalle tangentiel devra être égal
à l'intervalle radial,
(10–13
m).
Mais le
lien [2]
impose que
lors de la
saturation, il existe ξ4
= 1044 dipôles sur la
circonférence. Cela
veut dire que la saturation est la limite où les BODYS se
chevauchent. Ainsi, la taille transverse (épaisseur)
des
dipôles est plus
petite de celle de l'électron du ratio ξ.
Ce ratio joue un rôle très précis plus
tard. Mais pour le moment,
il nous suffit de savoir que les relations
[2]
montrent que la première couche du BEC fossile,
est saturée d'un facteur ξ
(en
1D).
On en déduit que
la surface élémentaire (2D) est alors ξ2
fois trop petite.
Mais
que se passe-t-il
dans le
BEC, avant
saturation ? Prenons une analogie avec un jongleur.
Il a une (petite) partie des balles dans les mains et la
majorité
est en vol.
Cette analogie est intéressante car les balles ralentissent
sous
l'effet de la gravitation. La
décélération est en 1/r².
Dans le BEC il n'y a pas de gravitation mais juste
l'attracteur
du point zéro
commun. La vitesse des
balles
du jongleur est telle que la densité baisse comme la
vitesse. En
effet, elle
sont serrées
dans les
mains puis
elles s'écartent
largement en
vol.
Cet effet existe
sur
la surface des couches du
BEC, qui
augmentent en R².
Cela veut
dire que les
intervalles auraient tendance à augmenter avec la croissance
des
couches ! Mais ce n'est
pas le cas puisque la vitesse varie en 1/R². Donc
la densité reste constante !
Mais
qu'elle est la conséquence de cette
régulation ? Les dipôle
de chaque couche, ont tendance à combler la couche qui la
précède.
Sans faire de math, on comprend que l'intervalle
élémentaire double
chaque fois que le rayon double. Comme la surface augmente en
R² et
que la vitesse varie en 1/R², alors la densité
reste constante dans le BEC. Mais pour combler
les trous,
il faut s'écarter en balayant une surface. Cela implique
pour
chaque dipôle, une trajectoire
hélicoïdale.
Ainsi, une certaine rotation est intrinsèque à
chaque BODYS. La notion de spin, habituellement
attribuée aux
particules, est en fait, un effet relatif au couplage avec les
dipôles. Les particules en révèlent le
spin. On
verra comment et
pourquoi ce spin est quantifié (0, 1/2, 1) fois la valeur de
la
constante de Planck. On verra pourquoi il existe une gêne
concernant
ce terme de spin. Car voulant dire
« rotation », on tombe
sur une contradiction avec la limite c. Alors,
comme pour le
rayon classique, on a transformé cet effet physique bien
réel, en
un être mathématique des plus docile. Cet
être abstrait contourne
toutes les contradictions (apparentes) de la physique. On est toujours
dans
ce réflexe d'évitement du
réel !
On
a vu que le rapport des rayons entre un intervalle
élémentaire et
le BEC entier, est de : ξ3
= 1033. Donc le ratio de vitesse est du
même ordre :
la célérité du dipôle est
égale à : co
= c ξ3.
On peut voir que le produit vitesse × masse du
dipôle est
égal à
celui de l'électron. Cela veut dire que l'impulsion
intrinsèque
d'un dipôle séparé (changement de
localité) deviendra un
électron. Il suffit pour cela d'évoquer la
constante [M L]. Voici
l'image la plus réaliste qui soit : quand on
« regarde »
le dipôle dans son ensemble (BEC), sa masse est petite. C'est
exactement la dualité
« onde/corpuscule » qui a tant
surpris dans le passé. Le dipôle est la cause que
tant de
physiciens ont vainement cherchée. Mais quand on
« regarde »
le dipôle dans l'intervalle qui le sépare
des couches suivantes, sa masse est celle de l'électron. Le
terme
« couches suivantes » est
très important car il
détermine la trame de l'espace-temps (3D) dans lequel vont
baigner
les particules de matière crées sur la
première couche !
Alors, il ne faut pas s'étonner du couplage fondamental qui
existe
entre ces deux milieux. Vous avez dit dualité ?
La
cause de la vitesse de la lumière c, est
du même ordre.
Comme la période du dipôle est égale
à celle de l'électron,
alors la traversée d'un intervalle dans ce temps
élémentaire te,
est égale à : c =
intervalle / temps élémentaire.
Cela revient exactement à : co
=
rayon BEC / temps élémentaire. Il y a
ici une subtilité :
pour qu'un dipôle communique avec son voisin (intervalle
élémentaire), il lui faut toujours passer par le
point zéro
commun. Il n'a pas d'autre connexion possible. Ainsi la
rapidité du dipôle ne lui sert guère
puisqu'il est obligé
d'augmenter d'autant
son trajet. Ceci est la cause profonde de la limite c.
Les
expériences sur l'intrication, ne disent que cela !
Cela veut
dire que tous les dipôles du BEC, sont reliés
entre eux.
Ils sont
le substrat d'un véritable computer géant. Leurs
états propres ne
sont pas (0 ou 1) mais varient continûment (analogique). En
revanche, leur rotations hélicoïdales sont binaires
et appariées.
Et on sait le mesurer.
Sommaire
12.
Aparté
sur le théorème d'incomplétude de
Gödel
Un
lecteur me fait remarquer l'importance de l'incomplétude de
Gödel
en mathématique. Il m'a invité à
visionner son interview
de Didier GUIGNARD. Ce dernier indique notamment le
phénomène
d'auto-référence induit par la
mathématique. Gödel parle des
écueils d'indécidabilité qui
s'empilent jusqu'à créer des
« boucles étranges »
dans lesquelles la démonstration
se mord la queue. Voici la tenue de mon mail retour :
Bonjour
Monsieur Anicet Blaise OKANA,
J'ai
écouté avec grand intérêt
votre interview de Didier
GUIGNARD sur
le théorème d'incomplétude de
Gödel. J'ai apprécié une
grande partie de son discours et notamment sur le thème de
l'ordinateur, qui manque cruellement de
sémantique. Je fais un parallèle avec
la mathématique, plutôt
destinée à décrire la physique
plutôt que de l'expliquer.
En revanche, son discours ne cite pas les clés
essentielles de la dualité :
description/explication ; localité/ non localité.
C'est dommage car sa question posée sur l'univers
: continu ou discontinu, est mal posée. L'univers est
à la fois continu ET discontinu. Le meilleur exemple est
dans cette question : la particule est-elle une onde ou un corpuscule?
Réponse : les deux et donc ET et non OU !
Autre point qu'il a bien expliqué : la notion de
cohérence en mathématique est limitée
au seul évitement de la contradiction. C'est vrai, elle se
moque du réel. Alors que la notion de cohérence
en physique est à la fois, l'intensité du
faisceau d'indices et son taux de convergence, le tout
donné par la confrontation
théorie/expériences et ce dans la rigueur de la
dualité de localité. On ne joue pas dans la
même cour.
La dualité physique de base, est dans la
définition du zéro ou du "rien" : le
zéro absolu mathématique / le zéro
dual physique. La grande erreur de l'école de
Copenhague, tient dans cette confusion, cet amalgame
!
Ensuite il y a ce fameux triangle d'Einstein : Physique ; esprit
; mathématique. Je défends
Einstein tout au long de mes écrits, mais pas dans ce cas
précis. D'ailleurs Didier GUIGNARD l'a dit
lui-même : "tout est physique, nous sommes tous les fils de
l'univers". Je démontre que ce triangle est en
fait une arborescence : Physique (donc univers) → esprit
→ mathématique. La mathématique est une
branche de la physique. Les mathématiques n'expliquent
absolument rien en physique, elles ne font que la décrire.
Cette confusion est typiquement occidentale. Elle passe souvent
inaperçue car sur la seule base de la description, on peut
faire des prédictions. Il y a là un
côté pervers, une confusion classique entre cause
et effet.
On dit que la prédiction est le Graal de la physique. Mais
en réalité le but ultime est de comprendre bien
plus que de décrire. En fait, avec les deux, les
prédictions ne s'accompagnent pas de
révélation d'énigmes nouvelles, car au
contraire, elle en résout. Là aussi, on ne fait
jamais de bilan (voir la liste des 53 énigmes
fondamentales).
Apparemment vous avez lu l'encours de rédaction de mon
second livre. Si c'est le cas, vous avez vu quelle place occupe pour
moi, la dualité universelle et notamment, celle
portant sur la localité. Sur ces seules bases, je
démontre que la mathématique est non seulement
incapable de comprendre l'univers mais en plus, qu'elle est source de
confusions multiples. La seule (et belle) vertu de la
mathématique est de décrire (correctement) ce que
le physicien est arrivé à comprendre.
La mathématique ferme (rigoureusement) la marche
de la physique et ne sait pas l'ouvrir. Il est même
très dangereux qu'elle le fasse. Elle invente des
êtres mathématiques, puis leurs auteurs ont
tendance à les confondre avec des objets
physiques.
Ainsi la question : qui a commencé, la physique OU
la
mathématique, n'est pas pertinente
car les deux
sont indissociables. La mathématique est une
branche de la
physique et notamment, les lois statistiques. Le zéro dual
physique se conjugue dans ces conditions. La seule loi primordiale
n'est pas une hypothèse. Elle est la suivante :
1/ Le zéro ou "rien" physique ne peut pas être
statique (sous peine d'infini, de constantes
prédéfinies et de non
évolution).
2/ La dispersion de Heisenberg dans le cadre dual, ne peut
exprimer que des zéros physiques, sous la forme
d'oscillateurs duaux stochastiques.
3/ L'existence la physique est basée sur la dispersion de
Heisenberg dans le cadre dual (deux impulsions contraires).
4/ il existe un attracteur fondamental, la synchronisation,
lié aux statistiques et à l'entropie. Le tout est
dérivé du principe de l'action nulle duale.
Ce dernier principe (ADN = Action Nulle Duale) est la
généralisation non locale du principe de moindre
action. Espérer la rigueur dans la seule
localité (hors de la dualité de
localité) est un leurre dans lequel sont tombés
les maîtres de l'école de Copenhague.
Toutes les lois (1, 2, 3, 4) appellent des notions de statistiques que
les maths décrivent très bien. MAIS je montre
qu'elles découlent de lois physiques. Quand Didier GUIGNARD
dit que l'univers porte en lui du hard + soft, il a raison
puisque tout est dual ! Mais ce soft n'est pas d'essence
mystique. Il est la conséquence (fouillée et
complexifiée) des points (1, 2, 3, 4) découlant
de la première loi physique : la
dualité que l'on peut qualifier de : "symétrie
dans le plus simple appareil".
PS :
je rajoute ici une réflexion sur le modèle
mathématique de
Riemann. Le champ spéculatif des mathématiques
est tellement vaste,
qu'il a pu construire une géométrie munie d'une
courbure
intrinsèque. La motivation est grande puisque Einstein nous
a dit
(avec raison) que l'on peut lier la notion de courbure à
celle de
densité d'énergie. Mais encore une fois la
« déraisonnable
puissance des mathématiques » ne fait que
confondre les effets
et les causes. Premièrement la
géométrie n'est qu'une conséquence
de la matérialité de l'univers. Il
possède une trame de BODYS qui, pour des raisons de
symétrie
perturbée, se
déforment, se courbent ! Donc en
résumé ; Sur les effets
d'Einstein (pas les causes mais lui en était conscient),
Riemann,
plutôt que de chercher les causes, rajoute une couche de
spéculation. Il ne faut donc pas s'étonner que
des « physiciens »
pensent que l'univers est fait d'équations abstraites. Et
quand
maintenant, on mesure une accélération
(localement) alors le
réflexe est de rajouter une constante dans
l'équation..... On
marche sur la tête ! Puis récemment, on
constate que
l'univers n'a pas de courbure intrinsèque !
Comment ??
Alors que fait-on ? On pouvait juste convenir que la
spéculation mathématique est fausse et que le
monde est bien
euclidien (géométrie classique). Et bien non, on
préfère rajouter
deux autres étages à la fusée
spéculative, en disant : « les
équilibres de l'univers sont magiques car la fin de
l'expansion se
situe pile à l'infini...». Outre l'aspect mystique
(jamais bien
loin), on nous ressort cette notion d'infini qui n'a rien à
voir
avec la physique. On est en plein dans les boucles étranges
de
Gödel ! Et tant qu'à faire, on en rajoute
tous les jours !
C'est gratuit et facile ! La spéculation est le mal
du siècle
et ce, dans tous les domaines.
Sommaire
13. Saturation
du BEC fossile
et
annihilation
Le
flux continu de synchronisation amène forcément
la saturation. Elle
commence forcément par une première couche. Les
masses et charges
des dipôles voisins de la première couche, se
superposent.
La
conséquence est l'alourdissement des oscillateurs (donc
baisse de la
fréquence). Mais il y a pire ! Si les masses
s'additionnent
d'une manière scalaire, les charges + et –,
voisines,
s'annulent algébriquement par superposition. Donc
non seulement
les oscillateurs perdent leur fréquence mais en plus, ils
perdent
leur lien radial intrinsèque. Les BODYS, se
déchirent !
C'est un changement radical de localité !
Que
font les dipôles séparés, de la
première couche ? Pour bien
comprendre, il faut revenir au chapitre 11. Il est dit que la masse
du dipôle est fonction de l'inverse de son amplitude
spatiale. Cela
est confirmé par le fait que [M L] est une constante. C'est
une
autre facette de la fameuse dualité onde/corpuscule. Ici le
corpuscule est le point zéro commun et l'amplitude de
l'onde, est le
rayon du BEC. La connexion à tous les autres
dipôles,
s'établit
lors de l'état corpuscule. La mesure locale est une sorte de
connexion d'où la fameuse réduction du paquet
d'onde. Tout ce qui
apparaît magique dans la théorie quantique, n'est
que le reflet du
comportement des BODYS.
Ainsi
les dipôles de la première couche, perdent leur
grande
amplitude,
relative au [L] du BEC. Ce qui les sépare de toutes les
autres
couches, est limité à l'intervalle
élémentaire. Cet intervalle
est ξ3
fois plus petit que le rayon du BEC. En somme, la séparation
de la couche suivante,
revient à celle de toutes les autres couches. Ainsi
le [M] est multiplié par le même ratio, ξ3 !
Les dipôles (+/–) confinés, sont devenus
des
paires
électron-positrons séparées.
Plutôt que d'osciller sur le très
grand RBEC = 1021
m,
l'ex-dipôle (électron-positron), oscille
maintenant sur la
longueur de
Compton : ƛe
= 10–13
m. Tout est oscillateur !
Que
font les paires
électron-positrons séparées ?
Mais
sont-elles
vraiment séparées
? A cet instant précis, beaucoup
d'événements se précisent.
Il y a
d'abord
l'annihilation,
évoquée au
chapitre 7. Sa
cause est le
ralentissement dû
à la
transition des dipôles
de la
première couche. Il
met en péril la séparation. Une grande partie des
paires
électron-positrons, est annihilée. Le taux
d'annihilation est
typiquement arbitraire. Il vaut :
α
(alpha)
= 137,035999....
qui précise
l'hécatombe ! Seul un sur 137, est
conservé.
Mais attention
cette annihilation primordiale est strictement symétrique,
contrairement à ce que laisse entendre le modèle
standard. Comment
peut-il en être autrement ? L'existence
même des particules,
dépend de leur dualité symétrique. Mais
les paires séparées, le sont-elles
vraiment ? Et bien non car
se serait trahir le fameux
« rien » à partir
duquel,
tout s'est
construit.
Quel
est le nouveau lien entre
les
paires radialement
séparées ?
Avant d'être séparées, elles
étaient des dipôles liées
radialement par leur charge respective
élémentaire. Mais maintenant
que les
paires se
trouvent réparties sur l'aire
de la
première couche, leur
seul lien est collectif
et
tangentiel.
Chaque particule
est liée – via toutes les autres –
à son alter ego,
situé
à
l'opposé (demi
circonférence). Ainsi, la charge
élémentaire e,
admet 2 composantes :
a)
propre à [ML] avec un signe
+ ou – ; b) la seconde composante –
purement attractive –
résulte
de la
division par
le nombre de paires présentes sur la demi
circonférence du BEC. Le
lien [2]
nous dit
que ce nombre (1D)
est ξ4
= 1044. Cette composante, purement
attractive, est la gravitation.
Cela veut dire, qu'avant annihilation, la surface (2D) comportait ξ8
= 1089
paires
dont la plupart
ont été annihilées. Cela veut dire que
ξ8
= 1089
photons
ont été émis
sur la surface du BEC. C'est
justement en accord avec les
estimations !
Sommaire
14. Gravitation
et
matière noire, une cause commune
Le
chapitre précédent donne la cause de la
gravitation. Elle peut
s'interpréter comme une transition entre des liens radiaux
individuelles vers un lien collectif avec gradient angulaire. Sa
dualité est directe : chaque intervalle
élémentaire et chaque
particule, porte un faible gradient de la charge électrique
qui
devient donc la charge gravitationnelle. Encore une fois, ceux qui
s'intéressent aux causes (ils ne sont si pas nombreux)
peuvent
tomber dans le piège du monisme. Certains disent que c'est
l'espace
élémentaire qui porte le lien gravitationnel et
d'autres disent que
ce sont les particules. Non ce sont les deux ! Mais
en plus, il existe une autre
dualité : a) la composante du faible gradient de
charge électrique, toujours attractive
(gravitation) ; b) la
charge électrique de chaque particule
élémentaire (électron ou
positron) selon : e² = f(me
ƛe).
Cette dernière comporte un signe (+ ou –) qui rend
attractif ou
répulsif. Ainsi, la loi du «
rien » est conservée
puisque la gravitation, toujours attractive, est sensée
permettre à
terme, de réunir les opposés
symétriques dans le
« rien »
originel ! On réalise ainsi, la
naïveté d'une expansion
infinie qui conserverait infiniment les énergies. Voir relation [2]. Cette relation
permet de faire une prédiction de la valeur G
à : 6,672420815020130 × 10–11 m3 / kg /
s². Cela est compatible avec la
dernière mesure faite en 2010 par Faller soit : 6,67234(14)
× 10–11
m3 / kg / s². La
valeur entre paranthèses(14) indique l'incertitude sur les 2
derniers chiffres (34). Ainsi notre prédiction est
largement comprise dans la fourchette de sa mesure.
La
matière noire découle directement du gradient de
charge sur la demi
circonférence du BEC. Elle est inséparable de la
gravitation !
On a vu que l'annihilation n'est complète que si la
rencontre
concerne 2 particules opposées (180°). Il est ici
utile de revoir
l'expérience de pensée du chapitre 4. L'angle
entre les opposés
est de 180° ou π.
Donc π
donne une annihilation complète (binaire), si rencontre il y
a. Dans
le cas de π
– c'est
le cas locale
– les
particules élémentaires passent de 1 à
0 ! La brique
élémentaire disparaît et devient photon
sans masse. Mais que se
passe-t-il si l'angle est plus petit que π
? Ce n'est pas possible
localement.
Mais à grande échelle, c'est possible lors d'une
collision de
galaxies. Les belligérantes sont de sources
différentes. Elles
forment un angle θ
relatif
non nul : θ
<
π.
Ainsi
l'annihilation se fait proportionnellement à cet angle. Elle
n'est
pas binaire (0 ou 1) comme localement mais analogique (toutes les
valeurs comprises entre 0 vers 1). Cela va
dégénérer les briques
élémentaires en
« gravats » informes. Ce seront
des
débris d'électron-positrons. La quantification
est brisée. Ces
« gravats » sont totalement
stériles pour construire les
atomes bien visibles, de la matière ordinaire. C'est
la matière noire !
Elle
ne représente plus qu'un large spectre d'ondes
éparses, comme des
parasites ou
bruits de fond. Or l'expérience DAMA
détecte une
variation périodique des bruits de fond. Comme c'est
bizarre. On sait que les collisions de
galaxies sont légions dans le passé. On observe
couramment des
nuages
de matière noire à chaque collision !
Dans les
chapitres à suivre nous allons parler, entre autres, de la
mitose
fractale qui, par définition, favorise les collisions. Or
ces
dernières sont bien observées à grande
fréquence, dans le passé.
Découvrir la cause de la gravitation, lève le
voile sur la matière
noire.
Mais
que deviennent ces gravats informes au fil de l'expansion ? On
verra que l'expansion se termine par une coquille 2D, dont
l 'épaisseur est celle d'un BEC. Donc si le volume
global
augmente, celui de la bulle-univers, diminue. Ainsi la
densité de
la matière augmente, ce qui tend à
réactiver les collisions. Les
gravats de matière noire subissent ainsi plusieurs
séries de
collisions. Elles finissent par les annihiler complètement,
au même
tire que les collisions frontales.

Analogie Brique-Gravats

Attention
! cela n'est vrai que si la paire est de
création non
locale (séparation par délocalisation originelle)
........

La
représentation des paires
« abimées » du dessin
est
simplifiée. A l'échelle quantique, on doit
considérer l'électron
comme une dualité onde/partticule. L'onde possède
2 critères :
a) l'amplitude (comme le niveau de tension
électrique) ; b) la
longueur d'onde (inversement proportionnelle à la
fréquence). Ainsi l'aspect
« gravats » de
l'électron, possède une
amplitude et une fréquence plus faibles
que l'électron élémentaire ou entier.
Ce dernier, en parfaite harmonie avec le tissu de dipôles
formant
l'espace-temps, peut se condenser en proton et former la
matière
visible (VM). En revanche, les
« gravats », de tailles
diverses et variées, forment un spectre d'ondes parasites.
Pire, ils
perdent leur dualité onde-particule. En effet, cette
aptitude est
conditionnée par une réduction
« particule » ajustée
à la taille du dipôle. Cet ajustement,
brisé
pour les paires non
entières, est impossible, c'est la matière noire
(DM). Nous
verrrons plus loin pourquoi il existe un flux de DM émanant
du
centre galactique. Sa détection devrait être sous
la forme d'un
bruit de fond d'intensité variable, compte tenu de la
rotation de la
Terre autour du Soleil. Or nous verrrons que ce flux variable
(saisonnier) est bien mesuré dans une expérience
appelée DAMA.
Sommaire
15. Mitose
fractale et
nombre d'Or

Rappelons
la cause de la
« séparation » ou
plutôt de la
transition de localité. La saturation est
provoquée par la
superposition des dipôles voisins. Le tableau 10-1, montre
que leur
épaisseur est ξ fois
plus faible que le rayon « onde »
de
l'électron ou de l'intervalle radial. Par
définition, la surface
élémentaire tangentielle était alors ξ2
fois trop faible pour être égale
à celle radiale. Cela veut
dire qu'elle concentrait ξ2
fois trop de particules élémentaires.
Pourquoi trop ? Un
BEC équilibré doit être de
densité isotrope (égale dans toutes
les directions). Alors que fait un BEC non
équilibré ? Il ne
peut que se diviser jusqu'à ce qu'il soit
équilibré. C'est la
mitose ! Son ratio est donc naturellement ξ2
~ 2.6×1022
. Ce
nombre est à la fois le
nombre estimé d'étoiles dans l'univers et
également le ratio
précis entre la masse de Planck et la masse de
l'électron [2].
Un
petit résumé : La
première couche du BEC fossile, possède une
forte
densité de paires (+/–) qui s'attirent. Mais
intervient une
annihilation de taux : α
~ 137,0359
(ou α²
en 2 D) qui
donne la
première
réduction
de
densité. C'est un
agrandissement d'intervalle.
Puis l'anisotropie
des intervalles, déclenche la mitose. Celle-ci
se fait donc naturellement en étapes fractales,
chacune du
même ratio,
α².
Des considérations justifiées plus tard,
contraignent une
mitose fractale
en 5 étapes (α5
en 1D et donc
α10
en 2D).
A ces 5
étapes de mitose, on
rajoute l'annihilation
du
même taux α2,
soit, α2
× α10
= α12.
Ce taux – issu du hasard – est
statistiquement différent du
taux attendu à
ξ2
pour
la mitose. L'accord entre les deux se fait au prix d'un désaccord
égal à 1835,26 [3].
Comme par hasard, ce nombre est proche de la masse du proton
(1836,15) mesurée en unité masse
électron. Est-ce
possible que des paires ne s'annihilent pas entre voisines ?
Oui car toutes les particules sont séparées de
leur alter
ego. Donc
ces créations non locales sont – entre voisines
– des pseudos
bosons. Cela
est très différent d'une création
locale (en laboratoire).
La
mitose fractale consiste à démultiplier chaque
étape. Le centre de
chaque étape de mitose, émet dans toutes les
directions, les
éléments de l'étape suivante. En effet
la mitose consiste en un
mouvement de translation-division à vitesse c, à
partir du centre
d'une étape donnée. Cela veut dire que les
mouvements sont
désordonnés. Une partie est plutôt
dirigée vers l'extérieur
(vers l'expansion) et une autre, plutôt vers
l'intérieur. Au final
des 5 étapes, toutes les directions sont
concernées pour les
BEC-fils. Une
partie a bénéficié de 5 fois de la
vitesse c, toujours orientée
dans la direction externe. A l'autre extrémité,
une autre
partie des
BEC-fils, est
éjectée vers le centre à vitesse
c(centre) à partir d'une vitesse
c(extérieur). Cette partie a donc une vitesse
résultante, nulle. Il
y a donc un spectre continu de vitesses d'expansion, qui
s'étend de
0 à 5 c. L'expansion
de
l'univers se fait donc en couches de vitesses allant
initialement, de 0 à 5 c.
Cela génère des collisions, surtout au
début de l'expansion. C'est
exactement ce que l'on observe.
Les
collisions du début de l'univers sont observées
et elles sont
fréquentes. De plus, elle sont toujours
accompagnées de nuage de
matière noire. C'est bien ce
qui est attendu par ce modèle.
Après
les 5 étapes de mitose, le nombre de BEC-fils
est de ξ2.
Chacun emmène une partie de la matière, en son
sein. Chaque BEC est une matrice d'étoile. On verra comment
une composante constante
de la gravitation, accélère
l'accrétion de la matière en son
centre, pour former son étoile hôte. Je rappelle
que le
contenu de
ce livre est
toujours confirmé par la mesure. C'est donc au cours de la
mitose
que la couche 2D se conforme en 3D. Ainsi, les paires
d'électron-positrons,
sous
forme de « points », deviennent
des couches sphériques
concentriques, dans le proton. Chacune de ces couches est une
superposition des charges qui s'annulent parfaitement. Si elles ne
s'annulaient pas, la force serait alors infinie.
Mais
où se
trouve notre galaxie
dans cette bulle
expansive
en couches
de vitesses ?
Pourquoi ne voit-on pas un centre et une direction
d'expansion ?
Sans anticiper sur la suite, on peut dire que
ce mode d'expansion,
ne
permet pas de voir facilement,
une
anisotropie d'expansion.
Que l'on regarde vers l'extérieur, tangentiellement ou vers
l'intérieur, on voit le même taux
d'éloignement des
autres galaxies.
L'univers
paraît isotrope ! Les vulgarisateurs du
modèle standard
parlent d'un gâteau aux raisins, en cours de gonflage sous
l'action
de la cuisson. C'est vrai que tous les raisins s'éloignent
les uns
des autres. Cependant ils sont gênés car ce
gâteau a un centre !
Ils sont aussi gênés car ils n'évoquent
qu'un seul état d'univers.
Incorrigible
monisme ! Non l'univers est dual. Globalement, il est infini
et
n'a pas de centre. Mais la bulle en expansion, qu'il a
créée,
possède elle,
un
centre. Mais alors on devrait le voir ! Mais oui, regardez
en
direction de l'éridan. Il
y a un grand espace unique, froid
et vide, d'un milliard d'années-lumière. On
l'estime être à
environ 7 milliards d'années-lumière de nous. Ah,
j'oubliais !
On détecte que ses bords sont en cours
d'accélération !
Nous verrons en détail toutes ce données. Alors
que dis-t-on dans les milieux officiels ? On est
très embêtés
car le modèle de Riemann n'a pas de centre ! Alors
on a trouvé
la solution : depuis une dizaine d'années on a mis
cette
observation ... sous le tapis ! Elle
fait partie des grandes énigmes.
Quand
certains ont essayés de mettre en avant deux grandes
nouvelles
observations : a) la courbure de l'univers s'avère
être
nulle ; b) le trou unique de l'éridan
apparaît être le
centre, on leurs a rétorqué sèchement,
l'argument suivant : « nous
n'avons pas de place privilégiée dans l'univers
et l'isotropie
observationnelle prouve qu'il n'y pas de centre ».
Bien sûr,
nous sommes d'accord avec le début de la phrase, notre place
n'est
pas privilégiée. Cependant nous montrons que
l'isotropie est également justifiée dans une
géométrie euclidienne avec expansion
en couches de vitesses. Nous verrons plus tard, les preuves
observationnelles et théoriques. Notre position est
à 5 % du
rayon maximal de la bulle d'univers actuelle. Cette dernière
progresse à un peu moins de 5 c et nous progressons donc
à environ
0,5 c. En première approche, la durée de 13,8
milliards
d'années-lumière, nous sépare
logiquement des 7 milliards
d'années-lumière observés, du trou de
l'éridan. Mais cette seule
piste ne nous suffit pas ! Nous verrons qu'ils y en a d'autres
qui concourent toutes, au même résultat.
Sommaire
16. Masse de Planck, proton
et
naissance du temps
Il
est clair que le proton (et
aussi le neutron sous certaines conditions), est
la seule particule composite stable. Alors si l'électron est
justifié par le dipôle, on doit se demander quelle
est la
cause de
l'existence du
proton ?
Et bien tout simplement le proton fossile était
potentiellement ξ2
fois
plus
massique qu'aujourd'hui. Il
avait le même ratio que : masse Planck / masse
électron !
Les paires
serrées (+/–)
ont constitué le proton au cours de la mitose. Mais ces
paires ne
pouvaient être qu'entières ! Ainsi le
nombre issu du hasard
(1835,26) a du forcément s'arrondir en nombre entier. On
démontre
plus loin que ce nombre est 1841. Comment ? Il forme 8 sous groupes
unités,
réunis
en 4 groupes (460) de paires neutres + 1 positron
célibataire
et confiné. Oui le proton possède
la charge exacte du positron. C'est le premier objet physique
composite de l'univers. Avec son cousin le neutron, et
l'électron, ils
forment
toute la matière visible de
l'univers. Nous sommes fait que de protons
et donc de
paires électron-positrons. L'anti
matière est en nous. Celle qu'on fabrique localement ne
représente
donc rien de fondamental. Le réductionnisme est donc très
réducteur !
Et
le
temps d'où
vient-il ?
Avant
séparation, il
existait un temps alternatif et confiné (non
exprimé) dans chaque
oscillateur BODYS. Ce temps était propre
à [M L] du dipôle. C'est
la période
constante
du BEC (voir tableau 10-1) et également, celle de
l'électron : te
= 10–21
s. Sans faire
de mathématique,
on sait que le temps varie en fonction de la racine carrée
de la
masse d'un oscillateur. Or, le
lien gravitationnel réunit
toutes les paires sur la première couche. Cela
revient
à créer un
oscillateur géant, comprenant ξ8
paires.
De
la racine carrée on obtient une
période ξ4
fois
plus grande que
celle de l'électron (te
= 10–21
s). Il faut
cependant tenir compte de l'annihilation car
l'oscillateur géant (cosmique) a été diminué
du taux, α².
Donc la demi période de l'univers devrait être
égale à : te
ξ4
/ α²
=
4×1019
s = 1242 milliards
d'années. Cependant, cette durée sera revue
à la baisse en
intégrant les 5 étapes de mitose et son incidence
moyenne
sur l'expansion. En effet, ces 5 étapes sont
liées à une moyenne
de 2,5² fois la
vitesse de la lumière. Ainsi le
temps du cycle cosmique est donné à :
198 milliards
d'années. On
verra que cette période est confirmée par deux
autres voies
différentes. Nous n'en
sommes aujourd'hui qu'au début : 13,8
milliards
d'années.
Quelle
est la force de rappel de l'oscillateur cosmique ? C'est la
gravitation ! Elle ralentit l'expansion moyenne qui
se trouve au-delà de l'horizon cosmologique. Un calcul
simple
permet de connaître la valeur de l'expansion maximale
actuelle. Avec
ce modèle, on connaît le nombre de photons,
puisque c'est le nombre
initial de paires sur la première couches du BEC fossile. IL
y en
avait ξ8
avant l'annihilation. On connaît en outre, la
densité de photons
dans l'univers (4,1 × 108
/ m3)
. Avec ces deux nombres, on trouve le rayon de l'univers, soit 61
milliards d'années-lumière. Cette valeur est plus
grande que celle
prévue dans le cadre du modèle
mathématique : (45 milliards
d'années-lumière). Elle est également
plus grande que le rayon de
Hubble : 13,8 milliards
d'années-lumière. Le rayon maximal est
grand car il correspond aux couches qui étaient initialement
à
vitesse 5 c. En réalité il
est en cours de ralentissement.
Actuellement il est : 61/ 7 ~ 8,8 fois plus grand
que celui
où se trouve notre galaxie hôte. Si notre vitesse
moyenne locale,
est d'environ : 0,5 c, alors la vitesse
maximale est
d'environ : 4,3 c < 5 c. Elle a donc
bien ralenti
depuis la mitose.
Mais
cette annihilation sur le BEC fossile a dû émettre
un front d'ondes
sphérique de photons, dont la température
initiale était celle des
électrons ! On la connaît
également, soit: 5,92
× 109
Kelvin. On a
mesuré la température actuelle du fond diffus,
soit : 2,725
Kelvin. Comme on sait que la température du front
d'onde varie
comme la racine carrée de la température, alors
on vérifie bien
notre vitesse moyenne d'expansion à 0,509 c.
Mais attention,
cette vitesse concerne l'ensemble {BEC + matière}. Cela veut
dire
que l'espace-temps et la matière ont la même
vitesse d'expansion. Ce n'est pas le cas pour les vitesses relatives et
locales qui
présentent un différentiel avec les
BEC-espace-temps. C'est ce
différentiel qui crée le fameux effet relativiste.

Sommaire
17. L'espace-temps, un continuum
de BECs
Plusieurs
questions doivent se poser : a) comment s'organisent ces 1022
BEC-étoiles, nées de la mitose et en cours
d'expansion ? ;
b) pourquoi une vitesse c constante dans une
expansion
variable ? ; c) d'où viennent ces
structures de
l'univers ? ; d) c'est quoi ces filaments d'amas de
galaxies ? On a vu que la mitose fractale crée une
arborescence en 5 étapes. C'est un peu comme un arbre mais
en mode
accéléré. Le tronc principal donne des
branches secondaires qui à
leur tour, développent d'autres branches. Cependant ici,
chaque
« nouveau né » devient
très rapidement aussi gros que
sa « maman ». Cette image
ressemble plus à la
prolifération des cellules ou des bactéries. Cela
veut dire que la
belle sphère initiale se rempli de boursouflures en
croissance
rapide. Dans cet ensemble de BECs
enchevêtrés en croissance,
des grumeaux sont formés dès le
départ. La vue actuelle, forcément
brouillée, reflète un peu cette architecture
première où les 5
étapes ont laissées quelques traces.
Tab :
17-1
structures
|
bulle-univers
|
bulles
vides
|
amas
|
galaxies
|
étoiles
|
initiales
|
1
|
annihilation
1D
|
annihilation
2D
|
mitose 1D
|
mitose 2D
|
α =137
|
α² ~ 18769
|
ξ = 1,54 ×1011
|
ξ2 = 2,3×1022
|
observées
|
23 %
|
~ 30
|
~ 1700
|
~ 1011
|
~ 1022
|
Le
tableau 17-1, montre que les structures sont
créées au cours de la
mitose. Ainsi, dès le départ, les galaxies ont
des taux
d'enchevêtrements
serrés de
BEC-étoiles. Les vides inter filaments de galaxies, sont les
traces tangibles, de l'appauvrissement induite par l'annihilation
primordiale. Les filaments sont à la fois les parties
rescapées et le résultat de la concentration
gravitationnelle. Encore une fois, la solution est duale et
donc pas seulement la dernière cause comme certains
le
croient. Le taux d'enchevêtrement des BECs inter
galactiques,
est faible. Ce différentiel de taux est lié au
couplage
{BEC-matière}. Il existe 2 critères de
couplage : a)
la
densité de matière ; b) la
qualité de la
matière. Le second
critère se subdivise en 2 parties : b-1)
matière
visible ;
b-2) matière noire. Il est clair que la concentration
d'étoiles
dans une galaxie, augmente son taux et tend à la resserrer.
Son
équilibre se fait grâce à sa rotation.
Dans les
bulles vides, la
rareté de la matière et la présence de
matière noire, leurs
confèrent un faible taux d'enchevêtrement. Ainsi
cela
résout d'un
coup plusieurs grandes énigmes.
Quelles
sont les énigmes résolues ? :
a) pourquoi l'expansion est
limitée aux vides inter galactiques ; b) comment se
maintient
la constance de la vitesse de la lumière dans le contexte
d'étirement ? ; c) quelle est la nature
des halos
galactiques ? ; d) Pourquoi ces filaments de
galaxies ?
La réponse du point a vient du faible
taux {BEC-matière}. Ce
dernier revient au taux : τ
= {BEC-BEC}, par définition. Il est remarquable de constater
que le
halo galactique observé est de la taille de
l'enchevêtrement des
BECs dont les centres sont étalés sur le rayon de
la galaxie, soit
200 000 années-lumière. Le point b
concerne la notion
d'étirement. En fait, le déchevêtrement
des BECs, n'induit aucun étirement. Donc l'intervalle
élémentaire
(ƛe)
reste
constant : c = ƛe
/ te. La vitesse de
la lumière permet de
traverser l'espace élémentaire dans la
période du BEC (te).
Le point c concerne la notion
d'enchevêtrement des
BEC-étoiles dont les centres sont
étalés sur le rayon de la
galaxies. Enfin la réponse du point d
consiste juste à
réaliser que ces filaments représentent la partie
rescapée de
l'annihilation primordiale. Certes, ils sont aussi
concentrés par la
gravitation (deux causes). Ainsi le continuum d'espace-temps conserve
toutes ses constantes malgré l'expansion, voire son
accélération !
Et
le mystère des émissions au centre des galaxies ?
Le cœur très
serré des galaxies provoque en son cente un trou noir. Cela
veut
dire que des millions de BECs se retrouvent en situation de
saturation (partielle). Il vient que des dipôles sont
séparés et
transformés en paires électron-positrons, comme
sur le BEC-fossile.
Mais dans ce cas, les émissions de particules, ont une
vitesse
relative à la hauteur de c avec les BECs
statiques. Les
trajectoires des particules créées sont telles
qu'elles provoquent
des collisions assez éloignées du centre
! Il y a donc une
certaine production de matière noire au sein des galaxies.
On
observe bien les émissions de paires
électron-positrons. Ensuite,
après collision, la matière noire produite,
possède un faible
couplage au BECs. Cela l'amène à migrer sous
l'action de la
rotation.
La
matière noire s'entasse aux limites du halo.
Pourquoi ? Parce
qu'à partir de cette limite, le couplage devient nettement
plus
faible. Cela veut dire que sa vitesse augmente brusquement, tout
comme les autos après le péage d'une autoroute.
Donc il y a un
effet de cisaillement de densité... et c'est exactement ce
qui est
observé. Mais il faut aborder deux grandes
énigmes : a)
comment un trou noir peut-il émettre des particules alors
qu'il est
sensé tout emprisonner ? ; b) comment des
particules
éjectées à
célérité c,
n'ont pas une énergie infinie ?
La première question montre que ce trou noir est
spécial. Il
contient un point zéro semi saturé !
L'énergie sortante est
suffisante pour vaincre l'attraction du trou noir. La
réponse (b)
est déjà abordée dans le tableau 8-1
lors de la discussion sur les
limites. Il faut revoir le coefficient relativiste, sensé
atteindre l'infini
dans son expression mathématique non limitée ! La
limite physique est donnée en
amont du tableau 10-1 avec le coefficient universelle, ξ
=
1,54 × 1011.
Or les mesures sont claires : les plus grandes
énergies des
particules, appelées rayons cosmiques, équivalent
à celle un atome
d'hélium, multipliée par ξ !
Ceci
est la troisième mesure concrète
de ξ. Il
y en a d'autres.
Sommaire
18. Mitose et π-ADN
universel
La
signification physique du
« rien » est loin de la simple
abstraction du zéro mathématique. Ce
« rien » est
matérialisé par l'oscillateur BODYS.
On a vu que
son action duale était nulle dans son opposition
à angle π.
Alors il vient naturellement cette appellation :
π-ADN.
Elle dit clairement que l'Action Duale est Nulle pour un angle
θ =
π.
Dans
le cadre des paires électron-positrons, elle détermine
le taux d'annihilation
en
fonction de l'angle : θ = 0 à π.
C'est
pour cela que les
collisions de galaxies créent des gravats de briques
élémentaires plutôt que
de les annuler
carrément. Cela est
impossible localement, alors on n'en parle pas. Ces
gravats (matière
noire)
sont
majoritaires
dans
l'univers.
Il
y a plus de gravats que de briques élémentaires
entières.
Le
chantier univers n'est pas aussi net qu'il en a l'air. Une
autre façon d'écrire π-ADN
est : eiπ+1=
0. Cela vient
de la convention en nombre complexe, où le premier terme est
égal
à : –1. Rassurez-vous on saura se passer
de cette forme
mathématique ! Les différentes
appellations employées dans le modèle OSCAR :
π-ADN
→ eiπ+1=
0 → oscillateur
dipolaire
Par
ailleurs, chaque BEC-fils est la matrice de son
étoile-hôte. Il
existe le
taux de couplage
abordé
au chapitre 17.
Il est
une sorte de
perturbation entre matière
et BODYS formant
dipôle qui trament l'espace-temps. Donc les
π-ADN
tiennent
forcément compte de ce couplage. Si on imagine un BEC sans
matière,
il est clair que les
π-ADN
seraient
strictement respectés.
L'action nulle duale donnerait alors une traduction
géométrique,
parfaitement symétrique. Mais le couplage
généralisé modifie
cette belle symétrie. Elle peut se minimiser (pas s'annuler)
si
toute la matière est bien au centre. La non
symétrie coûte
de l'énergie et le BEC cherche juste
à
l'annuler. Cela
veut
dire que le BEC, emplit d'un nuage de proton (hydrogène),
possède 2
moyens pour le ramener au centre. Le premier est la gravitation telle
qu'on la connait et le second est cette force constante du
BEC. C'est
un peu comme si des milliards de petits ressorts (duaux) s'équilibraient
mieux, en ramenant
la matière, au centre.
C'est
pourquoi la gravitation possède deux composantes
(dualité
toujours). La première est bien connue car elle varie comme
la force
électrique, en 1/r².
La seconde est constante car elle est à l'échelle
du BEC. Elle est
très faible localement. Mais à la taille du BEC,
elle surpasse
largement la composante en 1/r²
tant RBEC
est
grand ! C'est
elle qui explique le temps court de la formation des
étoiles. On
s'étonne que les premières étoiles se
soient formées en moins de
300 millions d'années, alors qu'on attendait près
de 3 fois
plus par la seule composante en 1/r².
Cette accélération
centripète
ne se détecte
que de loin et d'ailleurs, elle est mesurée sur la sonde
Pioneer 11.
Elle présente un accélération
constante de l'ordre
de : 10–10
m/s²
en direction du centre. Notre
calcul montre que l'accélération classique (G
M /R²) donne : 10–20
m/s²
alors que
celle du BEC, est en accord avec celle mesurée sur Pioneer
11. C'est
la quatrième
fois que l'on retrouve le fameux
ratio :
ξ
=1,54×1011. Il y en aura d'autres.
Les
biologistes s'interrogent sur la cause de la mitose qui est la
clé
du vivant. Si
tout
nous vient de l'univers, alors la mitose y
occupe
une place
privilégiée. Il
y a également la notion d'entropie de désordre.
Dans cet univers en
expansion, le désordre augmente partout, sauf...
dans le
vivant.
Le
vivant a
le même souci d'ordre que le BEC. La clé première
de
l'intelligence,
est dans
le
souci permanent
d'équilibrer son énergie
intrinsèque.
Ce besoin
impérieux se
résout par deux voies : a) réduire sa
consommation interne ;
b) chercher à en importer.
Les
plantes arrangent
l'orientation de leurs feuilles pour recueillir au mieux, les photons
du soleil. Bien
sûr, la
complexité a fait son œuvre, au fil du temps. La
notion de mitose
propre au vivant, relève d'un flux de synchronisation qui
sature la
première cellule. Elle n'a d'autre solution que de se
diviser. Elle
imite en cela l'univers lui-même. Il y a également
l'explosion
fractale des plantes avec leur arborescence complexe. Alors bien
sûr
on peut dire que l'explosion fractale sert à augmenter la
surface
pour mieux collecter les photons. Mais la mitose fractale de
l'univers, a servi
aussi
à augmenter les
surfaces élémentaires. Au stade de
développement de l'humain, on
ne peut que comparer les clés principales. Nous les avons
forcément
héritées de l'univers.
Mais
réellement, l'univers a-t-il un ADN au
sens du stockage d'informations ?
Oui mais sous une
forme
extrêmement simple. Le sens de l'entropie (de
désordre) est
parallèle au sens de la complexité. Chaque
cellule de notre corps
est couplée avec le tissu de BODYS. Ces
derniers,
sont
tous reliés entre eux,
par le
centre commun. Même
si tout cela n'est pas très
ordonné,
il existe un
potentiel d'échange
d'informations
globales,
dans notre BEC-hôte. En
fait, par le jeu des enchevêtrements, cette
globalité concerne
toute la bulle univers. On montre par une autre voie, qu'il y a
forcément une inter causalité globale (ou
holiste). En effet, un
événement local sera toujours transmis
à la non localité
(relative) de la
bulle
univers. On a dit cela à propos d'un battement d'ailes d'un
papillon, à l'échelle de la Terre. Mais cela
reste vrai dans la
bulle univers. On
a vu
qu'il était naïf de parler de l'univers en
terme moniste.
Comme
tout ce
qu'il a créé, il
est foncièrement dual. Il y a la bulle-univers
(éphémère,
limitée, ayant
un centre)
qui est
contenue dans l'état d'univers
stochastique
(permanent,
illimité, sans centre). Or la vie s'exprime de la
même manière.
Pour un sujet donné (limité et
éphémère) on a une filiation
(illimitée et permanente*). L'astérisque pour
ramener modestement
le terme « permanent »
à l'échelle relative des
contraintes terrestres. Il se trouve que cette dualité est
déterminante pour l'adaptation d'une filiation à
un environnement.
En effet, la limite de vie, ouvre la voie à des
modifications
génétiques, statistiquement, à chaque
nouveau sujet. Certaines
d'entre elles, répondent aux changements de cet
environnement. En
revanche, les lois du hasard, font que certaines filiations, ne
s'adaptent pas et disparaissent. Le
BEC est
entièrement régi par la
loi des grands nombres. L'ADN
de chaque bulle univers est caractérisé par ses
constantes propres
issues de la moyenne du lot synchronisé. Sa
signature est le fameux nombre ξ.
Elle dépend
du hasard et
peut-être aussi des restes de BECs, laissés
par la
génération
précédente. On verra que
notre bulle-univers, en
donne une autre
signature
précise,
f(ξ) avec la masse du muon. Cela a
un rapport avec l'entropie de
l'information. Nous en reparlerons.
Sommaire
19. Le puits subquantique
élémentaire,
de ratio ξ
Le
fameux ratio ξ
est né de
la saturation de la première couche. On a vu qu'il
était largement
mesuré. C'est lui qui a déclenché la
mitose du BEC, car
l'intervalle tangentiel était ξ
fois trop faible par rapport à l'intervalle radial
(anisotropie).
C'est lui qui donne le nombre de galaxies et son carré donne
le
nombre de BEC-étoiles. Ce dernier est également
le ratio entre la
masse de Planck et celle de l'électron. Il est le
témoin tangible
du taux de saturation. Mais si l'intervalle des particules
quantiques, a été augmenté par mitose,
du ratio ξ,
l'épaisseur
du dipôle
est restée
en l'état. Cela veut dire qu'à l'intervalle
élémentaire quantique
ƛe,
il
correspond une « corde »
dipôle d'épaisseur ; ƛo,
ξ
fois plus faible. Les
deux niveaux sont couplés dans une belle harmonie.
l'intervalle ƛe
est une sorte de maille faite avec un fil
d'épaisseur, ƛo.
On rappelle que la régularité (l'isotropie) de
cette maille, n'est
rendue possible que par la célérité
des dipôles, via le point
zéro central. Quand un électron occupe cette
maille, il est couplé,
via le puits subquantique, à la corde dipôle.
A
ce stade, il est conseillé de revoir le tableau 10-1.
Regardons
les transferts d'énergie qui pourraient transiter par ce
puits,
entre le dipôle et l'intervalle
élémentaire
quantique. On doit
savoir que l'énergie varie toujours en 1/r,
y compris dans
le puits subquantique. Exemple : l'énergie du
dipôle (dans son
référentiel) est ξ3
fois plus grande que celle de l'électron (E = me
c²) car si m est ξ3
fois plus petite, le carré de la vitesse, co²,
est ξ6
fois plus grand. Donc la transition maximale, limitée en 1/r
reste au ratio : ξ.
C'est
bien ce que nous mesurons concernant la limite haute (1020
eV),
des rayons cosmiques. On a
pour un noyau d'hydrogène : ξ
m c² / e = 1,45×1020
eV.
Mais
un puits appelle la notion de jauge. Disons le nettement,
aucune énergie gratuite ne peut sortir de ce puits. Chaque
volume
élémentaire de notre niveau quantique, comporte
une dimension vers
le niveau subquantique. Si une particule occupe un volume
élémentaire, alors elle est couplée
avec ce puits. Elle a des
relations de jauge !
La
première relation de jauge, est de l'ordre de l'information.
Il
s'agit de l'orientation du spin (état du spin). Selon le
modèle
standard, cette notion ne peut être une rotation comme on le
croyait
au moment de sa découverte. A son habitude, il a donc
créé un être
mathématique qui ne s'encombre plus des contraintes
physiques (!).
Le modèle oscar n'a pas renoncé à
assumer les contraintes
physiques et dit clairement que le spin est propre au dipôle.
En
première approche, nous dirons qu'un électron
(ex-dipôle) est
couplé avec le référentiel
« un dipôle ». Alors qu'un
photon (boson) est couplé avec un BODYS.
Le BODYS confère deux fois, 1/2 demi spin
à la particule
photon (donc 1). Tandis que l'électron est couplé
avec un demi
spin. Alors quand on intrique deux particules (les mettre dans le
même état de spin), on intrique aussi les
dipôles
sous-jacents. Il
vient qu'on a beau séparer les 2 particules, elles restent
associées
dans leur état initial.
Vous
avez dit ξ ?
Oui,
car la dernière expérience d'intrication
entre
2 particules
{A-B} – faite par une équipe
chinoise –
a montré que la vitesse de l'information {A→B}
est
supérieur
à c. Le facteur minimum est de 13800 × c.
Comme
dit au dernier paragraphe du chapitre 11, l'information d'un
intervalle élémentaire à l'autre,
passe toujours par le centre
commun. Cela veut dire que pour toutes distances entre les deux
particules, le temps de l'échange est constant :
te
. La
vitesse est ξ3
fois plus grande. Voir
le
titre : « Bounding
the speed of `spooky action at a distance » soit en français : "délimitation de
la vitesse de l'action
fantôme à distance". Cette expérience
limite la vitesse a 13800 fois la vitesse de la
lumière.
Il
n'y a pas de lien instantané et donc pas de vitesse infinie.
La
confusion courante porte sur trois éléments
essentiels :
a)
on dit « variables
cachées »
sans préciser « locales ou non
locales »,
b)
on dit « non
localité » sans préciser de
limite,
c)
la vitesse des dipôles, violerait la vitesse de la
lumière.
Le
premier élément vient de monsieur BELL qui a
montré qu'il n'y a pas de variables cachées
locales. Bien
noter, locales. Or les dipôles sont non locaux. De plus ils
ne sont
pas si cachés que cela. Le
second élément s'appuie sur l'incomplétude
de l'équation de Schrödinger. Comme la relation de
Newton (et
d'autres), elle ne dit rien sur la causalité temporelle. Le
troisième élément est
spécieux car on sait très bien que cette
limite ne concerne que les échanges tangibles d'information
ou
d'énergie. On a montré que l'information
d'état n'était pas
exploitable au-delà de la vitesse de la lumière. On
a vu qu'elle est était plus grande (à posteriori)
mais on ne pourrait pas l'exploiter. De
plus, on montre que c'est la vitesse des dipôles qui garantit
celle
de la lumière. Voyons
dans les chapitres suivants, les autres manifestations de la
signature du puits subquantique.
Sommaire
20. Le puits
subquantique et le boson
W
Quand
une transition intervient dans une particule quantique composite,
elle génère un choc qui se manifeste par un boson
vecteur. On a
déjà vu l'analogie
avec le
caillou jeté dans l'eau. Il induit un
« trou »
éphémère
avant de s'étaler par des rides (ondes) concentriques. Une
autre analogie est bien connue des électriciens, le courant
d'extra-rupture. En gros, quand on interrompt un circuit
inductif, il
se produit un pic de
tension qui traduit le phénomène de variation. Le
circuit inductif (bobine) se comporte comme une roue inertielle
même
faible. Si on veut la bloquer d'un coup, il se produit un choc. C'est
un problème de variation trop rapide. Le
boson vecteur (W) se comporte exactement
comme cela. Il
est le pic (fort), transmettant
la force faible. Il
a une masse éphémère (comme un pic)
qui
matérialise ponctuellement
la transition. Prenons
comme exemple, le
muon. Le modèle standard le considère comme non
composite et ignore
totalement d'où il vient et comment et pourquoi ?
On sait juste
que sa masse est ~207 fois celle de l'électron et que sa
charge est
juste celle de l'électron. Le
modèle oscar
dit
qu'il est composé en deux parties : a) une partie
neutre de 103
paires électron-positrons, soit 206
unités ; b) un électron
célibataire et confiné. Le muon, très
instable se désintègre en
un électron + 1 neutrino (muonique) + un neutrino (électronique).
Mais cette transition mobilise le fameux boson de jauge, W, dans
un temps très court.
Le modèle
standard a bien mesuré tout cela mais il
est encore une fois
devant une énigme :
où est passé la masse du muon sachant que la
masse du neutrino est
réputée nulle ?
Alors
de quelle transition s'agit-il ? Il
s'agit de transférer la masse neutre (206 en
unité électron) dans
le puits subquantique. Pourquoi ? Parce que c'est de
là que le
muon est sorti ! On verra plus tard comment, en apportant
l'énergie nécessaire, le tissu subquantique
résonne précisément
à cette masse du muon. On a vu que la brutalité
de ce transfert,
fait apparaître le boson W. Il s'agit de rendre à
un faisceau de dipôles, cette coquille sphérique
faite d'ondes
d'électron-positrons. Il s'agit de lui redonner le statut π-ADNqu'il
avait perdu lors de son extraction d'un faisceau de BODYS. Mais cela ne peut se faire qu'en deux temps.
Ce
statut est d'abord de type transverse, ce sont les rides sur l'eau. A
terme, l'eau doit totalement oublier l'incident. Mais en
attendant il
faut diviser la sphère neutre du muon, en 2
sphères qui s'annulent.
Ce déplacement induit
localement une déformation du faisceau de BODYS.
Cette
bosse, va ensuite se répartir à tout l'univers,
mais à la vitesse
(lente) de la lumière. Cette onde est le neutrino. On
retrouve une
forme intermédiaire (transactionnelle) du π-ADN
originel. La masse globale du neutrino est nulle mais réelle
dans
chacun de ses deux confinements.
Recourir
à la
règle du
π-ADN
originel, est certes une
contrainte mais qui s'avère très
féconde. Elle
lève les énigmes par brassées, sans
poser de
nouvelles hypothèses. C'est la méthode
la plus sûre.
On
verra
plus tard comment
la genèse du
muon,
est la résonance relative à toutes les particules
de l'univers. Son
existence sera
également
justifiée par...
f(ξ). Donc
une
certaine énergie permet d'extraire les paires
électron-positrons,
constituant le muon.
Le muon s'organise
en ondes sphériques où les charges contraires
s'annulent. Au
départ, elle sont fortement attirées par la force
électrostatique,
puis par le
masquage des
charges, elle forme un
condensat neutre.
L'énergie est minimale dans la superposition des ondes
chargées.
L'électron célibataire est prisonnier car toute
velléité de
sortir de son piège, tend à démasquer
les charges et coûte de
l'énergie ! Mais
ce condensat est instable car les paires, créées
localement
ne peuvent que s'annihiler.
Mais
pourquoi une paire
créée localement
s'annihile-t-elle
en photon alors que le muon se transforme en neutrino ?
Pourquoi, dans les deux
cas, les masses
disparaissent ? La
règle π-ADN
est-elle universelle ?
Oui c'est la
règle dans le tissu
d'espace-temps.
Regardons
une certaine particule (tout aussi instable), formée d'une seule
paire
électron-positron, le
positronium. Il s'agit
de deux corps
en orbite autour de leur centre masse. On voit de suite la
dualité
onde-corpuscule pointer
son nez.
Le muon est un condensat d'ondes sphériques
alors que le
positronium est sous forme
corpusculaire. Comme
l'analogie avec le
circuit inductif, le condensat peut se voir comme une bobine
inductive. Ces transitions provoquent un pic (boson W). Alors
que le positronium,
fait de deux corps,
passe directement à l'état π-ADN
sous
forme de 2 photons. Dans
les deux cas,
la masse disparaît et
la propagation
est fixée à
la vitesse de la lumière.
Dans
les deux cas, il
s'agit de création
locale. En
revanche, la partie neutre du muon transite en
deux entités neutres de type π-ADN
transverse. Mais
la
transition d'énergie
est
réputée être en 1D (1/r →
1/ξ).
Cependant, elle est
portée par les
couches sphériques en 2D. Ramenée à
la transition radiale (1D), le choc de transition (bosons W) est donc
en 1/√ξ.
La
masse de ce
boson vecteur est
très précisément
liée à : √ξ
fois
celle de l'électron.
W
= f(me
√ξ).
Le
très énigmatique neutrino emporte la masse neutre
du muon.
La
5eme dimension Oscar, une variante physique de la théorie de Kaluza-Klein
La théorie
Kaluza-Klein
a proposé depuis longtemps, une cinquième
dimension mais ils
considéraient qu'elle était repliée
sur elle-même ! En fait,
l'idée était bonne mais comme souvent, on confond
la cause
physique avec l'aspect géométrique qui n'est
qu'une conséquence.
Le modèle Oscar part d'une matérialisation
physique (avec ses
causes) faite d'un tissu d'oscillateurs dipolaires qui fondent le
niveau subquantique qu'est l'espace-temps. De plus ils
utilisaient la spéculative "longueur de Planck" Pour
tenter de matérialiser cette boucle minuscule. Encore une
fois, la
voie par le "tout géométrique" est
ambiguë car elle
donne des résultats que certains interprètent
comme des causes
alors que ce ne sont que des conséquences ....
Le
coefficient (1.00048) est le ratio entre la masse mesurée
(1836.15)
et celle originelle, du proton (1835.26). Si par un hasard
extrêmement improbable, la relation entre 𝛏
et 𝝰 avait
été parfaite
(coefficient 1), le neutron aurait été stable.
Mais en réalité,
il porte une unité électron plus massique et donc
représentée par
un nombre plus faible (1835.26). Ce "sur-poids", emprunté
au vide, se traduit par la "force faible" et donc
l'instabilité du neutron. Sans ce coefficient d'ajustement,
la
Bulle-Univers serait restée neutre et stérile.
Le temps
varie en 1/𝛏³
dans le puits de jauge alors que l'énergie varie, selon les
cas,
soit 1/𝛏
pour les rayons cosmiques max ou en 1/√𝛏
pour les bosons de jauge et les quarks. Dans les deux cas
d'extraction d'énergie, la loi est en 1/r
: les rayons
cosmiques sont émis directement par le centre des galaxies
dans le
mode 1D / 1D → 1/𝛏,
alors que les bosons de jauge sont extraits dans le
mode
1D / 2D → 1/√𝛏
via les couches sphériques du neutron.
L'extraction du temps
est en 1/r³ → 1/𝛏³
car les pôles des dipôles
subquantiques, circulent 𝛏³
fois plus vite !
Les deux
formules partent du temps élémentaire universel
qui est celui du
volume élémentaire (Compton électron).
Son application au neutron
passe par le filtre du puits de jauge. On a
montré que le
rayon du proton est lié au rayon
élémentaire par la loi ML
= Cte. Le rayon du proton est fonction d'un M
équivalent à
sa masse, divisée en 4
groupes neutres.
Le dessin montre que la durée de vie est conforme au niveau 4
de la mitose, soit 3
intervalles. Ainsi
l'unité de temps élémentaire est
réduite du facteur : 4³
= 64.
La seconde
formule ne mentionne pas 𝛏³
car les niveaux du puits de jauge, retracent les étapes 𝝰
de la mitose. La première formule part de la
transition
subquantique {1D/3D}. Donc le facteur de temps 𝛏³
est réduit de 𝝰⁴.
La seconde
relation part du niveau quantique via les 4 étapes 3D. Le
facteur 𝛏
est une fois de plus, vérifié avec
une très haute
précision.
Le bas du
dessin montre que le logarithme du taux de mitose, exprimé
en base
5, donne environ 64.
Explication :
on a vu qu'en 2D, la variable d'ajustement était le nombre
1835,26
qui permettait d'ajuster les intervalles induits par 𝛏²
et ceux résultants des 5+1 étapes de
mitose, 𝝰¹².
Mais le prix à payer était la réduction
de l'intervalle
élémentaire originel par
accrétion en neutron ! Ainsi la
réduction de l'intervalle élémentaire
(Compton) est de facteur 4
en 1D et donc de 4² = 16, en 2D. Ensuite, vu depuis les puits
de
jauge en 3D, on retrouve bien le facteur 4³
=
64. Les 5
étapes de mitose
ont donc un lien avec les 4 groupes neutres des neutrons et
protons.
Sommaire
21. L'énigme
de la masse
des neutrinos
Ainsi
la masse apparente
du neutrino muonique est nulle.
Mais
d'autres mesures génèrent
une forte controverse
liée
à un phénomène d'oscillation,
impliquant une masse. Mais leur
propagation à la vitesse de la lumière, dit le
contraire ! Le
modèle standard est coincé !
Solution : on a vu que le
neutrino, un peu comme le photon, se comporte comme un BODYS transverse, où la masse s'annule. Mais
comment s'annule-t-elle ? Nous
allons utiliser encore
une analogie, le
gyroscope. Si vous prenez dans vos mains, un disque tournant
à
grande vitesse, il résistera à tout changement
d'orientation. Son
moment gyroscopique donne l'impression qu'une masse
supplémentaire
surgit quand on cherche à incliner l'axe de rotation. Or si
vous
mettez deux disques tournant en sens inverse, cet effet gyroscopique
s'annule.
C'est
une facette tangible et macroscopique, du fameux π-ADN
(ou BODYS).
C'est la règle d'or de cet univers..... parti de rien. Rappelons-nous
le
chapitre 7 qui indique que le moment 1D, [M.L], comporte une
partie vectorielle [L] qui permet l'annulation des
2
moments [M.L] en opposition. Il
dit que la masse
M
est
indissociable de son amplitude L. Ainsi : L+
+ L–
= 0 et donc le produit : ML+
+ ML–
= 0. Reprenons
le cas du muon avec
ses
103 paires neutres d'électron-positrons. La transition
brusque du
boson W, trahit
la
division
en 2
parties opposées,
de 103
unités qui
s'annulent.
Le
chapitre
précédent nous dit que la
masse globale du
neutrino, est nulle. Cette idée n'est pas vraiment nouvelle
car M.
Majorana avait émis l'idée que le neutrino puisse être
sa propre
antiparticule. C'est un peu
comme l'escargot qui est hermaphrodite (il a deux sexes
opposés).
Les neutrinos sont pleins de contradictions : a) ils devraient
être de masse nulle pour se propager comme les photons
à vitesse de
la lumière ;
b) on sait qu'un neutrino
d'un certain genre, peut osciller en autre genre. Cette
particularité
le contraint d'avoir une masse. Alors masse ou pas masse ? Il
faut se rappeler que tous les BODYS d'un BEC, sont
reliés
par le centre et ce, en 10–21
s. Ainsi notre
modèle indique que le
neutrino est bien
de type Majorana, car
les deux masses
miroir s'annulent comme
un
Bodys quantique.
Figure 21-1
Tableau 21-2 :
dualités
|
A
|
B
|
A+B
|
BODYS
|
1
|
–1
|
action = 0
|
charges
(superposées)
|
+
|
–
|
charge = 0
|
moment
gyroscopique
|
Gauche
|
Droite
|
moment = 0
|
neutrino
|
Gauche
|
Droite
|
masse = 0
|
photon
|
quantique
|
subquantique
|
masse = 0
|
La
dualité est partout et le fameux π-ADN
en est la règle d'or. L'image
quantique
des
bosons-2-dipôles, est omniprésente et parfaitement
mesurable.
Figure
21-3
source : Alain
Boudet

Une
vue d'artiste qui montre l'hélicité gauche et
droite des deux
parties
d'un
neutrino de type Majorana
Le
tableau
21-1, montre une certaine similitude entre le neutrino et le moment
gyroscopique. De fait les neutrinos on une certaine
hélicité. Elle
est gauche ou droite. On ne mesure jamais de neutrinos
d'hélicité
droite. Alors on dit couramment cette phrase :
« le
fait que les neutrinos soient toujours gauches explique le
phénomène
de violation de la parité dans l'interaction
faible ». Or
le mot « explique » est abusif.
On devrait dire :
« est cohérent avec ».
Oui c'est cohérent mais ce qui
explique est la notion d'image miroir du niveau subquantique. Le
« disque » gyroscopique qui
tourne à droite est celui
des dipôles. Ce sens est évidemment arbitraire au
départ. Mais ce
qui en fait sa généralisation, est le fameux lien
de tous les dipôles, passant
par le
zéro central du BEC. La
question importante est : à quoi sert cette image
miroir ?
Il faut rappeler inlassablement que les dipôles dominent
tout. Le
passage éphémère en entité
muon n'est qu'un excroissance
provisoire d'un déséquilibre local du tissu de BODYS.
Cela veut dire que cette masse doit retourner à l'ensemble
de la
bulle-univers, via la vitesse finie, de la lumière. Pour ce
faire,
le mode « oscillation
transverse » permet l'annulation
des masses et donc d'attendre la vitesse de la lumière.
Cette
vitesse n'est pas une option ! Elle correspond à la
limite de
la tendance au
ré-équilibrage non local.
Figure
21-4
source : Alain
Boudet
Vue
d'artiste d'un neutrino de Majorana-Oscar, dans lequel la vitesse de
rotation
est
maximale au niveau du rayon corpusculaire. Il est l'image transverse
du π-ADN
originel
avec
cependant un développement en 2D, qui lui donne cette forme
conique. Vu dans son référentiel
global,
il apparaît neutre et sans masse. En revanche, dans chacun de
ces
référentiels
confinés, il est
chargé et massique.
Ces
masses confinées peuvent alors osciller car
la partie
subquantique est potentiellement mélangée avec
l'ensemble
non local
du BEC.
L'idée
générique de la théorie des cordes,
n'est pas
éloignée de cet enroulement serré au
point
zéro. Cependant, la pauvreté de ses
prémisses
physiques, l'ont fait ensuite, dériver vers de folles
abstractions spéculatives.
.
22. Comment bat le cœur de
l'électron, ex-dipôle
L'électron
est la reine des particules
et pourtant on ne connaît pas son cœur. Les
inventeurs de la théorie quantique, ont cherché
en vain à le
sonder. Des
énigmes difficiles se sont
présentées : a)
on ne trouve pas de rayon classique (celui qui fait correspondre
l'énergie électrique à
l'énergie de masse) ; b)
comment est répartie la charge
électrique ? ; c)
d'où vient sa masse, est-il en rotation ? Devant
autant
d'énigmes, on a décidé
que charge et rayon seraient considérés comme
ponctuels. Mais cela pose le problème des
infinis et du moment cinétique
(électron toupie). Alors on a renoncé
à la physique en créant
des êtres mathématiques.
Expérimentalement, l'électron montre
qu'il a une rotation intrinsèque mais elle ne peut
correspondre à
celle d'un disque dont le rayon serait sa longueur de Compton, sous
peine d'aller plus vite que la lumière....
En
revanche, le
modèle oscar, part des
contraintes physiques, liées au statut
d'ex-dipôle
de l'électron. Il
était dipôle avec une trajectoire
hélicoïdale sur le rayon du
BEC. Puis il s'est séparé du reste du BEC via
le seul
intervalle radial (ƛe)
entre 2
couches
! Dans son
statut dipôle, la dualité onde-particule,
s'exprimait (en
1D) entre
le point zéro et le rayon du BEC. L'électron a
hérité de la corde dipôle munie de son
oscillation et de sa rotation hélicoïdale.
Sur la première couche, ce sont des
points qui
représentaient
les sections des dipôles.
Mais il y a
également des surfaces, relatives
aux intervalles.
L'électron oscille
donc entre la section de la corde (dipôle) et sa surface de
Compton.
Il oscille sur cette
amplitude en
conservant sa
composante hélicoïdale.
Dans le BEC, la corde
dipôle était
contrainte de tourner un quart de tour chaque fois que la distance
était
multipliée par 2. Sans
faire de math, cela correspond au
logarithme base 2 du ratio entre le point zéro et le rayon
du BEC
(ξ2).
log(ξ2;2)
/ 4 =
18,58
tours / cycle. Le temps du cycle étant te.
Que
devient cette vitesse angulaire sur l'amplitude maximale de
l'électron ? Elle fait comme la danseuse qui
écarte les bras,
sa vitesse de rotation,
ralentit.
On se souvient que le rayon de l'électron varie d'un facteur
ξ. Ainsi
la rotation diminue comme :
18,58
/ ξ.
Cela
veut dire que la
rotation est surtout active pour l'état ponctuel de
l'électron.
Monsieur
Planck a fixé la
constante ħ
en fonction de l'électron élémentaire (ħ
= me
ƛe²
/ te).
A première
vue, La dimension [M L²/ T]
est celle d'un disque
qui tourne de
surface L² !
Mais si ƛe
est
le rayon, alors : λe
=
2
π
ƛe,
est
la circonférence. Elle est donc 2 π
fois plus grande et ça pose
problème car
la
vitesse
tangentielle, est plus
grande que la vitesse de la lumière ! Ce n'est pas
acceptable !
Alors comment faire
correspondre la
dimension de ħ
= [M L² / T ] qui
exige une surface qui tourne ?
En
fait, la
surface (ƛe²),
est l'amplitude (ƛe)
que multiplie le rayon (ƛe)
balayé par
l'onde. C'est un carré ! La
rotation est maximale au centre et minimale dans l'expression
« onde ». Ainsi, lors des
collisions (entre
corpuscules),
on obtient une
trajectoire qui trahit une rotation, alors que celle de
l'état
« onde » est
négligeable.
Mais cette
échange de surface avec
ralentissement se transforme en une onde sphérique (2D).
Cette
surface 2D englobe un volume 3D, tout comme le fait le cuir d'un
ballon. Hors de l'opération mesure, la dualité
onde-corpuscule
oscille au rythme universel, te.
Hors de l'opération mesure, la charge est oscillante et
répartie.
Lors de la mesure, elle apparaît comme étant
ponctuelle.
Ce
qui apparaît comme un
disque tournant,
de surface ƛe² est
juste une oscillation ayant la forme d'un cône aplati. C'est
plutôt la
corde dipôle qui grandit
comme un
cône hélicoïdal.
La « pointe » du cône
est matérialisée
par
l'épaisseur du dipôle. La
surface, de rayon ƛe
est celle qui
matérialise l'aire
élémentaire quantique. La pointe, de rayon
très petit, tourne très
vite alors que la vitesse angulaire de la surface est quasi nulle.
Ainsi : ħ=
me
ƛe²
/ te
=
me
ƛe
c
possède
deux paramètres. La
vitesse moyenne d'oscillation
dans la hauteur du
cône, et le rayon
élémentaire, ƛe.
La moyenne est à
la
moitié du cône et le spin est donc 1/2 ħ.
Lors d'un impact, c'est
la
rotation interne (corpusculaire)
qui
est mesurée.
L'aspect 1D du
dipôle,
était dû à
l'absence de degrés de liberté. La
dualité onde-corpuscule fait
varier sa surface 2D. Elle s'incurve ensuite en 3D.
Figure 22-1
source : Alain Boudet

Vues
d'artiste. La première figure représente un
électron, évoluant du
centre vers son amplitude maximale. Elle est exactement l'image
contractée de son état ex-dipôle. La
partie
haute est la longueur
de Compton où la vitesse est minimale. Il oscille dans le
cadre de
la dualité onde/corpuscule. La vitesse est maximale au
centre. La
seconde figure laisse penser que les coquillages se construisent
comme la progression hélicoïdale des
dipôles. Ils
sont et nous
sommes, des ex-dipôles évoluant dans un tissu de BODYS.
On peut comparer le ralentissement de fabrication de la coquille
avec la variation à la baisse de la vitesse angulaire. Le
point
zéro est celui d'un demi π-ADN
mais de
type transverse.
La figure
de gauche montre
bien le règne du 1D torsadé. Le 3D dans lequel
nous vivons est une
illusion. L'analogie est le textile, où le 3D est obtenu
à partir
d'un fil, tout comme ces écrits (sur le papier) sont en 2D
à partir
d'un fil d'encre 1D.
Selon
l'indétermination de Heisenberg, il est
théoriquement
impossible
de décrire le détail en dessous du cycle te.
Mais si par
exemple, on considère que la pointe tourne à 18
tours / te,
alors la vitesse angulaire est de : ~ 1022
π/s.
Sur la surface élémentaire, elle tombe
à 1022/ξ
soit 1011
π/s.
Cela lui
confère
une vitesse tangentielle de : 1011
ƛe
<
c / 100, ce
qui lève
l'énigme de la rotation de
l'électron. L'électron
est bien un
ex-dipôle avec une compression de sa forme
hélicoïdale. Il
passe
d'un monde 1D, à un monde 2D par son
taux d'amplitude
qui passe de ξ²
à
ξ.
Il embrasse un 2D sphérique qui lui-même embrasse
un 3D qui
pourrait ressembler à un escargot. Mais
de quoi est
faite sa coquille ? D'électrons et rien
d'autre !
Et
nous de quoi sommes-nous faits ? Sommes-nous des enfants de
l'univers ? Donnons-nous des signes de mitose ;
d'arborescence fractale ; de nombres 5 et 2 ; du
ratio
universel ξ
=
1011 ?
La réponse est positive, y compris pour le nombre de nos
neurones
(1011). Ce
dernier point reste cependant une spéculation pour le
vivant. Mais
pour l'univers, nous avons vu qu'il ressort dans plus de 6 points
précis. Et ce n'est pas fini !
Comparons
les figures 21-4 et 22-1. On voit de suite que la première
est
l'image normale de la symétrie π-ADN
originelle. Ainsi
le neutrino est le principal témoin du modèle
Oscar. Il est
nettement énigmatique
pour
tous les autres modèles. Regardons maintenant la seconde
figure. Que
remarquons-nous ? Elle n'est pas
symétrique ! Cela veut
dire qu'elle est instable ! Oui mais quelle magnitude
d'instabilité ? Bonjour dualité. Il y a
la paire
électron-positron : a)
arrachée du dipôle sur le BEC originel. Son
instabilité est à
l'échelle de la durée de vie de
l'univers ; b)
créé localement en apportant l'énergie
correspondante et
sa durée de
vie est très courte. Une
autre particule est témoin du π-ADN
originelle ;
le photon. Voir la figure 21-1 et le chapitre suivant.
Sommaire
23. L'oscillation des neutrinos
On a vu que la moitié subquantique
du
neutrino de Majorana, était
une onde non locale. Dans un cycle
te,
l'onde recouvre tout le BEC, hors
perturbation.
Statistiquement, elle
risque d'interférer avec d'autres ondes de type neutrino.
Déjà, en
première analyse, on peut concevoir qu'un neutrino de la
famille
électron, puisse croiser une neutrino de la famille muon ou
tauon.
Il y en a trois en tout qui représentent les leptons. La
mesure d'un flux de
neutrinos
s'effectue en
photographiant les flashs
des collisions entre les neutrinos et les atomes contenus dans des
grandes cuves remplies
d'eau pure.
Par
exemple, le soleil, sensé émettre un certain flux
de neutrinos
électroniques, n'en fournit qu'environ 50 % dans
les
détecteurs. En lieu et place du flux manquant, on
détecte des
neutrinos (muon ou tauon).
On
dit alors
qu'ils ont
oscillé d'une
« saveur » à l'autre.
Mais pour cela, il
faut avoir une masse. Or le neutrino est sensé ne pas en
avoir pour
galoper à vitesse c, tout
comme les photons. On apprend également que les neutrinos
manquants
du soleil, ont oscillé avant de sortir de l'astre. On
peut donc penser qu'une moitié des neutrinos
électroniques a
interféré avec les neutrino-ondes des deux autres
familles. On
considère généralement que ce type
d'oscillation vient des états
superposés
d'une saveur à l'autre. L'eau, nous fournit une analogie
avec ce que
l'on appelle les vagues scélérates. Des petites
vagues peuvent se
superposer pour former de très grandes vagues. La
théorie du
soliton
explique ce phénomène de superposition, dans tous
les
domaines de la physique. Il y a même une théorie
du soliton de
Pelegrine
qui s'inspire de l'équation de Schrödinger. Ce
soliton est caractérisé justement par une
dualité de localité. La
question brûlante de la masse des neutrinos, reste une
énigme. Mais
pour le modèle oscar, la masse est typiquement duale. Elle
est
globalement nulle comme le π-ADN originel. Mais lors de
collisions, elle peut laisser
apparaître une asymétrie entre ses deux
moitiés.
Figure 23-1

Il
faut rappeler que la notion de non localité, s'entend ici
comme
relative. Elle ne spécule pas sur
l'instantanéité qui
sous tend une vitesse d'information infinie. C'est juste la vitesse
finie des oscillateur-dipôles. Les résonances du
tissu
subquantique
n'apportent que la partie
« soft » ou
informative.
C'est cela qui
fait « osciller » les neutrinos
d'une saveur à l'autre
sous
l'action d'une
perturbation locale.
C'est
cette dualité : information + énergie,
qui fait osciller les
neutrninos.
La
figure
23-1 montre les
figures d'interférences créées au
niveau subquantique. Le neutrino
de Majorana est typiquement dual. Sa partie subquantique est
étendue
à tout le BEC. Elle est
de nature informative. Les neutrinos : νe,
νμ,
ντ,
sont tous de masse globale
nulle. Les
informations de leur conformité préexistent dans
la matrice
subquantique. Il suffit d'un choc local d'énergie
adéquate, pour
osciller d'une saveur à l'autre. Par exemple, si le neutrino
qui
progresse selon : A → B, est perturbé, il
peut échanger
selon les deux critères : a) l'énergie
perturbative ; b)
l'information subquantique, la mieux centrée sur
l'énergie de
perturbation. Autrement dit, il ne prend pas n'importe quelle valeur,
mais seulement celles portées par l'information. La
dualité est
double : a) la dualité de Majorana ; b) la
dualité
information-énergie. On
pourrait dire :
« cerveau-muscle ».
Mais
ce n'est pas si simple car la partie étendue et
informative,
porte également une masse dont la densité est
incroyablement
faible. Considérons
la
demi masse d'un muon (103 électrons) distribuée
à tout le BEC. Sa
densité, distribuée aux ξ9
intervalles
du BEC,
devient extrêmement négligeable. Cependant, des
milliards d'autres
neutrinos sont également présents. Dans ce cas,
la réduction du
paquet d'ondes ne ramènera que l'information de mise en
forme de l'énergie
de la perturbation locale. L'oscillation des neutrinos est
compatible avec la dualité de localité
(relative). Il
faut noter que le modèle standard se rapprocherait de ce
modèle, si
il abandonnait – comme l'on fait beaucoup de physiciens
– la
notion d'infini en physique. Ainsi la dualité de
localité
déboucherait forcément sur les dipôles
à vitesse finie.
Le
modèle
standard affirme
que l'espace est rempli des neutrinos, nés
du Big Bang. En effet, il considère que quarks et gluons
(deux êtres
mathématiques), sortis du
chapeau,
ont formé
les neutrons, protons, électrons. A partir de ces
bases spéculatives, il décrit alors une
chaîne de réactions
primordiales,
qui émettent beaucoup
de neutrinos. Ce même scénario, oblige
à
spéculer sur une annihilation
asymétrique où
l'anti-matière aurait
disparue. Mais l'homogénéité
mesurée de la
température implique
une causalité qui
ruine le modèle. Mais une fois lancé dans les
spéculations
(addiction), pourquoi ne pas continuer. Alors on a inventé
opportunément, une période inflationniste, qui
« arrange
tout ». Le manque de prémisses physiques
fondatrices amène
forcément à spéculer sur la
spéculation. Alors
que la notion de π-ADN
qui se retrouve
à tous les niveaux de la physique, les
évite
toutes. Puis
on s'étonne de trouver une mystérieuse
matière noire. On s'étonne
également de voir que l'expansion en
accélération. Plutôt
de la
voir comme étant
l'accélération locale,
on a cru
résoudre
en rajoutant une constante dans l'équation de
la gravitation (!).
C'est
encore un amalgame entre effet et cause. De
plus, on
fait la confusion
entre l'infini des nombres et la physique du
réel.
La
physique est en crise. Dans
le passé, elle en a connue plusieurs. Au XVI
eme siècle, la
communauté scientifique enseignait
–
dans
le plus grand des conforts – les lois
d'Aristote, bien
établies depuis
3 siècles avant notre ère. En
accord avec la bible, elles
prônaient l'immobilité de la Terre qui
était
alors, le
centre de
l'univers.
Au XVI eme
siècle, Copernic
et
Galilée furent les premiers à remettre en cause
le géocentrisme
d'Aristote et de Ptolémée. Ils
ont été harcelé par la
majorité des savants en place et par
l'église. Puis Bruno
Giordano, s'appuyant sur les
travaux de
Copernic, fut
moins prudent que Galilée. Il
fut brûlé vif par l'inquisition pour sa théorie
de l'héliocentrisme (!).
Il a
fallu attendre les
travaux de Newton, fin du XVII
eme siècle, pour enfin
abandonner les vieilles lunes d'Aristote.
Aujourd'hui,
les nouvelles idées ont également du mal
à voir le jour. Pour les
mêmes raisons, quelques
uns –
bien
en place
– n'ont aucune
envie de quitter leur zone de confort. Comme au XVI
eme siècle, nier ce que
l'on a enseigné, réclame beaucoup de courage et
d'abnégation. Mais
croyez-vous que le monde des physiciens soit devenu plus
tolérant ?
Pas du tout. Il n'y a pas que l'inquisition pour
être féroce
et barbare.
Voyez le cas de cet illustre savant que fut Monsieur Boltzmann.
Quand
il a sorti sa fameuse loi sur l'entropie, certains
de ses
pairs, se sont
moqués de lui. Ils l'ont harcelé encore
et encore, jusqu'à
l'amener au suicide, le 5 septembre 1906 ! Maintenant, la
constante de Boltzmann (K) est jugée indispensable
à la physique.
Sa
fameuse loi
sur l'entropie
informationnelle, S
= K
ln (W),
est
géniale. A-t-on entendu quelque excuse venant de ces
salauds ?
Que nenni ! D'ailleurs, certains
aujourd'hui encore, n'en ont pas saisi le sens profond. Ce
sont les mêmes qui freinent des 4 fers pour
empêcher toute
innovation, avec leur seule compétence, la
méchanceté ! Alors,
ici et maintenant, je rends hommage à monsieur Boltzmann.
Dans
ce même livre, je vais montrer que cette loi,
est un des piliers du modèle oscar, sous la forme :
μ =
ln (ξ8).
Sommaire
24. Comment galope un
photon ?
Albert
Einstein rêvait de voir comment les photons chevauchaient le
« vide ». En fait la
question est mal posée car il faut tenir compte de la
dualité
onde-corpuscule. L'explication
est –
comme toujours – dérivée des
contraintes du BODYS
puisque c'est la
règle première de
l'univers (dans ces deux états). Déjà
on peut dire que l'univers n'est pas lisse. Il possède des
intervalles élémentaires. Le photon fonctionne
comme le neutrino à
quelques différences près. Chaque espace
élémentaire, ƛe
(haut
du puits subquantique)
est l'image
rétrécie du BEC. Les 2 échelles sont
régies
par la période universelle, te.
Donc l'onde photon est aspirée et rejetée,
selon : c =
ƛe
/
te
[3].
Un univers lisse est
juste une
spéculation mathématique qui se traite avec des
équations
différentielles. Plus les prémisses physiques
sont faibles,
plus les abstractions mathématiques sont
spéculatives et complexes.
Comme
le neutrino, le photon
est
l'image quantique du BODYS.
Il comporte deux
parties : a) une
moitié subquantique non locale ; b) une
moitié quantique. La
somme est de masse et
charge, nulles.
S'il
se propage à vitesse c, c'est pour
distribuer à
tout l'univers, l'énergie
qui lui avait
donné naissance. Cette
dernière avait
été conformée par la
collecte des BODYS,
à
travers tour
l'univers, à
la vitesse des dipôles,
co.
Mais pour évacuer l'énergie de l'annihilation, la
vitesse est celle
de la lumière, c.
La figure 24-1
ci-dessous, montre l'asymétrie de la transition.
Rappelons-nous la
figure 21-1. On y
voit la paire
électron-positron,
transitant en
2 photons. Ils forment
un ensemble
à 4
branches, avec
le BODYS.
Figure 24-1
Figure 24-2
La
figure 24-1
montre que le transit
subquantique →
quantique de
l'information de
création,
est 1033
fois plus rapide que la
répartition faisant suite à l'annihilation. Il
s'agit de distribuer
– à
vitesse c –
l'énergie
à chacun des intervalles
élémentaires de tout l'univers. La
figure 24-2,
montre le passage du
photon, d'un intervalle élémentaire, à
l'autre. Cela correspond exactement à
un cycle dipôle. Mais il faut se souvenir de la
dualité
onde
corpuscule. Comme [M L] est une constante, on voit bien que plus L
est étendu, plus M
devient
faible. On retrouve ici la fameuse dualité de
localité La
dualité onde-corpuscule est une dualité de
localité.
Revenons à nos rides (ou ondes) concentriques
s'éloignant du lieu
de la chute du caillou. D'emblée on compte 2 types de
L : a)
l'un est
liée à la taille locale de l'onde ; b)
l'autre est lié à la
taille étendue,
du
cercle en progression radiale.
Sommaire
25.
Collisions de galaxies =
matière noire
Ce
modèle dit
clairement que l'univers est
fait de paires électron-positrons. Ces particules sont les
briques
élémentaires qui composent la matière.
Selon l'expérience de
pensée du chapitre VI, leur séparation sur le BEC
primordial, par
un angle : θ
= π
(opposition),
est la cause
de la non annihilation.
Mais les collisions de galaxies, reconnectent des régions,
initialement séparées par des petits angles
variables : θ
< π .
Ces angles ne provoquent pas l'annihilation totale des briques
élémentaires, mais les réduisent en
gravats de
tailles diverses.
Selon la dualité onde-corpuscule, ce champ de gravats peut
se
révéler comme des fréquences parasites
ou bruits
de fond.
Ces gravats expliquent la matière noire car
on ne construit rien avec des gravats.
La
matière visible est faite d'atomes, bâtis avec des
briques
entières. Le
caractère fractal de la mitose a provoqué
beaucoup de collisions,
dans le passé. C'est également ce que l'on
observe.
La
clé
de ce modèle, basée sur le π-ADN
est-elle
observée ? La réponse est oui. Il y a par
exemple ce
lien du CEA qui
indique clairement que la matière noire apparaît
après les
collisions de galaxies. On trouve cette phrase de
Frédéric
Bournaud : « le
fait que les débris
d'une collision
de galaxies
contiennent deux fois
plus de matière
invisible que visible est une totale surprise ». Mais
ce lien parle également de galaxies naines – formées
d'une collision de galaxies dont le halo est très
étendu. Il dit également : « les disques
des galaxies
contiennent bien de la matière noire, contrairement aux
prédictions
des modèles cosmologiques ». Et
bien oui car la matière noire créée au
sein de la
galaxie, lors de la collision, migre ensuite vers la halo.
Ce
type
de galaxie naine (ayant subi une collision) est donc logiquement
remplie de matière noire. Comme vu au chapitre XVII, le
couplage de
la matière noire est moindre que celui de la
matière ordinaire.
Donc
les enchevêtrements de BECs sont moins serrés. C'est
bien confirmé
car
on constate que les halos
des
galaxies naines, sont
très étendus.
Tout ce qui apparaît étonnant,
concorde parfaitement ! Selon
notre modèle, il existe également des galaxies
faite entièrement
de matière noire. Elles sont donc encore
plus étendues
car
leur densité est très faible. C'est certainement
ce qui matérialise
les trous vides, entre les filets de galaxies.
Une
autre observation (DAMA)
vue au chapitre XIV, confirme avoir détecté
des variations du bruit de fond. Le modèle OSCAR dit qu'il
existe un
champ de bruits
de fond
qui représentent la matière noire. C'est
l'état onde de la dualité onde-corpuscule.
Comme la Terre se déplace, il est normal de constater une
variation
saisonnière de
ce bruit de fond. Il y a donc plusieurs observations –
à des
échelles diverses – qui confirment la
matière noire décrite
selon le
modèle oscar. Enfin,
comme on l'a vu, le bulbe galactique implique des BECS
entièrement
superposés. Ils ont donc un point zéro commun
presque saturé. Il
émet donc des particules. Ces particules se recombinent sous
des
angles faibles (collisions), ce qui crée une autre source de
matière
noire. Cette dernière est faible en regard de la source
globale.
Sommaire
26.
Dimensions des
grandeurs physiques
Toutes
les grandeurs physiques ont une dimension exprimée en termes
[M, L,
T, Q]. Il est conseillé de revoir le tableau 6-1, auquel
nous allons
rajouter la dimension [Q] qui est la charge électrique. Ces
4
briques nous donnent accès à (presque) toute la
physique. Il
est très utile de prendre conscience des dimensions des
grandeurs
physiques. Voici
un tableau de référence. Il ne s'agit pas de
l'apprendre par cœur
mais juste d'en comprendre la logique. De plus il est fait pour
être
consulté en cas de besoin.
Tableau
26-1
paramètres
|
commentaires
|
M
|
L
|
T
|
Q
|
vitesse, v
(c)
|
longueur /
temps
|
|
1
|
1–1
|
|
accélération,
g
|
longueur /
temps²
|
|
1
|
1–2
|
|
impulsion,
p
|
masse
× vitesse
|
1
|
1
|
1–1
|
|
force, F
|
masse
× accélération
|
1
|
1
|
1–2
|
|
moment
cinétique, (ħ)
|
masse
× longueur² / temps
|
1
|
12
|
1–1
|
|
gravitation
(G)
|
volume /
masse / temps²
|
1–1
|
13
|
1–2
|
|
intensité
(courant ou débit)
|
charge /
temps
|
|
|
1–1
|
1
|
moment
magnétique, μ
|
longueur²
/ temps × charge
|
|
12
|
1–1
|
1
|
énergie,
W
|
force
× longueur
|
1
|
12
|
1–2
|
|
puissance,
P
|
force
× vitesse
|
1
|
12
|
1–3
|
|
tension U
|
puissance
/ intensité → [P] / [Q/T]
|
1
|
12
|
1–2
|
1–1
|
champ
électrique E
|
tension /
mètre
|
1
|
1
|
1–2
|
1–1
|
impédance
(résistance R)
|
tension /
intensité
|
1
|
12
|
1–3
|
1–2
|
raideur K
|
force /
mètre
|
1
|
|
1–2
|
|
perméabilité
électrique
|
masse × longueur /
charge²
|
1
|
1
|
|
1–2
|
Entre
parenthèses, les grandes constantes de la physique. Le
moment cinétique ħ,
appelé constante de Planck, pour les particules quantiques,
est basé
sur les seuls
paramètres de l'électron. Il concerne une vitesse
« au bout
d'un rayon » ou l'impulsion d'une pseudo
surface.
La
première grandeur physique liée à [Q]
est l'intensité. Il s'agit
en fait d'un débit de charges ou d'un courant
(d'électrons). Dans
une conducteur (en cuivre par exemple) il existe beaucoup
d'électrons
libres. En fait, il suffit de très peu d'énergie
pour les arracher
de
leur noyau. En appliquant une tension de part et d'autre du
conducteur les électron se déplacent. Dans un
tube cathodique
(enceinte vide), on procède comme suit : a) un des
pôles est
constitué par un filament chaud où
l'énergie thermique agite les
électrons ;
b) ces
derniers forment un nuage autour du filament ; d)
l'autre
pôle est constitué par
l'écran : e)
on
crée un champ
électrique E entre
le filament et l'écran ; f)
les électrons (libres) du nuage, sont
accélérés vers l'écran,
séparé
de la distance [L].
On
peut
même calculer leur vitesse (au
carré). Comment ?
Il
suffit de regarder le tableau. On a : a) des
électrons de masse
[M] et de charge [Q] ; b) un champ
électrique = E = [M L /
T² Q] et on cherche une
vitesse au carré :
[L² / T²].
On
se demande alors ce qui favorise la vitesse. On voit de suite que
c'est le champ E, la distance [L] et
la charge [Q], soit au
numérateur :
E [L Q].
En
effet, si vous
voulez prendre de la vitesse avec votre auto, il faut de la distance.
On pourrait faire l'analogie où Q est la pente.
Ensuite il
faut voir ce qui
défavorise
la vitesse. On
sait
que
la
masse [M] tend
à résister à
l'accélération.
Donc : v²
= E L Q
/
M. On
vérifie : [M L T–2
Q–1]
× [L] × [Q] / [M] = [L² T–2].
On voit bien que les [M] et les [Q] s'annulent. Voilà la
formule
exacte comporte un coefficient 2, mais la simple approche
dimensionnelle permet de comprendre pas mal de chose. Par
exemple dans les anciens téléviseurs, on a
couramment : E
= 10 000 volts/m
et d
= 0,3
m.
Ainsi les électrons atteignent l'énorme
vitesse de :
(10
000 × 0,3
×1,6.10–19
/
2 × 9.10–31)1/2
=
1,5.107
m/s
ou 0,05 c !
Ensuite
on a le moment magnétique. Le tableau montre qu'il s'agit
d'une
charge [Q] multipliée
par une surface [L²] et divisé par un temps [T]. On
peut le dire de
différentes manières : a) c'est un
courant multiplié par une
surface ; b) comme dans une particule, c
et
e
= constante,
on peut dire que c'est la charge [Q] multipliée par c et actif
sur la distance
[L] ou le rayon r. Cette dernière, s'écrit
donc :
μ
= e
r c.
Pour l'électron :
r =
ƛe
et on
a : μe
= e
ƛe
c / 2
=
9,2740099 × 10–24
A m².
La démarche avec les dimensions n'a pas donné le
coefficient 2. La
mesure très précise, donne
un résultat plus élevé d'un
facteur : αe
=
1,00115965218 ! Ce n'est pas grand chose mais c'est
important car nous allons nous appuyer sur l'extrême
précision de
cette mesure, pour confirmer le modèle OSCAR !
On se doute déjà que le facteur
αe
=
1,00115965218, vient du couplage. Et
bien oui, le couplage, qui
rend les masses plus grandes, agit également sur le moment
magnétique.
Mais
que veut bien dire ce moment magnétique ?
L'unité est :
ampère × mètre au carré (A.m²)
ou [L²
Q/T].
Le modèle standard présente le moment
magnétique de l'électron en
utilisant la constante de Planck :
μe
= αe
ħ e
/ 2
me.
Cela revient au même, car
les masses s'annulent : [M
L²
T–1]
× [Q] / [M] = [L² Q/T].
Mais
il y a plusieurs problèmes qui sont carrément
éludés par le
modèle standard. Le premier problème est dans la
dimension de
ħ, [M
L²
T–1]
=
me
ƛe²
c.
Or
si ƛe
est
le rayon, la circonférence est 2 π fois plus
grande ! Cela
veut dire que la périphérie du
« disque-électron »
tournerait 2 π fois plus vite
que
vitesse que la lumière ! Devant
cette incohérence, le modèle standard a
décidé de considérer
ħ
comme un être mathématique. Dès que la
physique du réel, montre
une erreur, on la contourne par une abstraction
supplémentaire.
Mais
il ne faut pas oublier que l'électron est un
ex-dipôle-oscillant !
Ce n'est donc pas une toupie mais plutôt une corde
enroulées selon
la figure
22-1.
La
rotation
est maximale à la base et minimale à la
périphérie. En fait, la
longueur au carré, ƛe²
n'est
pas une surface mais le produit de la hauteur d'oscillation par le
rayon de la boucle supérieure. Le second
problème réside
dans
l'interprétation physique du moment magnétique
des particules
quantiques. Selon Oscar, on a bien la charge e,
exprimée
au
rayon ƛe,
à la vitesse d'oscillation c.
Si
l'introduction de la constante ħ,
apporte
une
simplification, elle génère aussi
une
grave confusion. Le troisième problème est
développé dans les
chapitres
suivants
où nous montrons d'autres
confusions, apportées
par la constante ħ.
Sommaire
27.
La
relativité restreinte
Albert
Einstein a réfléchi aux conséquences
de la vitesse limite, c.
Il en a fait la théorie de la relativité
restreinte. Il a mis
en avant la
non
simultanéité
des événements entre effet et cause. Voici le
type de raisonnement –
très simple – qu'il a
fait. Soit un observateur
A,
placé à
côté d'un interrupteur commandant une ampoule
située à d
= 3 km,
à droite et
une autre ampoule située 3
km
à gauche. Quand il
appuie sur l'interrupteur, il voit s'allumer les 2 ampoules en
même
temps car elles
ont chacune le même effet retard
ou Δt = d / c =
3 km / 300 000 = 1/100
000
s.
Mais un
autre observateur
B,
situé près de l'ampoule de droite, verra
l'ampoule de gauche
s'allumer après la
« sienne ». Ainsi
l'enchaînement
des événements, dépend de la position
de l'observateur. Avant
cela, l'interprétation de Newton, considérait
l'espace-temps comme
une structure rigide, absolue, immuable. Selon Newton, si le soleil
venait à disparaître d'un coup, nous, les
terriens, le saurions
instantanément. Mais selon la relativité
restreinte, nous en
prendrions connaissance après l'effet retard. Pour
150 millions de km, le Δt
serait de : 150×106
/ 0,3×106
= 500 s.
soit ~ 9
minutes.
Mais
de plus, la
vitesse de la lumière ne se rajoute pas à la
vitesse de sa source !
C'est facile à comprendre car si elle s'ajoutait, alors elle
perdrait
son statut de
vitesse limite ! Exemple : si vous avancez
à une vitesse
de : 1000 km / s en émettant un faisceau lumineux
devant vous,
la vitesse de ce faisceau, vis à vis d'un observateur
arrêté au
sol, sera toujours limité à c. Mais vous
– référentiel en
mouvement – vous verrez
la vitesse c,
moins rapide. Aux limites, si vous voyagez à la vitesse de
la
lumière, vous galoperez de concert avec les photons, car la
différence sera nulle. Mais Albert, vous dirait que cette
dernière
hypothèse est impossible. Donc
l'observateur au sol verra les choses différemment de vous,
qui êtes
en mouvement. L'effet retard sur le temps qui s'écoule, sera
perçu
différemment par lui ! Cela
révèle
la
notion de référentiel.
Bizarrement
certains physiciens, admettent l'erreur de
l'équation de Newton
– concernant la
simultanéité
du
lien causal
{A
→ B} –
mais ne
l'appliquent pas à celle de Schrödinger (voir
& 8 et 19).
Pourtant, son
équation
présente
la même
incomplétude vis à
vis de la causalité ! Les
deux, laissent entendre une communication
instantanée !
Mais
revenons à notre
génial Albert.
Il
a proposé
la
notion de référentiel
à
vitesse continue ou
référentiel inertiel ou galiléen.
Il y en a
autant que l'on
veut ! Pour
passer de l'un à l'autre, il faut faire une
opération mathématique
qui s'appelle la transformation de Lorentz. Voici
un exemple
bien
connu, de
relativité
du point de vue : vous êtes
arrêté en gare dans le train A. Votre
vue est limitée au seul train
B situé
sur
la voie contiguë. Si à un moment vous voyez
défiler le train B,
vous ne
pouvez décider
qui de
lui ou de vous, est
en marche.
Revenons
au
faisceau lumineux que
vous
émettez devant
vous,
alors que
vous êtes
en mouvement continu
à
vitesse v. Si vous
(A)
passez
très vite devant
un observateur
à l'arrêt
(B), votre effet retard vis à vis de votre faisceau
lumineux, sera
plus petit que pour B. En
effet pour lui (v
= 0)
il a : c
– 0 =
c,
alors que pour
vous : c
– v < c.
Mais comme l'espace dans cette direction est égal
à : c
Δt
et que pour B, Δt
n'est
pas
réduit,
alors il
verra votre
longueur
réduite
dans cette direction. C'est la fameuse contraction apparente,
des
longueurs. Mais pour
vous (A), les longueurs restent
les mêmes. Mathématiquement cela s'écrit
proprement par ce terme : γ
= 1 / (1 – v²/c²)1/2.
Le terme
« gamma »
(γ)
est le facteur de
Lorentz. Si
votre vitesse v,
atteint c, alors au dénominateur on a : 1
– 1 = 0 et donc le
facteur de Lorentz devient infini !
On montre
que cela agit
également sur l'énergie de masse (m
c²)
et donc sur la
masse. C'est donc la raison pour laquelle les photons et les
neutrinos doivent être de masse nulle.
Maintenant,
nous allons montrer une erreur que peu de physiciens ont vu.
Bien qu'Einstein se soit bien battu pour éliminer les
valeurs physiques
absolues,
qu'en est-il du facteur de Lorentz (γ)
? On
vient de voir que si
v
= c,
la masse devient infinie ! Voici un cas typique d'erreur
due à la « vue
réduite » du
réductionnisme. On montre pourtant
que l'expression
de γ
est
très
rigoureuse sur le plan de
l'analyse mathématique.
Mais qu'en est-il physiquement ou
réellement ?
Einstein a
pris des bases concrètes et mesurables, certes, mais il
n'a pas
songé
à en fixer les
limites de validité. Nous montrons, au
chapitre 8 et tout
au long
de cet ouvrage, par un énorme flux d'indices, que rien
–
absolument rien de physique – ne peut être
infini ! Seuls
les nombres peuvent l'être.
Cela veut dire que
le
facteur
de Lorentz, est
limité
à
son domaine de validité. Le simple principe de précaution
aboutit
également à cela. Mais
nous
verrons plus loin
pourquoi « gamma
est limité à xi » :
γ ≤
ξ.
La
rigueur de la
description ne saurait remplacer l'explication physique. Ainsi
l'expression qui respecte les lois physiques, devient : γ
= 1 / (1 – v²/c²)1/2 ≤
ξ.
Cela veut
dire que cette
loi demeure vraie, tant qu'elle n'atteint pas
ξ (~ 1011).
La
rigueur de la
description ne saurait remplacer l'explication physique.
Nous
venons de
voir rapidement,
les bases
logiques de
la relativité restreinte, mais qu'en est-il de la
relativité
générale ? Avant d'aller plus loin, il
faut bien prendre
conscience des limites de l'approche standard de la physique de
l'univers. Elle
maîtrise
les notions de l'espace-temps, sans aborder sa
matérialité
physique. On ne s'intéresse qu'aux effets mesurables. C'est
comme
cela que les mathématiciens ont formalisé la
relativité
restreinte. Quand
on parle
de « champ », ce
n'est qu'une abstraction.
Quand on
fait l'expérience
avec un aimant et de la limaille étendue sur une feuille de
papier,
on matérialise la description
du champ de force mais pas son explication.
Ensuite la validité des
équations différentielles est
basée sur l'hypothèse d'un espace lisse
et continu. Or, on sait que la
relativité générale est incompatible
avec la théorie quantique (granuleuse).
Cependant,
il se
trouve que la relativité restreinte (et
générale), recoupent assez
bien les
causes que nous
dévoilons.
Disons
que
prendre le tout comme
étant lisse, ne modifie pas trop la
réalité granuleuse. Mais
il ne faut pas oublier que se
limiter
aux seuls effets et
ce,
sans
critère de localité,
ne peut en aucun cas, révéler les causes.
Il
faut prendre
conscience
que la communauté
scientifique a eu du mal à accepter la non
simultanéité,
indiquée
par
défaut dans
l'équation de Newton. On retrouve exactement le
même scepticisme
vis à vis de
la non
instantanéité
également
indiquée par
défaut dans
l'équation de Schrödinger.
Certains
physiciens
pensent que la non localité est de nature absolue !
Revoir le
tableau 3-1 des folles
interprétations de
la relation de cause à effet de A vers B,
évoquée aux chapitres 3,
8, 19. Il
y a cependant
une
différence de taille
entre les deux équations
(Newton et Schrödinger). La
première
évoque la transmission
d'énergie alors que la seconde ne concerne que de
l'information
d'état (de
spin).
D'un côté, il y a la limite c
et de l'autre la limite co
des dipôles. L'information
d'état est
portée par
les dipôles. On a vu qu'ils étaient contraints
d'avoir une
trajectoire hélicoïdale. Leur Δt
intrinsèque
est
constant (te)
pour tout le BEC ! Une
analogie simple permet de voir cette dualité
universelle :
votre cerveau (soft) est capable de penser très vite des
milliers
d'actions potentielles, alors que vos jambes (hard) actionneront
avec un
effet retard.
Sommaire
28.
La
relativité générale
La
relativité
générale
s'intéresse à la gravitation et
donc au référentiel
accéléré. En
effet, si la relativité restreinte s'accordait
très bien avec les
équations de Maxwells sur les champs
électromagnétiques, elle ne
disait rien sur la gravitation. Là encore, Einstein est
parti des
effets et
c'est bien
normal de commencer par eux. Il a posé
ce qu'il a appelé le principe d'équivalence. Expérimentalement,
cela veut
dire que par
exemple, l'accélération
gravitationnelle
terrestre
est équivalente
à l'accélération en
général. Par exemple, il a dit que la
trajectoire
de la Terre
était en ligne droite dans
le champ
gravitationnel du soleil. Son mouvement uniforme est courbé
à cause de
l'accélération
gravitationnel.
Il
a
considéré l'espace-temps
comme un champ de vecteurs (tenseur)
dans
lesquels s'opposent des accélérations
de type inertiel
et
gravitationnel.
La
description mathématique est parfaite mais là
encore, ce
sont les effets
et non les causes qui ont été mises en
équation.
L'accélération
terrestre : g =
9,81
m/s²,
lui a
servi d'exemple. La
lune suit une trajectoire inertielle
courbe
dans le champ
de gravitation de la Terre. S'appuyant sur : E
= m c², il a compris,
contrairement à Newton, que
la force
qui attire 2
masses entre elles, est
une conséquence de
la courbure de l'espace-temps. Il
faut s'arrêter sur cet
aspect
car d'un point de
vue expérimental, il y a deux niveaux de prise
en considération, du
problème : a) Newton laisse entendre qu'il existe
une attirance
en 1/r²
« magique »,
entre les masses ; b) Einstein trouve une explication au 1/r²,
via la notion de courbure. Cependant,
les deux ne disent rien sur la cause physique de la gravitation.
phénomène
gravitationnel
|
Newton
|
Einstein
|
Oscar
|
loi
générale des effets : F = G m1
m2 / r²
|
découvreur
|
reprise
|
reprise
|
lien
énergie-courbure : 1/ r²
|
non
|
découvreur
|
reprise
|
la cause
de la gravitation par saturation-séparation*
|
non
|
non
|
découvreur
|
*
outre la cause de la gravitation, c'est aussi la cause de la
matière
noire et de l'énergie noire.
Einstein
utilise
la notion de
densité
d'énergie
(rhô) :
ρ
=
E / m3
= [M
L–1
T–2].
La relation de Newton reste globalement exacte : F
= G
m1
m2
/ r². Notons le 1/r²
comme
élément de
courbure,
[1/L²]
. Avec le
tableau
26-1
on peut vérifier
l'accord dimensionnel, sachant que : G
= [M–1
L3
T–2].
On a donc : [M–1
L3
T–2]
× [M2] / [L²]
= [M L T–2] qui donne bien une force.
Comment Einstein
obtient
le 1/r²,
à partir de la densité
d'énergie,
ρ
et G ?
Il a
simplement regardé
la cohérence dimensionnelle, en ajustant avec l'ordre
(l'exposant x)
de la
constante cx.
Sa forme didactique
simplifiée,
est :
G
ρ
/ c4
= 1/r².
On
vérifie donc
la cohérence
dimensionnelle : [M–1
L3
T–2]
× [M L–1
T–2]
/ [L4 T–4]
= [1/L²]
et
ça
marche ! Dans le
détail :
[M–1
M]
s'annulent, puis :
[L3
L–1]
/ [L4] = [1/L²]
et [T–2
T–2]
/ [T–4] = [T–2
T–2
T4], s'annulent. Il
reste bien le fameux
1/r²
→ [1/L²].
Puis
son ami Grossmann
a trouvé
la
forme mathématique (équations
différentielles avec tenseurs), à
partir de
l'approche
physique.
Cette dualité {physicien →
mathématicien} est exemplaire.
Malheureusement, la mode du
« tout mathématique »,
a maintenant,
pris le dessus. Donc la collaboration avec Grossmann a
rendu la
description
des effets
très rigoureuse. Très rigoureuse ? Oui si
on se limite à la description des effets et ce, dans un cadre
local
(planète,
étoile).
En
mettant
la masse sous la forme de
l'énergie (E
= m c²),
sa théorie fonctionne
également pour
la
lumière (sans masse). Or on observe bien la courbure de la
lumière
autour des fortes concentrations de masse. Mais
qu'en est-il
de la
cause physique
de la gravitation ? Einstein s'est interrogé toute
sa vie à
ce sujet.
A l'époque, il
n'y
avait
pas les
milliers d'observations
à grande échelle, dont
nous disposons aujourd'hui.
Je suis persuadé qu'avec
cela,
il aurait fait
le lien avec le
condensat qui
porte son nom, le condensat
de Bose Einstein (BEC) primordial
!
Il
en aurait conclu que
la brisure de symétrie radiale de chaque
boson-dipôle,
s'est
transformée
en un gradient de force tangentielle,
transitant
à travers chaque espace élémentaire.
Il aurait compris sans aucun
mal que la gravitation est juste le relais pour garantir une
énergie
globale nulle. Il aurait fait le lien avec la relation [2] et toutes celles qui en
découlent [3],
[4],
[5]. Il
aurait compris qu'il ne s'agit que de la symétrie ultime qui
est
à l'origine de l'existence du monde, par la
séparation (provisoire) d'entités contraires. Il
n'aurait
ainsi, pas laisser faire l'amalgame entree le zéro
mathématique et le zéro physique.
Ensuite,
Minkowski
a
cherché à géométriser
ces lois pour les appliquer à
l'univers.
En
bon mathématicien, il a inventé un univers-jouet,
fait de ces champs
de courbure
intrinsèque.
C'est
astucieux mais ce
n'est qu'une spéculation sur la
réalité physique. Il
n'a pas compris que le champ gravitationnel est juste l'effet d'une
cause physique
!
Le
problème avec les
champs mathématiques, c'est qu'ils ignorent superbement la
réalité
de la matérialité
physique
du
continuum masse-espace-temps. Minkowski
a bâti
un univers basé
sur un espace-temps ..... fait de champs mathématiques. Alors,
comme de bien
entendu, ces
spéculations débouchent sur des notions
d'infini ! Par
ailleurs cette théorie n'est pas compatible avec la
théorie
quantique. On voit bien là les limites des deux
théories, basées
d'une
part, sur
les seuls
effets
et
d'autre
part, sur
le seul point de vue local.
Dans
l'espace-temps de Minkowski, la version euclidienne est un cas
particulier. Elle débouche sur un arrêt
d'expansion à l'infini !
Si cette conséquence est possible dans l'abstraction
mathématique,
elle est impossible
dans la physique du réel.
Cela est confirmé (entre
autres) par
la récente
découverte de cet ajustement de
courbure nulle « magique ».
Non l'espace-temps de l'univers est tout à fait euclidien et
matérialisé
physiquement, par
le tissu de dipôles. L'espace-temps
avec son énergie intrinsèque, n'a rien
à voir avec une abstraction
géométrique. Il doit se justifier physiquement. A
grande échelle, l'expansion de l'univers est
maîtrisée par la
composante « BEC » de la
gravitation. L'univers
en expansion est matérialisé par une architecture
physique (tissu
de dipôles, organisé en couches de BECs).
Comme logiquement attendu, celle-ci s'arrête dans un temps
fini.
Ce temps
fini est en
parfait accord avec les relations classiques que l'on connaît
[2,
3,
4].
Parmi elles, il y a cette loi
[5]
de l'oscillateur unique (univers), résultant du groupement
des
oscillateurs-dipôles.
Sommaire
29.
La cause
de la
relativité générale
Le
modèle
Oscar, est non
seulement compatible avec l'effet : densité
énergie → courbure,
mais il en donne la cause. C'est
toujours
la même : le
couplage entre le tissu de BODYS et la
matière. Plus
la
densité de matière visible
est grande,
plus l'impulsion
des BODYS est affectée. Pour bien
comprendre,
imaginons un
BEC dépourvu de matière. Dans
ce cas fictif, sans
perturbation, la symétrie de chaque volume
élémentaire est
parfaite. Ils sont bien
« ronds »
(isotropes).
Un
photon
passe
d'un espace élémentaire ƛe
à l'autre, dans le temps te
et donc à vitesse constante :
c
=
ƛe
/ te. L'espace-temps (3+1D)
n'est pas une abstraction mais
une construction à partir du 1D original. La
construction 3D est dynamique car le chemin
des
dipôles, passe
obligatoirement
par
le point zéro commun, du centre du BEC. C'est ce qui
transforme la
corde 1D en 3D réel. La clé est la
suivante :
les BODYS vont ξ3
fois plus vite que les boson-photons mais ils
parcourent ξ3
fois plus de chemin. C'est
cela
et
rien d'autre, qui
induit la constance
de la
vitesse c.
C'en est
la cause !
Dans
le cas du
BEC vide,
le photon se propage
dans
toutes les directions (isotropie).
Mais
en présence d'une masse centrale (une
étoile comme le soleil,
par exemple), l'aller-retour
des dipôles sera de
plus
en plus perturbé
en
s'approchant du centre.
Une petite
partie de
leur impulsion
sera prélevée pour
« habiller » les masses
centrales,
selon :
p
=
po
/ ε.
Cela revient donc à aplatir
(radialement) chaque intervalle élémentaire,
selon : ƛεr
= ƛe
/ ε. Physiquement, la notion de
courbure se révèle au niveau des
volumes
élémentaires
quantiques.
Sur le
rayon du BEC, plus
la masse
par mètre est
importante, ρm,
plus le taux d'ovalisation (ε)
est grand. Ainsi la relation du chapitre 28, devient, en
remplaçant la densité de masse par la masse
linéique
: G
ρm
/ c²
= ε. Cela
donne un
taux
de déformation
géométrique,
sans
dimension.
Vérifions
sur le plan
dimensionnel : [M–1
L3
T–2]
× [M L–1]
/ [L2 T–2]
= 1
! Il
s'agit donc bien d'un coefficient.
On
retrouve ici la fameuse
dualité
onde/corpuscule. La partie
« onde » du dipôle,
révèle une moyenne constante
de la déformation géométrique. La
partie « corpusculaire »
révèle la variation en 1/r²
de cette déformation.
Il
y a
là une subtilité !
Le ralentissement des dipôles implique une carence de
remplissage des
trous des couches en avance. Cela
induit une
réduction du
rayon du
BEC qui
n'affecte
donc
pas les
intervalles tangentiels. Deux
chapitres plus loin, nous verrons que le taux de variation est faible
(0,3%). Ainsi
chaque bulle
élémentaire, devient de plus en plus
« ballon de rugby »
en
s'approchant du
centre. C'est cette déformation des
bulles
élémentaires
quantiques,
qui
incurve la
trajectoire de la lumière. La
figure 29-1 à suivre, montre que l'équilibre
normal dans chaque volume élémentaire autour
d'une étoile, est
donné par deux types
d'accélération : a) la vitesse
tangentielle au carré divisé par la distance au
centre de
l'étoile : v² /
r.
Cette accélération
est dirigée vers l'extérieur ; b)
l'accélération
gravitationnelle, G
M
/ r², qui dépend de
la masse M de l'étoile. Dans chacun des volumes
élémentaires, la
situation d'équilibre se traduit par deux flèches
radiales et opposées qui s'annulent. On a : G
M / r² =
v²
/ r et
donc :
G M / r
= v².
Mais si M
induit : v²
≥
c²
alors même les photons ne pourront plus sortir de
l'étoile qui est
donc un trou noir.
Figure
29-1 :
on
compare le comportement d'un photon dans un BEC vide (M
= 0),
puis avec une étoile
de masse M, telle que le photon suive une trajectoire
courbée.

On
obtient ainsi le même résultat qu'avec le
modèle abstrait de
Minkowski, mais sans courbure à l'échelle de
l'univers. Les couches
de BECs en expansion, s'attirent entre elles par la composante
constante de G et ce, en fonction de leur taux de
déformation local.
A grande échelle, il n'y a donc aucune courbure
intrinsèque à
mesurer et c'est bien ce que l'on vient de constater avec grande
surprise. Cet univers euclidien (univers plat) n'est pas un cas
particulier de Minkowski mais la signature d'un univers
foncièrement
euclidien, caractérisé par des couches de BECs en
expansion,
majoritairement sous l'emprise de la composante constante de G. Il y
a un emboîtement de structures physiques qui n'ont rien
à voir avec
des élucubrations mathématiques.
30. La
dualité
gravitationnelle
La
force
gravitationnelle de
la gravitation
classique,
agit en 1/r². Mais il existe une composante constante et
faible qui
n'apparaît qu'à grande distance. C'est
elle
qui régit le taux d'enchevêtrement entre BECs. Cette
composante se mesure
par
le
ralentissement anormal
de la
sonde Pioneer
11.
Comme on
l'a déjà vu,
la déformation
des espaces élémentaires,
génère des effets équivalents
à la
notion de courbure de l'espace-temps. Comme l'onde
électromagnétique,
elle se propage d'un volume élémentaire via
les boson-dipôle passant par le centre.
Le vecteur
de la gravitation du
taux
de couplage et du
type de
masse centrale
(voir chapitre 17).
Les
équations de Newton et d'Einstein, ne parlent pas de cette
composante faible et constante. En
revanche, la théorie MOND l'évoque pour justifier
l'anomalie de la
dynamique des galaxies. Le couplage matière dipôle
(donc
électron/dipôle) est donné par :
τ =
0,0031259 [3]. Mais
quel est le couplage matière noire /dipôle ? On a
vu que la DM
est uniquement représentée par des ondes
stochastiques qui sont des harmoniques de
l'électron. Par
définition elles sont plus grandes que l'intervalle
élémentaire
ƛe. Par ailleurs elles ne suivent
plus la dualité onde/corpuscule.
Ainsi elles ne bénéficient plus du puits
subquantique comme le
proton qui
lui oscille
environ avec
le ratio 2
α2.
Cela veut dire que le couplage
de la matière noire peut-être fixé
à la
faible valeur :
τn
= 1/(2
α2)
= 2,5
× 10–5.
C'est la
raison pour
laquelle, elle migre vers l'extérieur des halos de galaxie.
De plus
elle a tendance à se tasser aux limites du halo (BECs
enchevêtrés). C'est
cela qui crée le cisaillement de DM observé.
Le
tableau suivant résume les observations énigmatiques
qui
confirment la
composante constante propre
au fonctionnement des
BECs.
Tableau
30-1
énigmes
|
résolution
par la composante constante (BEC)
|
ralentissement
sonde Pioneer 11
|
accord
avec l'observation et la mesure
|
présence
des halos galactiques
|
matérialisés
par les BECs très enchevêtrés
|
l'expansion
ne concerne pas les amas de galaxies
|
relatif au
faible taux de couplage lié à la
matière noire et sa faible densité
|
halos plus
grand pour les galaxies naines issues de collision
|
cela
trahit beaucoup de matière noire issue des collisions et
donc un faible couplage
|
grands
vides bordés de filaments (galaxies)
|
Les vides
sont de densité faible de matière noire et
l'expansion procède par déchevêtrement
des BECs
|
immense et
unique vide de l'éridan
|
Matérialise
le BEC fossile
|
rapidité
de formation des premières étoiles
|
le tableau
30-2 montre son intensité agissante sur le nuage
d'hydrogène remplissant le BEC
|
Ces
7 grandes énigmes sont levées et concordent avec
le modèle oscar.
Pour
le
BEC-Soleil
le
tableau
30-2
montre
que la composante
constante su
soleil
ressentie sur
Terre,
est 1
milliard fois plus
forte que la
composante
classique,
en
1/r².
Tableau
30-2
distances
|
accélération
de G en 1/r²
|
accélération
BEC
|
orbite
terrestre
|
6×10–3
m/s²
|
8,74×10–10 m/s²
|
sonde
Pioneer
|
9×10–7
m/s²
|
8,76×10–10 m/s²
|
aux
limites du BEC
|
10–20 m/s²
|
5.85×10–10 m/s²
|
Ce
qui est nommé génériquement
« accélération »
est en
fait pour la sonde Pioneer 11, une
décélération, γ (gamma) en
m/s².
Le tableau montre que le nuage primordiale – aux limites du
BEC –
a subi une accélération bien
supérieure à celle attendue par la
composante en 1/R².
La raison enst la suivante : Outre la courbure d'Einstein (1/
L²), la masse de l'étoile au centre du BEC, aplati
les ξ3 sphères
élémentaires radiales (formant le rayon du
BEC) en
1/L selon la règle simple : R(étoile) /
R(BEC).
Cela donne un DL / L de 10^10 ! Le gradient de
cette
variation est
constant !! La vitesse
caractérisitique minimale du BEC est de : vo = (2 G M / R)1/2 = 7,87 m/s.
avec R, le rayon du BEC. Ainsi nous avons une attraction
centripète finale de :
γo
=
– vo
/ te
ξ3
β
=
– 5.85 × 10–13
m/s²
Avec
β
=
2 √2,
la
borne de Tsirelson,
liée
au rapport de
localité avec le niveau
subquantique. A
la position de la Terre, cette accélération est
négligeable car sa vitesse globale radiale est
quasiment
nulle. La décélération propre
à la
vitesse
tangentielle d'un point sur sa surface, est masquée par la
masse
globale de la Terre. Le tableau 30-2 montre qu'à
l'échelle du BEC, les nuages d'hydrogène
sont
largement plus sensible à cette
décélération
! Cela explique la
mystérieuse précocité des
premières étoiles !
Cette même décélération
dépend de la vitesse radiale
d'un corps en mouvement : Par exemple,
l'accélération inexpliquée de
Pioneer 11 vers
le soleil est mesurée à :
– 8,76×10–10
m/s²
Vers la
fin
du lien
Pioneer
11
on confirme l'approche OSCAR en
stipulant que
l'accélération est une fonction
linéaire de
sa vitesse ( v
~ 11800
m/s).
En
première approche, on
trouve
:
γ
=
– v
/ te
ξ3
β + γo =
– 8,76×10–10
m/s²
On obtient une belle
occurrence avec
la mesure. Cette
relation montre que l'accélération
est sensible aux corps munis d'une
vitesse radiale dirigée vers l'extérieur du
BEC. Pourquoi ? Parce que le passage d'un intervalle
élémentaire à l'autre (axe radial),
nécessite une légère
accélération
des dipôles subquantiques ( ξ3
fois moins massiques). L'intervalle suivant
étant toujours légèrement
plus grand que le
précédent, néccessite
d'accélérer
les dipôles subquantiques. Mais le gradient est
toujours
constant.
C'est exactement la
même chose pour la matière noire, Plus
la DM
ralentit,
plus elle est libre de s'échapper du halo. Cela induit le
fameux cisaillement que l'on observe! Le
soleil émet des particules relativistes qui, se recombinant,
s'annihilent partiellement en devenant de la matière noire
(DM).
Cela explique l'étrange réchauffement (en million
de degrés) de la
couronne
solaire.
Cette matière noire, ayant perdu le statut de particule
élémentaire,
est devenue « gravats ». Son
couplage au BEC est
forcément
plus faible que celui de la matière visible. En fait le
rayon de la
« bulle Compton » moyenne du
spectre de la DM, devrait se
situer à 2 fois celle de la bulle Compton
élémentaire. On devrait
donc avoir un volume
f(23
π)
= f(8
π).
Ce taux d'augmentation de volume ferait baisser la densité
si la
masse ne baissait pas ! Mais ce n'est pas le cas car la masse
diminue également du même facteur. On aurait ainsi
un taux de
couplage réduit
du facteur : 64 π².
(Voir détail plus loin dans & 50-12). Par ailleurs
cet état de
la matière perd
également le statut relativiste qui
réclame une synchronisation précise avec la
corde-dipôle.
Cependant,
elle reste sensible à la gravitation
à
hauteur de sa réduction. Les coupages (VM et DM) agissent
sur les BECs entre eux et
les maintiennent serrés dans les galaxies. Le
couplage propre à la matière visible, τ =
0,0031259 [3],
induit le fort taux de condensation des BECs dans les galaxies. En
effet, le halo matérialisant le condensat de BECs, est
mesuré à
environ 200 milles années lumière, soit 1,33 fois
le Rayon d'un
seul BEC. Certaines galaxies naines étant majoritairement
composées
de DM, leur halo
s'en trouve très étendu
et c'est
bien ce qui est mesuré.
Le taux d'enchevêtrement des BECs formant l'espace-temps en
dehors
des galaxies, explique leur étendue. Ils forment les grands
espaces
« vides et noirs »,
observées entre les
« filaments »
de galaxies visibles. Ces espaces, étendus
en moyenne sur ~ 300
millions d'années-lumière, sont radialement
environ 600
fois plus étendus que les
« filaments » de galaxies,
larges
de ~ 500 mille années-lumière.
Ces
filaments de galaxies sont
considérés
en moyenne comme ayant une épaisseur de 6
galaxies, en moyenne. Ces
filaments ne participent pas à l'expansion. Si un grand
vide, est
composé d'un millier
de
galaxies
(noires
et donc
étendues)
alors les 100
ξ
= 1014
BECs qui la composent auraient un taux maximum de
déchevêtrement
de ξ1/3
= 100
000
~
150
fois plus étendu qu'aujourd'hui soit
après 2000
G.y.l. !
Ensuite, au fur et à mesure de l'expansion, des galaxies
devenues
noires, viennent enrichir
ces espaces intergalactiques. A terme, il ne reste plus que des BECs
vides, uniformément répartis pour paver une coque
2D. (voir
Eddington & 50).
Ce
que
Minkowski a voulu pour
l'univers entier, ne fonctionne
déjà plus, lorsque l'on s'éloigne
d'une étoile. Le comportement
des halos de galaxies (enchevêtrement de BECs) va
également dans ce
sens. En
effet, les
galaxies naines issues de collision, ont des halos très
étendus. On
a vu également que parmi
ces dernières, il y en a qui ne
sont naines qu'en apparence car leur taux de matière noire
est
élevé. Enfin on a vu que le taux de couplage de
la matière noire
est plus faible que celui de la matière visible. Il est donc
normal
que leur halo soit très étendu. Le
couplage {BEC-BEC} passe
par le couplage {BEC-matière}. Donc, à grande
échelle, il est
normal de constater que l'expansion
(déchevêtrement des BECs), ne
concerne que les espaces vides de matière visible. Tout cela
est
cohérent avec l'observation. Comme
toute chose, la gravitation est duale.
Devant
le problème d'incompatibilité entre la
relativité générale et la
théorie quantique, certains chercheurs veulent revoir
l'un et
l'autre. Il existe
deux courants : a) ceux qui pensent que c'est uniquement la
courbure qui attire les masses ; b) ceux qui pensent qu'il
s'agit d'une force liée aux
seules masses.
Vous ne remarquez rien ? Revoyez
le chapitre 1 et son exemple avec les biologistes. Toujours ce
réflexe binaire, A ou B alors que c'est toujours :
A+B. Vous
l'aurez compris il s'agit des deux à la fois.
Pourquoi ? Revenons aux causes ! Sur la
circonférence de la première
couche du BEC primordial,
on a un gradient de force qui s'exprime sur
chacun des corps et
des intervalles. C'est ce que dit la relation [2].
La force de rappel
des dipôles, dépend de la la charge
élémentaire, f(e).
Quand chacun de ces derniers devient électron ou positron,
il
conserve sa charge électrique (locale) et de plus, il garde
en
« mémoire » la
très faible charge dipôle, divisée par
le nombre de
paires,
présentes
sur la demi circonférence.
Cela
est très important car chaque étape de l'univers doit
conserver
la règle du rien : le π-ADN.
La
somme de tout, doit
toujours restée nulle. On comprend de suite les points
suivants :
a) la cause de la gravitation ; b) le fait qu'elle soit
toujours
attractive car les dipôles séparés ne
« pensent » qu'à
recouvrer leur état initial, en s'attirant
mutuellement ; c) la
faiblesse de cette force ; d) le lien avec la
relativité
générale, car chaque intervalle (espace) porte ce
gradient de
force. Ce dernier point doit être vu dans le cadre de la non
localité de la symétrie des dipôles,
formant
l'espace-temps. Le
lien {espace-particule} est
inséparable.
sommaire
31. La cause physique des quarks
On
sait que des quarks sont confinés
à
l'intérieur des protons et autres particules de la
même famille
(hadrons). Expérimentalement et plus
généralement, on détecte
des « boules dures » à
l'intérieur des hadrons. Pour
le proton, ces quarks ne représentent qu'une masse infime de
la
masse totale. Devant une telle constatation, la sagesse eut
été
d'envisager l'alternative suivante : a) les quarks sont des
éléments constitutifs ; b) les quarks
sont des éléments
induits. Or, on a
choisi d'ignoré la
seconde branche de l'alternative. Pourtant, toutes les
expériences
cherchant à isoler (déconfiner) durablement les
quarks, ont échoué. On a parlé de
« soupe de quarks » mais si cet
état est
certes possible, il s'avère très instable (ou
éphémère). On a
donc toute légitimité de ne pas ignorer la
possibilité des quarks
induits. Cela serait
cohérent avec le
fait qu'ils ne survivent pas longtemps, hors de leur confinement.
Mais
quels sont les autres indices qui défendent
l'hypothèse de
l'induction des quarks ? Ils sont nombreux. Mais d'ores et
déjà
on peut dire qu'il est imprudent d'éliminer arbitrairement,
une des
deux possibilités. Ensuite, l'échec du
déconfinement durable est
un premier indice fort. Dans le cadre du modèle Oscar, le
second
indice est flagrant car il montre qu'il n'existe qu'un seul type de
particule primordiale : la paire électron-positron.
De plus,
son ontologie est entièrement justifiée par les
dipôles dont il
est issu. Mais nous allons développer d'autres indices qui,
en
plus, expliquent le mécanisme précis de
l'induction des quarks.
Pour cela il nous faut d'abord rappeler les familles de particules du
modèle standard : a) les hadrons, qui comportent
des quarks ;
b) les leptons, qui n'en comportent pas. Nous allons étudier
quatre cas
significatifs qui comportent de 0 à 3 quarks.
On
a déjà parlé du proton au chapitre 5. On vu également avec le
lien [3]
que ce modèle est contraint par un proton composé
de 920 paires
neutres d'électron-positron et un positron
célibataire et confiné.
Ce n'est pas un hasard si le proton possède exactement la
charge du
positron. On a vu également que le proton possède
3 unités
physiques pour exprimer sa masse ; a) la masse
mesurée
(1836,15) en unité électron
habillé ; b) la masse nue en
unité entière
« électron non
habillé » (1841) ;
c)
la masse nue et brute
(1835,26) résultant des
paramètres primordiaux
[3] et
forcée de s'arrondir en nombre entier. On sait que
la masse mesurée de l'électron, comporte une
partie dite « virtuelle » qui le
rend plus massique que
sa base nue. On voit de suite que le nombre représentant sa
partie
neutre (1840 charges masquées) est divisible
par 16 et donc par 8.
Le nombre 8
jouant un rôle crucial dans la construction des
éléments
chimiques. On verra par ailleurs que le rayon du proton est
cohérent
avec un proton divisé en 4 groupes de 460 paires (ou 8
groupes de
230 unités). On note que 4 groupes
génèrent 3 intervalles.
On
a
vu l'importance universelle de la relation de Boltzmann au
chapitre 23 et de son application
au muon. Ce dernier possède
également 3 unités physiques pour exprimer sa
masse ;
a) la masse mesurée (206,76) en unité
électron habillé ; b)
la masse nue en unité électron non
habillé (207) ;
c) la masse brute (206,11)
résultant de la
loi d'information de Boltzmann :
mμ
=
ln
(ξ8)
dont
on reparlera au
chapitre 33. On voit de suite
que le nombre 206 n'est divisible ni par 8 ni par 3. Ce
lepton est donc formé d'un seul groupe. Il ne
génère donc aucun
intervalle et
donc aucun quark.
Enfin
le tableau suivant montre
également deux
autres particules
significatives
dont la première, appelée pion
πo,
comporte 2 quarks. Son nombre entier
(264)
est divisible par 3 mais pas par 16. Et
la quatrième est la particule
très lourde, cousine du muon, le tauon. Cette particule sans
quark, est
bizarre car elle peut se désintégrer soit en mode
lepton (sans
quark) soit en mode hadron,
avec quark. On
vérifie que son
nombre neutre (3480),
correspond à cette double issue car
il
se divise aussi bien par 3 que par 8. Le
tableau 31-1 montre la cohérence entre le nombre
d'intervalles entre
groupes et le nombre de quarks.
Ce
tableau a
été élargi a
beaucoup d'autres particules et chaque fois, on constate une
cohérence entre le
nombre d'intervalle et le
nombre de quarks. Les intervalles sont considérés
comme des zones
polarisées
qui offrent globalement une image miroir de la charge
célibataire
centrale.
Outre
l'élargissement de la cohérence de ce tableau,
y-a-t-il d'autres
indices ? Oui et nous allons maintenant en parler. Pour bien
comprendre, il faut revenir à la signification physique de
ce que
l'on appelle la longueur d'onde réduite
de Compton. Cette dernière est
considérée ici étant comme le
rayon de la partie « onde sphérique »
de la particule étudiée.
La base universelle est celle de l'électron, ƛe
= 3,86
×10–13
m. Cette
longueur est strictement rattachée à la masse de
la particule. A
partir d'elle, il suffit de faire une simple règle de trois
pour
obtenir le rayon « onde » de la
particule. Plus la masse
est grande, plus la longueur d'onde est petite. Cela veut dire
clairement que le produit
[ML] est une constante !
Mais attention, pour les particules composites, la masse à
prendre
en compte n'est pas la masse totale mais celle d'un
groupe. Par exemple, pour le proton, le rayon
« onde » ou
rayon de la coque sphérique,
n'est pas 1836 fois plus petit que celui de l'électron mais
1836/4 = 459 fois plus petit.
Cela
est confirmé par la mesure du rayon du proton : rp
= 4 ƛe
/ 1836,15
= 8,42 ×10–16
m, tout simplement. Cela veut dire que l'application de la
dualité
« onde/corpuscule » dans le
proton est de type « onde
+ corpuscule ». Il n'y a pas alternance (OU)
entre les
deux états
comme dans l'électron, mais une cohabitation de
type (ET).
La partie corpuscule – très minoritaire
– est représentée par
les quarks. La partie « onde »
est confondue
avec la charge. Le proton est majoritairement dans un état
« onde ».
En fait, toutes les particules composites fonctionnent de cette
manière.
Ci-après, le tableau
montre que les bosons de jauge et les quarks
sont toujours fonctions du ratio ξ1/2.
Ce ratio est la racine carrée de la jauge subquantique en
mode :
1D/1D. Mais les couches 2D du proton et de tous les baryons,
procèdent à des extractions en mode : 1D / 2D qui
est une
sorte de ratio topologique entre le 1D subquantique et le 2D quantique.
Le puits de jauge subquantique est le reflet exact des (5+1) stades de
la mitose, elle même réglée par la
suite de
Fibonacci : 1, 2, 3, 5, 8. Cette suite se retrouve dans les
coefficients harmoniques.
La
loi universelle ML = Cte, se retrouve dans le proton (base de toute la
matière) où la masse des quarks M vient corriger
le rayon
L de l'atome d'hydrogène. Les quarks sont des
inductions
permanentes si et seulement si, ils sont confinés,
alors
que les bosons de jauge sont essentiellement fugaces (instables). Ils
sont des extractions 1D de M compensant les perturbations de
symétrie L des dipôles subquantiques.
32.
La clé par
la constante
[ML]
Le
chapitre 31 nous dit que la notion quantique de masse est
différente
de notre perception macroscopique. Nous l'avons vu au chapitre 21, la
constante [ML] revêt une importance
considérable ! Le fait
que les particules composites n'oscillent quasiment pas, les
amènent
dans un mode où seules les charges s'annulent par masquage.
Mais
dans le cas de la transformation en photon ou en neutrino, la
séparation des charges en deux groupes opposés,
annule également
les masses. Cela vient de leur mode d'oscillation,
détaillé
ci-après.
En
clair, les deux types d'état sans
masse (neutrino
ou photon),
se comportent exactement comme le dipôle dual
oscillant où
règne
la loi du π-ADN.
Cette loi dit : a) la masse et la longueur (amplitude d'oscillation)
sont inséparables ; leur produit [ML] est une
constante ;
c) l'action est nulle (π-ADN)
par le fait que les deux longueurs en opposition sont
de nature vectorielle
M L→
et
donc la
somme est nulle
: (voir ici [6]
la forme mathématique). On peut dire que les deux moments
s'annulent. Au niveau
quantique, la
notion de masse seule,
n'existe pas.
Le
schéma est le suivant :
a)
le groupe massique
composite neutre : {+
– + – + – + –}
possède un rayon commun (non vectoriel) ;
b)
les
2 groupes oscillants non
massiques
: {+
+} {–
–} possèdent chacun un rayon opposé
à l'autre. La
classe (a)
concerne toutes les particules composites massiques alors que la
catégorie (b) concerne le neutrino et le photon (non
massique). A
cet égard, le mode muon
→ neutrino est
identique au mode
proton → photon :
{+
– + – + – + –} → {+
+} {–
–}. Ils
ne sont différentiés que par le spin. Le neutrino
est de type
Majorana et le groupe partenaire est représenté
par 1/2 BODYS. Le groupe partenaire du photon est
représenté par
un BODYS, entier. Dans la classe (a), la fusion
complète, masque les charges qui s'annulent ; dans la classe
(b), le masquage complet (superposition des charges) annule la
répulsion EM des charges de même signe
et les
additionne. Dans ce dernier cas, cela fonctionne comme un groupe
d'oscillateurs dipôles qui auraient fusionnés et
dont les
produits ML s'annulent.
Mais
comment
passe-t-on de l'état {+
– + –} à
l'état {+
+} {–
–} ? Si
on peut facilement comprendre comment les charges alternées
s'attirent, fusionnent, se superposent et se masquent, il
apparaît
étrange que des charges identiques puissent fusionner alors
qu'elles
se repoussent. En fait cela ne se produit pas puisque le masquage
(annulation des charges) est déjà
réalisé dans l'état «
massique ». Mais
dans cet état si le masquage annule bien la force de
répulsion, il
additionne les charges de même signe (+ ou –). De
plus, la force de Lorentz
(celle qui attire
les courants
parallèles ou déplacement de charges), tend
à conserver cet état. Ainsi le
groupe unique et instable, se scinde en deux parties
opposées car
c'est la forme fondamentale du boson-dipôle qui annule ses
paramètres
physiques dans sa dualité. Peu
importe de savoir si cela se présente sous forme de faisceau
de dipôles duaux ou si ces derniers sont
fusionnés. Cela
revient à
un
(π-ADN)
de plus grande taille. Ainsi, les neutrinos sont sous la
forme
fondamentale des dipôles fondamentaux. Ce qui
est exotique,
c'est la matière courante ! Ainsi l'oscillation de saveur
est
rendue possible par la participation des dipôles qui
–
évoluant dans tout le BEC – portent en eux les
résonnances leptoniques.
Dans
le cadre du proton par exemple, la longueur L (le rayon des
sphères)
est unique,
identique et commun,
pour toutes les masses du groupe. Il n'y a donc pas d'opposition
algébrique qui annulerait la somme des moments :
(m1
+ m2
+ mn)
L =
>
0.
La
seule dichotomie, dans le domaine des particules quantiques,
réside
dans cette dualité : soit la particule est dans
l'état massique est donc : (m1
+ m2
+ mn)
L > 0 ;
soit la particule est dans un état non massique (ou
π-ADN).
Les
particules massiques que
l'on observe, sont
orphelines (ou séparées) de leur
dualité. C'est un état
minoritaire et provisoire. Pour
être précis, cette
description ne concerne que la
partie neutre de la particule. Donc
l'oscillation (photon
ou neutrino)
est de type transverse : {quantique ↔ subquantique}
alors que
celle du dipôle est de type {subquantique
↔ subquantique}. Cela
lève complètement l'énorme
énigme
de la disparition de la masse, tant en mode photon qu'en mode
neutrino.
Tableau
32-1
état
|
partie
neutre du proton
|
partie
neutre du muon
|
massique
|
masquage
des charges
|
masquage
des charges
|
non
massique
|
l'oscillation
en mode seesaw → le produit vectoriel
annule masse et charge → photon
|
l'oscillation
en mode seesaw → le produit vectoriel
annule masse et charge → neutrino
|
En
fait, la nature nous montre naturellement le mode π-ADN
qui est la base
du modèle OSCAR. L'aspect
« particule massive » dont nous
sommes faits, est loin
d'être majoritaire. Il ne représente que l'aspect
éphémère lié à
la
séparation survenue sur le BEC fossile. Il est donc normal
que
photons et neutrinos, perdent leur masse, ce qui leur permet de filer
à la vitesse de la lumière. L'état
« particule massive »
ne peut que retourner à l'état π-ADN
via les modes neutrinos et photons.
Comment
le modèle standard gère-t-il cette
énigme de la disparition de la
masse ? Par un abus de langage. Explication : en
ramenant
tout à l'énergie. En
effet, pour
l'électron, il
suffit de dire que
le paquet massique : E
= me
c²,
se transforme en :
ħ
ν=
me
ƛe
²
/ te²,
non
massique. C'est vrai mais cela n'explique aucunement la disparition
de la masse ! D'ailleurs
le terme me
apparaît dans les deux expressions.
L'explication physique par le modèle oscar, est
fournie ici par la règle du
π-ADN,
donnée dès le chapitre 7. On ne peut pas dire que
le mode des dipôles soit caché car il transpire
dans ce qui est
largement
majoritaire dans l'univers : photons et neutrinos. Et certains
continuent à ne pas être
dérangés par des neutrinos allant à la
vitesse c,
tout en étant massiques !
Cependant, un des
succès du modèle standard, est d'avoir
bâti un système
d'unités très cohérent. Il y a
notamment la définition de la
charge électrique
élémentaire : e² =
f((me
ƛe)
= f(ML). Cela fonctionne très bien car la charge
est
véritablement une
composante de ML.
Rappelons-nous, dans l'oscillateur-2-dipôles d'origine, la
charge
(élevée au carré) est le vecteur
d'annulation des ML opposés.
Elle est donc forcément une composante des ML
opposés. Dans le
proton (composite), l'oscillation est comme figée. On peut
l'expliquer par plusieurs biais : a) le rayon est
imposé par
la constante ML ; b) l'empilement des ondes
sphériques ne
supporteraient pas une réduction de volume, car cela
aboutirait à
un brusque démasquage des charges électriques.
Aux limites, cela
demanderait tellement d'énergie que cela créerait
une nouvelle
particule. La masse inertielle du proton vient de sa non
oscillation.
Tableau
32-2
exemples
|
n groupes
mixtes (neutre)
|
2 groupes
miroirs chargés
|
partie
neutre du proton
|
(n=4) pas
d'oscillation → annulation des charges mais pas des masses
|
oscillation
seesaw → annulation des charges et des masses →
photons
|
partie
neutre du muon
|
(n = 1)
pas d'oscillation → annulation des charges mais pas des masses
|
oscillation
seesaw → annulation des charges et des masses →
neutrino
|
Le
modèle standard fait une dichotomie entre le photon et le
neutrino
sur la base du spin. Mais si cette dichotomie existe, elle n'est pas
fondamentale. Elle marque seulement la dualité
{localité – non
localité}. L'image miroir du neutrino est locale, ce qui
n'est pas
le cas du photon. Dans le cadre des particules composites : a)
la création du muon et du tauon est toujours locale, et
s'assimile
aux particules virtuelles ; b) la création stable
de l'électron
et du proton est toujours non locale. Cette non localité
donne un
photon de spin entier ( BODYS) alors que la
localité des
leptons donne un neutrino de spin 1/2 (1/2 BODYS = 1 pôle). En clair, un neutrino est une
variété
de « photon
local ».
Il
y a une subtilité ! Que vient faire le neutrino dit
« électronique »
lié à la désintégration du
neutron
en proton qui est dans le mode
« photon » ? Et bien,
en conformité avec ce qui a été
précédemment, les particules
virtuelles sont de création locale. En fait le
(petit)
neutrino issu de cette transformation, témoigne de la diminution
des particules virtuelles entre l'état neutron et
l'état proton.
Mais alors pourquoi les 3 types (saveurs) de neutrinos oscillent-ils
entre-eux ? Par la perturbation locale des
demi- BODYS.
Ces derniers comportent les 3 modes de résonance. Par
exemple, un
flux de neutrinos muoniques, attendu, sera
détecté avec une partie
transformée en neutrinos tauiques. En conclusion, les
neutrinos sont
de la famille des particules virtuelles. Elles trahissent les
perturbations locales qui oscillent en permanence.
Sommaire
33.
La subtilité
du continuum MLT
Ce
modèle dit clairement que l'espace-temps est
discrétisé. Alors
comment peut-on parler de continuum ? Il existe donc une
dualité continuum-discrétisation car
l'évolution du dipôle
apparaît comme continue. Dès le début
de cet ouvrage, nous avons
insisté sur l'inséparabilité de ML au
niveau des particules. Nous
avons vu que l'oscillateur-dipôle-dual est composé
de deux
moments
(ML) opposés. Nous avons vu que la charge
élémentaire est fonction
des deux ML opposés. C'est elle qui représente le
lien causal qui
les annule en permanence. Chercher à déterminer
le M du dipôle
est donc impossible. On ne peut connaître que le produit ML =
ħ
/c,
non
massique mais seulement dans le
référentiel dipôle. En
revanche, on peut mesurer le M de
l'électron car
il est séparé de son alter ego.
On a vu que le produit ML
est constant pour le dipôle, l'électron, le proton
et pour
toute
particule, y compris le ML de Planck. Il est la base du zéro
physique « à partir de
rien ». Il es la cause de la
fameuse dualité onde-particule. Plus la masse est faible,
plus la
longueur d'oscillation, est grande. Pour une masse nulle, la longueur
devient infinie.
Oui,
mais on a vu en long et en large, que la masse ne peut pas
être
nulle ! Revenons à la fameuse subtilité
avec le temps.
Replongeons-nous dans l'oscillateur dual. Pourquoi
existe-t-il ?
Parce que c'est la seule façon d'obtenir un zéro
physique. Le zéro
(mathématique) absolu ne peut exister à cause des
infinis qu'il
génère. Donc l'oscillateur dual est contraint
d'exister sous la
forme de deux ML opposés et qui s'annulent grâce
à leur composante
charge = f(ML). D'accord mais quelle est la
période
(l'inverse de la fréquence) ? Au départ,
les oscillateurs sont
stochastiques, et leur période est typiquement
aléatoire. Mais à
chacun des cycles est décidé un ML (changeant
à chaque cycle) et
c'est lui qui induit le temps. Bon on a vu que cette situation
débouche forcément sur une fusion-synchronisation
qui amène à une
seule et unique période.
Alors
si le temps est induit par ML, on doit pouvoir le prouver !
Cette relation [7]
montre que le temps propre de l'électron est bien
induit par ML. Mais il apparaît un énorme
paradoxe : les 3
unités (kg, mètre, seconde) totalement
arbitraires, ne peuvent pas
donner la valeur numérique du temps en seconde !
C'est vrai
mais c'est là que commence la subtilité.
Le
lien [7]
l'explique mathématiquement mais étant un peu
compliqué pour les non
initiés, nous allons montrer cette subtilité par
une autre voie.
En
première analyse, reportons-nous au chapitre 10 traitant de la
synchronisation. On
constate que la synchronisation revient à mettre tous les ML
en
commun. On rappelle ici que tous les dipôles sont,
à ce
stade, en
en mode stochastique car aucune loi (magique) ne fixe une valeur
précise. On rappelle également que la
synchronisation primordiale
relève de trois grandes lois : a) la loi de
Huygens, largement
vérifiée depuis, à
l'échelle quantique ; b) la loi
statistique des grands nombres qui aboutit forcément
à terme, à la
fusion générale ; c) la loi du π-ADN,
qui annule tout, y compris le temps et rend donc inéluctable
la
création d'un BEC synchronisé (dans le
référentiel dipôle) !
Comme en toute rigueur, la synchronisation est toujours relative au
temps, on a déjà un premier aperçu de
T = f(ML).
En
deuxième analyse, on vérifie que le temps
(inverse de la fréquence)
est toujours proportionnel à ML. On l'a
déjà abordé avec la corde
de guitare. Une corde longue et massive vibre lentement et donc
nécessite du temps pour réaliser un cycle de
vibration. elle donne
une note plutôt grave. Du point de vue dimensionnel, on
a : T =
√(ML/F)
où F représente
la tension (ML/T²) de la corde. Attention, l'analogie est limitée
car la note (fréquence) de la corde de guitare
dépend également de
la tension F. Or ce paramètre – contrairement
à la charge
électrique – ne dépend pas de ML comme
dans le dipôle ou
l'électron. On rappelle que le modèle standard
fixe également la
charge élémentaire comme
étant : e² = f(ML)
pour
l'électron.
En
troisième analyse, on vérifie que
l'inséparabilité et la
constance de ML, ramènent de fait, les deux arbitraires
à un
seul. On a donc un couple avec d'un
côté ; K = ML et
de l'autre ; T pour le temps. Toute la physique du
dipôle (et
de l'électron) est là ! Maintenant
imaginons une autre
civilisation avancée. Elle observe les mêmes
électrons (cousins
des dipôles) et leur affuble un K' = M' L',
exprimé dans
une autre
unité arbitraire. Elle exprime le temps de
l'électron dans une
unité tout aussi arbitraire, T'. Comme ici, cette
civilisation
ramènera l'unité K' à 1 = K1.
Alors le T' donnera
numériquement un ratio T'1, sans
dimension, qui
équivaudra à sa valeur dans son unité
arbitraire. Partout
l'électron répond à : T
= f(K). On aura en valeur
absolue (ou module) : T' / T1
= |T'|. L'électron est le
redresseur universel d'unités arbitraires. En
résumé, on peut dire que toutes valeurs
numériques arbitraires (K et T), formeront toujours
un
ratio proportionné avec l'unité
électron. Au
final, son rapport
physique naturel entre ML et T reste indissociable, y compris pour
tout arbitraire fixant ces deux unités.
Son
temps dépend de ML et donc la valeur mesurée dans
l'unité seconde
va s'inscrire comme un ratio sans dimension par rapport à
1 !
Et on vérifie que la relation [7]
donne effectivement la valeur
numérique du temps (mesuré) de
l'électron (mais sans
dimension). Le lien [7]
montre que l'électron oscillateur
revient à 3 débits
superposés : l'espace parcouru dans le
temps te,
donne une vitesse ; la charge
déplacée dans le temps te,
donne un
courant et le débit de masse dans le temps te,
donne une impédance. Comme le temps est commun au 3
débits (ou
courants), on retrouve le temps comme étant proportionnel
à la
racine cubique du produit scalaire de ces trois courants.
Sommaire
34.
Architecture du proton