close

Вход

Забыли?

вход по аккаунту

?

Science Magazine N°61 – Février-Avril 2019-compressed

код для вставкиСкачать
SCIENCE
magazine
N°61
14e année
www.entreprendre.fr
ORDINATEUR
QUANTIQUE
Le plus intelligent
de la Terre !
NOTRE ADN CÉRÉBRAL
PEUT CHANGER...
DU
CERVEAU
On découvre que
les neurones
peuvent se
modifier
POURQUOI L’HUMAIN PEUT
LIRE DANS LES PENSÉES
NANO-MÉDECINE
Les maladies que
l’on saura soigner
RECONSTITUTION EN 3D
Le site antique
de Palmyre, Syrie,
comme si vous y étiez
L 12580 - 61 - F: 5,90 € - RD
L’incroyable influence
de l’électricité et des
champs magnétiques
www.lafontpresse.fr
N°61 - Trimestriel - Février/Mars/Avril 2019 - BEL : 6,20€ - DOM/S : 6,50€ - LUX : 6,50€- CH : 9,30 FS - CAN : 9,99 $ cad - ESP/ITA/GR/PORT.CONT : 6,50€- D/A : 6,90€ - NCAL/S : 800 CFP - POL/S : 900 CFP - MAR : 68 mad - TUN : 11,5 tnd
LES MUTATIONS
SCIENCE
magazine
Sommaire
N°61 - Février/Mars/Avril 2019
Edité par Entreprendre (LAFONT PRESSE)
53 rue du Chemin Vert - CS 20056
92772 Boulogne-Billancourt Cedex
www.lafontpresse.fr
Tél. : 01 46 10 21 21
Directeur de la publication et de la rédaction
Robert Lafont
courriel : robert.lafont@lafontpresse.fr
Secrétaire générale des rédactions :
Isabelle Jouanneau - Tél. : 01 46 10 21 21
Isabelle.jouanneau@lafontpresse.fr
Rédaction déléguée :
Sacha Lorens (sacha.Lorens@free.fr), Laurence Miglioli
avec l’autorisation de : Jean-Louis Carrel, Peter Collins,
Raphaël Picard
• ADMINISTRATION
Directeur comptable : Didier Delignou
didier.delignou@lafontpresse.fr
Comptable : Alizée Dufraisse - Tél. : 01 46 10 21 03
alizee.dufraisse@lafontpresse.fr
• PUBLICITÉ & PARTENARIATS
Directeur
Éric Roquebert - Tél. : 01.46.10.21.06
eric.roquebert@lafontpresse.fr
• FABRICATION
Rédactrice graphiste : Delphine Balme
Imprimerie : Rotogaronne (47 - Estillac)
Origine du papier : Allemagne
Taux de fibres recyclées : 100%
Certification : PEFC
Eutrophisation : PTot 0.001 Kg/t.
• DIFFUSION PRESSE
Isabelle Jouanneau - Tél. : 01 46 10 21 21
Isabelle.jouanneau@lafontpresse.fr
Distribution : MLP - Tondeur (Belgique)
• ABONNEMENTS
Dominique Bokey
courriel : dominique.bokey@lafontpresse.fr
Crédits photos couverture : ©Fotolia
Science magazine est édité par Entreprendre S.A au capital de 246 617.28€
RCS NANTERRE 403 216 617 SIRET : 403 216 617 000 23 NAF : 5814Z SA
53 rue du Chemin Vert 92100 Boulogne-Billancourt
Tél. : 01.46.10.21.21 - Fax : 01.46.10.21.22
Toute reproduction, même partielle, des articles et iconographies publiés dans
Science magazine sans l’accord écrit de la société éditrice est interdite, conformément à la loi du 11 mars 1957 sur la propriété littéraire et artistique. La rédaction
ne retourne pas les documents et n’est pas responsable de la perte ou de la
détérioration des textes et photos qui lui ont été adressés pour appréciation.
N° de commission paritaire : en cours - N°ISSN : 1777-0173
Dépôt légal à parution.
NOTRE ADN CÉRÉBRAL
PEUT CHANGER...
LES MUTATIONS
DU CERVEAU
P.46
L’ACTUALITÉ DE LA SCIENCE ET LES EXPOSITIONS ........................................................................... 6
LA COURSE À L'ORDINATEUR QUANTIQUE ..............................................36
Des calculs accélérés dans des proportions inouïes ............................................................................... 38
A la moindre perturbation, tout s'évanouit... ........................................................................................... 40
Des qubits de grande robustesse ......................................................................................................... 42
Vers un leadership franco-australien .............................................................................................................44
MUTATION DU CERVEAU : LE RÔLE ÉTONNANT DE CERTAINS NEURONES ................... 46
Un peu d'électricité, et le neurone change de fonction ! .......................................................................... 49
L'Homme est-il la seule espèce qui lit dans les pensées ? ....................................................................... 50
Vengeance ou pardon : le cerveau décide ................................................................................................51
LA « FIN » DU KILOGRAMME ....................................................................................................................... 52
Avertissement : L’éditeur se réserve la possibilité de republier certaines enquêtes
ou reportages des titres Lafont presse.
LES 7 UNITÉS DU MONDE ............................................................................................................................ 58
LES MAGAZINES POSITIFS
ILS INVENTENT LA MÉDECINE DE DEMAIN .................................................................................................. 66
À lire sur lafontpresse.fr
TECHNOLOGIE 3D : REDONNER VIE À PALMYRE........................................................................................... 74
Economie : Entreprendre, Création d’entreprise magazine, Franchise &
Commerce, Manager & Réussir, Question Eco, Argent & Patrimoine
magazine, Placements, Bourse magazine, Spécial Argent, Business event’,
Nouvel agriculteur. People : Journal de France, Intimité, Succès, Enquêtes
magazine, Dossier enquêtes, Crimes magazine, Histoires vérité, Incroyable,
Reality, Intimité Dimanche, Spécial People, Paris confidences, France
Actualité, La une de l’actualité, Actualité de France, Hella, Confidences
magazine, Viva Célébrité, Souvenirs Souvenirs, Numéro Spécial, Johnny
magazine, Reines & Rois, Royauté, Gotha magazine, Femme de cœur. Auto :
L’essentiel de l’Auto, Automobile revue, Panorama SUV, Auto magazine,
Pratique Auto, Spécial Auto, Auto Souvenir, Voitures classiques, Automobile
verte, L’essentiel de la Moto, Tracteurs magazine, Train magazine, Le
magazine de l’aviation, L’essentiel du Drone. Sport : Le Foot, Le Foot Gazette
des Transferts, Le Foot Paris magazine, Le Foot Lyon magazine, Le Foot
Marseille, Le Foot magazine, Rugby magazine, Handball magazine, France
Basket, Le Sport, Le journal du sport, Sport Panorama, Féminin footing, Le
Sport Vélo, Cyclisme magazine, Le Sport Tennis, Le Sport Formule 1, Auto
sport magazine, Sport souvenirs. Féminin : Féminin Psycho, L’essentiel de
la Psycho, Santé femme, Santé revue, Santé Info, Féminin Santé, Pratique
Santé magazine, Santé revue Seniors, Seniorito, Nutrition magazine,
Dossier santé, Santé guide, Réponse parents, Médecine douce, Médecine
alternative, Santé bio, 365 jours femme, Le magazine des femmes, Féminin
positif. Maison-Déco : Maison Décoration, Maison Décoration cuisine,
Maison campagne & jardin, L’essentiel de la Déco, Spécial Déco, Bricolez
magazine, Faire soi-même, Jardin magazine spécial, Jardiner, Info Jardin,
Potager pratique, Jardin potager facile, Potager bio de saison. Centres
d’intérêts : Spécial Chats, Spécial Chiens, Féminin pratique, Les dossiers
pratiques, Pratique magazine, Bio & écologie magazine, Stop Arnaques,
Pêche magazine, Chasse magazine, France Evasion, Spécial Seniors,
Féminin Senior, Viva Plus, Bien vivre sa retraite, Nouveau magazine.
Cuisine : Cuisine revue, Cuisine magazine, Spécial Cuisine, Végétarien
magazine. Information-Culture : Science magazine, L’essentiel de la
Science, La revue de la Science, Science et paranormal, Science du monde,
Cerveau & Intelligence, Pratique santé spécial mémoire, Question de Philo,
L’événement magazine, Diplomatie internationale, Informer, Spécial Céline,
La Presse littéraire, Histoire magazine.
Entreprendre (Lafont presse),
groupe media coté à la bourse
d’Euronext Growth
(code ALENR)
www.lafontpresse.fr
LES LIVRES DE LA SCIENCE ............................................................................................................. 80
LE FORUM DES LECTEURS .............................................................................................................. 82
Prochain
Science magazine
le 17 avril 2019
ABONNEZ-VOUS
Et renvoyez ce bon dument rempli à Lafont Presse
53 rue du Chemin Vert - CS 20056 - 92772 Boulogne-Billancourt Cedex
SCIENCE
magazine
OUI, je m’abonne à Science magazine (papier + numérique)
et le recevoir chez moi (10 numéros dont 2n° gratuits au prix de 47€)
Nom :
Adresse :
Code Postal :
Télephone :
Courriel :
Prénom :
Ville :
Date de naissance :
Je règle par Chèque bancaire ou postal à l’ordre de Lafont presse
53 rue du Chemin Vert - CS 20056 - 92772 Boulogne-Billancourt Cedex
par carte Bancaire visa
signature :
N° :
❏
expire fin
cryptogramme (les trois derniers chiffres au dos de votre carte)
La revue de la Science
est chez votre marchand
de journaux ou sur
www.lafontpresse.fr
❍ En
cadeau, je reçois La Revue de
la Science
Abonnez-vous sur www.lafontpresse.fr
Conformément à la loi “informatique et libertés” du 6 janvier 1978
modifiée en 2004, vous bénéficiez d’un droit d’accès et de rectification aux informations qui vous concernent. Vous pouvez accéder
aux informations vous concernant, les rectifier et vous opposer
à la transmission éventuelle de vos coordonnées en cochant la
case ci-contre ❏ ou en adressant un courrier libre à Lafont presse
53, rue du Chemin vert, 92100 Boulogne Billancourt.
Tarif DOM TOM et étranger : + 2 € par revue servie
En kiosques ou sur lafontpresse.fr
c’est positif !
SCIENCE
magazine
éditorial
LE MONDE QUANTIQUE RÈGNE SUR NOUS...
Le rêve de l'ordinateur quantique va-t-il bientôt devenir réalité ? Grâce à l'augmentation exponentielle des puissances de
calcul, il sera capable de réaliser des tâches impossibles actuellement, de créer des solutions inaccessibles aujourd'hui
pour faire avancer la science et la recherche. Sans compter
la confidentialité absolue des communications.
La course est lancée au niveau international, car il ne s'agit
pas d'être en reste par rapport à des pays comme la Chine
qui investissent beaucoup dans ce domaine. La maîtrise de
l'ordinateur quantique octroiera à celui qui la possède une
suprématie incomparable. Aussi, en mai dernier, Microsoft
annonçait pouvoir créer un ordinateur quantique d'ici cinq
ans ; IBM parle même de trois ans. La France dispose pour
sa part d'une recherche de qualité, notamment au CEA et au
CNRS. En fait, en 2015 déjà, Google présentait son ordinateur quantique, le D-Wave 2X, 100 millions de fois plus
rapide qu'un ordinateur classique. Mais ces premiers spécimens sont des prototypes d'une taille considérable, les qubits
en aluminium devant être maintenus à -270°C pour conserver l’état de superposition quantique. La commercialisation
n'est pas pour aujourd'hui.
En effet, la conception d'un tel ordinateur se heurte à de
nombreux obstacles. Contrairement aux bits classiques qui
ne peuvent connaître que deux valeurs (0 ou 1), dans le nanomonde les qubits (« quantum-bits ») peuvent être à la fois
dans plusieurs états. Ils se composent d'une superposition
de deux états de base qui correspondent à des amplitudes
de probabilité. Seulement voilà, ces états sont extrêmement
fragiles. D'où une difficulté pour parvenir jusqu'au bout des
calculs. C'est pourquoi certains chercheurs estiment qu'on
n'arrivera jamais à créer des ordinateurs quantiques opérationnels avec un grand nombre de qubits et un faible taux
d'erreurs.
La physique quantique règne sur nous également dans le
domaine des mesures. 2019 verra la disparition des étalons
physiques pour quatre d'entre elles : le kilogramme, l'ampère,
le kelvin et la mole. Bien sûr, un kilo pèsera toujours un kilo,
mais sa définition ne reposera plus sur un prototype matériel
conservé précieusement sous trois cloches de verre, à Sèvres,
dans les Hauts-de-Seine. Les scientifiques ont estimé qu'au
vu des connaissances actuelles, une définition reposant sur
des constantes fondamentales de la physique (la constante
de Planck dans le cas du kilogramme) est infiniment plus
précise.
« Seconde révolution quantique » (avec l'informatique),
révolution de la métrologie (ou science de la mesure)... la
physique de l'infiniment petit provoque actuellement des
bouleversements d'importance dans notre monde macroscopique !
Sacha Lorens
5
6
Actualités
Breves
La voiture autonome aura-t-elle
votre sens de la morale ?
Percuter une femme avec une poussette
ou aller dans le mur au risque de tuer
les quatre passagers ? Voilà le genre de
dilemme auquel sont confrontés les voitures autonomes et, plus encore, ceux qui
les programment...
C'est pourquoi des chercheurs du CNRS
(membre de TSE - Université Toulouse Capitole), du MIT, des universités d’Harvard et
de Colombie Britannique, ont lancé en 2016
la plateforme en ligne « Moral Machine ».
Son but : interroger les internautes sur les
dilemmes moraux auxquels nous confronte
le développement des véhicules autonomes.
Quelle est pour eux la solution « la plus
juste » ? Les chercheurs ont ainsi récolté 40
millions de décisions auprès des internautes
de 233 pays ou territoires.
L’analyse de ces données a permis d’identifier
trois critères moraux principaux : sauver des
vies humaines plutôt que des animaux, sauver
le plus grand nombre de vies, et sauver les vies
des plus jeunes plutôt que celles des personnes
âgées. Ainsi, les profils les plus sauvés dans
les situations proposées par Moral Machine
sont les bébés en poussette, les enfants et les
femmes enceintes.
Les résultats montrent également des préférences morales beaucoup plus controversées :
les personnes en surpoids ont environ 20% de
probabilité de plus de se faire tuer face à des
personnes athlétiques ; les personnes pauvres
40% de probabilité de plus que des personnes
riches, tout comme les personnes ne respectant pas les feux de signalisation par rapport
à ceux qui les respectent. D’ailleurs, les chercheurs notent que, dans les pays développés,
avec des lois et institutions fortes, les utilisateurs sauvent moins souvent les piétons ne
traversant pas sur un passage clouté que les
internautes de pays moins développés !
Les données récoltées étant publiques et
accessibles à tous, les auteurs espèrent
qu’elles seront consultées par les gouvernements envisageant de légiférer sur les voitures
autonomes ou les industriels travaillant sur la
programmation de ces voitures. Le but n’est
pas nécessairement de suivre la volonté des
utilisateurs de Moral Machine, mais d’avoir
une vision globale des préférences morales
des citoyens. Les chercheurs restent cependant prudents sur la représentativité de
l’étude, les participants ayant été volontaires
pour répondre et non sélectionnés par des
méthodes d’échantillonnage.
La pollution cause plus de décès
qu'on ne croit
Depuis de nombreuses années, des études
à grande échelle font le lien entre la pollution de l’air et l’incidence de décès chez les
humains. Cependant, il semble que des évaluations mondiales aient sous-estimé combien de décès à l’échelle planétaire peuvent
être causés par l’air que nous respirons.
50 scientifiques ont contribué à une analyse novatrice à grande échelle de plusieurs
études réalisées à travers le monde pour se
prononcer sur l’impact de la pollution de
l’air sur la mortalité.
« Les prévisions quant au nombre de décès
causés par la pollution de l’air atmosphérique
sont environ deux fois plus importantes que
les calculs antérieurs effectués sous l’égide
de l’Organisation mondiale de la Santé, »
mentionne le Dr Krewski, de l’École d’épidémiologie et de santé publique de la Faculté
de médecine de l’Université d’Ottawa. «Cela
porte à croire que la pollution de l’air atmosphérique est un facteur de risque beaucoup
Science magazine n°61
plus important pour la santé de la population
qu’on ne l’avait pensé. »
Plus particulièrement, les scientifiques ont
conclu que, chaque année, près de 9 millions
de décès sont attribuables à la pollution de
l’air, un nombre nettement plus élevé que les
4 millions de décès estimés par l’Organisation
mondiale de la Santé (OMS) dans le cadre
de son Programme sur la charge mondiale
de morbidité. Ils suggèrent également que
la pollution de l’air peut aussi contribuer à
certaines maladies que l’on n'associait pas,
jusqu’à maintenant, à la pollution de l’air.
Breves
Actualités
7
© ESA/NASA-A.Gerst
Une aurore polaire
vue de l'espace
A quoi ressemble une aurore polaire lorsque l'on n'est pas sur Terre ? Vue de
la Station spatiale internationale, elle procure des effets spectaculaires avec
ses lumières dansantes. Elle capte également l'imagination des scientifiques
qui étudient l'énergie et les particules en provenance du Soleil.
Les aurores sont un résultat de ces particules énergétiques qui arrivent sur
Terre sous forme de vent solaire et proviennent de gigantesques éruptions
de la couronne solaire. Après un voyage de 2 à 3 jours vers notre planète,
ces particules sont piégées, ce qui déclenche des réactions dans la haute
atmosphère où des molécules d'oxygène et d'azote relâchent des photons :
ce sont les aurores boréales et australes.
Science magazine n°61
8
Actualités
Breves
On n'avait jamais vu un trou noir
d'aussi près !
L’exceptionnelle sensibilité de l’instrument
GRAVITY de l’ESO a permis de confirmer l’existence supposée d’un trou noir
au centre de la Voie Lactée.
Des scientifiques membres d’un consortium
d’institutions européennes* ont utilisé l’instrument GRAVITY qui équipe l’Interféromètre du Very Large Telescope (VLT) de
l’ESO pour observer les émissions de rayonnement infrarouge en provenance du disque
d'accrétion qui entoure Sagittarius A*, l’objet massif situé au cœur de la Voie Lactée.
Les sursauts de luminosité observés offrent
la confirmation tant attendue que l’objet situé au centre de notre galaxie est bel et bien
un trou noir supermassif. Les sursauts sont
émis par la matière qui orbite à très grande
proximité de l'horizon des événements du
trou noir. Il s’agit des observations les plus
détaillées à ce jour de la matière se déplaçant
à si grande proximité d’un trou noir.
La matière composant le disque d'accrétion l’anneau de gaz qui orbite autour de Sagittarius A* à des vitesses relativistes - peut se
déplacer autour du trou noir en toute sécurité.
En revanche, tout objet qui s’en rapproche
trop est condamné à traverser l’horizon des
événements. Ainsi, l’ensemble des positions
que la matière peut occuper sans se trouver
irrésistiblement attirée par l’énorme masse
centrale définit l’orbite stable la plus proche
du trou noir. De cette orbite proviennent les
éruptions observées.
« Le spectacle de la matière orbitant autour
d’un trou noir massif à quelque 30% de la
vitesse de la lumière est tout simplement
époustouflant », précise Oliver Pfuhl, scientifique au MPE (Institut Max Planck dédié à
la Physique Extraterrestre). « L’exceptionnelle sensibilité de GRAVITY nous a permis d’observer les processus d’accrétion en
temps réel et avec des détails inégalés. »
GRAVITY a en effet permis de combiner la
lumière en provenance des quatre télescopes
du VLT de l’ESO et donc de créer un super
télescope virtuel de 130 mètres de diamètre.
En début d’année, GRAVITY et SINFONI,
un autre instrument installé sur le VLT,
avaient permis à la même équipe de précisément caractériser le survol rapproché de
l'étoile S2 et donc sa traversée de l’intense
champ gravitationnel généré par Sagittarius
A*. Pour la première fois, la théorie de la
relativité générale d’Einstein se trouvait
confirmée dans un environnement aussi extrême. Au cours du survol rapproché de S2,
un intense rayonnement infrarouge fut également détecté. « Nous avons suivi le mouvement de S2 avec attention, tout en observant
Sagittarius A* », précise Oliver Pfuhl. « Lors
de nos observations, nous avons eu la chance
de détecter trois brillantes éruptions issues
des environs du trou noir - il s’agissait d’une
heureuse coïncidence ! »
Cette émission issue d’électrons hautement
énergétiques situés à très grande proximité
du trou noir s’est traduite par la survenue
de trois fortes éruptions de lumière. Ce
phénomène est en accord parfait avec les
prévisions théoriques concernant les points
chauds en orbite autour d’un trou noir doté
de quatre millions de masses solaires. Les
éruptions sont censées provenir d’interactions magnétiques au sein du gaz très chaud
orbitant à très grande proximité de Sagittarius A*.
Reinhard Genzel, du MPE à Garching (en
Allemagne), a piloté cette étude. Il conclut
ainsi : « Cela a toujours été l’un de nos rêves,
jamais pourtant nous n’aurions osé espérer
qu’il se réalise si rapidement ».
*Les laboratoires français impliqués sont le Laboratoire d’études spatiales et d’instrumentation en astrophysique (LESIA, Observatoire de Paris/
CNRS/Sorbonne Université/Université Paris-Diderot) et l’Institut de planétologie et d’astrophysique de Grenoble (IPAG/OSUG, Université Grenoble Alpes/CNRS).
Science magazine n°61
Breves
Actualités
9
L'origine de la vie serait terrestre
Plusieurs hypothèses sont envisagées pour
expliquer l’origine de la vie sur Terre.
Certaines études considèrent les apports
extraterrestres, via les météorites ou les
astéroïdes, comme une source de molécules
organiques nécessaire à l’ensemencement
de la Terre. D’autres estiment que notre
planète a et a eu le potentiel pour réaliser
une chimie prébiotique suffisamment efficace pour engendrer les premières briques
du vivant.
Une nouvelle étude apporte un argument de
premier ordre à cette dernière hypothèse,
et notamment à la théorie hydrothermale
de l’origine de la vie, repoussant même sa
possible émergence en profondeur, bien
au-delà des sources hydrothermales des
fonds océaniques.
Le monde du vivant est notamment caractérisé par sa capacité d’autonomie et de
reproduction, mais surtout par la grande
complexité de ses structures organiques.
Comprendre le passage d’un monde minéral
à ces molécules organiques de plus en plus
complexes et aptes à s’assembler pour créer
les premières briques du vivant est donc primordial à la compréhension de l’apparition
de la vie telle qu’on la connait sur Terre.
Dans les années 50, l’expérience de laboratoire de deux chercheurs américains, Stanley Miller et Harold Urey, a montré que les
conditions extrêmes qui régnaient sur la très
jeune Terre auraient pu rendre possible la
synthèse de telles molécules dans l'atmosphère primitive avant leur dissémination
dans les océans peu profonds, avant même
l’apparition de toutes formes de vie. Cependant, cette hypothèse, dite de la soupe primitive, n’a jamais pu être démontrée en milieu
naturel, et les conditions utilisées dans ces
expériences ne reflétaient pas celles régnant
probablement lorsque la vie est apparue sur
Terre.
Une équipe de scientifiques européens, menée par Bénédicte Ménez et Céline Pisapia,
géomicrobiologistes à l’Institut de physique
du globe de Paris (IPGP/université Paris Diderot/CNRS) et enseignantes-chercheuses
à l’université Paris Diderot, et constituée
de chercheurs du laboratoire de Géologie
de Lyon (université Claude Bernard/ENS
Lyon/CNRS), du centre français de rayonnement synchrotron SOLEIL, de l’Institut de
chimie des substances naturelles (CNRS), et
de l’université Nazarbayev au Kazakhstan,
a utilisé une approche de microscopie corrélative innovante. Elle combine plusieurs
techniques d’imagerie de haute-résolution,
sur des échantillons prélevés par forage à
environ 175 m de profondeur dans la lithosphère océanique lors de l’Expédition 304
du programme international de forage océanique IODP (www.iodp.org). Grâce à cette
méthode, les scientifiques ont pu observer
des acides aminés, molécules complexes
indispensables au vivant, synthétisés abiotiquement au cours de l’altération des roches
océaniques profondes provenant de l’Atlantis Massif (dorsale médio-atlantique, 30°N).
C’est l’interaction entre l’eau de mer et les
minéraux de ces roches, issues du manteau
terrestre, ainsi que la structure en feuillet
de l’argile résultant de leur altération, qui
ont sans doute apporté les conditions idéales
pour la formation de ces constituants primaires des premières briques du vivant, tel
un « miroir géologique » aux expériences
atmosphériques de Miller. Cette observation
fournit le premier indice certain qu’un tel
processus peut se produire dans des roches
terrestres dans des conditions proches de
celles qui régnaient sur la Terre primitive.
Science magazine n°61
10
Actualités
Breves
Notre cerveau nous pousse
à la feignantise !
Minimiser nos efforts, tel est l'objectif de
notre cerveau. Aussi doit-il utiliser beaucoup de ressources pour contrer notre
penchant à la sédentarité !
Aujourd’hui, environ 30% des adultes et
80% des adolescents n’atteignent pas le niveau minimum d’activité physique quotidien
recommandé par l’Organisation mondiale de
la santé (OMS) pour demeurer en bonne santé.
Le décalage entre l’intention de faire du sport
et le passage à l’acte chez les personnes tendant à la sédentarité a déjà été démontré par
des études précédentes. Mais que se passe-t-il
dans le cerveau pour que l’intention ne soit
pas suivie de l’action ?
Pour répondre à cette question, les équipes
de Boris Cheval, chercheur à la Faculté de
médecine de l’UNIGE, aux HUG (Hôpitaux
Universitaires de Genève) et dans le PRN
LIVES, et de Matthieu Boisgontier, chercheur à l’université KU Leuven (Belgique)
et à l’Université de British Columbia (UBC,
Canada), ont étudié l’activité neuronale de 29
personnes, toutes voulant être actives dans
leur quotidien, sans l’être forcément. Les participants devaient ensuite choisir entre l’activité physique et la sédentarité, pendant que les
chercheurs sondaient leur activité cérébrale
à l’aide d’un électro-encéphalographe muni
de 64 électrodes.
« Nous avons soumis les participants au jeu
du mannequin, qui consiste dans un premier
temps à diriger un mannequin vers des images
représentant une activité physique et de l’éloigner d’images représentant la sédentarité,
puis dans un deuxième temps d’effectuer
l’action contraire », explique Boris Cheval.
Les chercheurs ont ensuite comparé la différence de temps pour approcher la sédentarité
et pour l’éviter. « Nous avons constaté que
les participants mettaient 32 millisecondes de
moins à s’éloigner de la sédentarité, ce qui
est important dans une telle tâche », s’étonne
Boris Cheval, ce résultat allant à l’encontre
Science magazine n°61
de la théorie et du paradoxe de l’activité physique. Mais alors, comment l’expliquer ?
Il s’agit ici de la force de la raison. Les participants fuient la sédentarité plus vite qu’ils ne
l’approchent, parce que cette action est non
seulement en accord avec la consigne donnée par les chercheurs, mais surtout avec leur
intention d’être actif physiquement. Ils font
alors appel aux ressources nécessaires pour
fuir leur penchant naturel qui les poussent à
la minimisation de l’effort et réagissent rapidement pour contrer cet « instinct ».
« Par contre, nous avons observé que l’activité électrique associée à deux zones cérébrales en particulier, le cortex fronto-medial
et le cortex fronto-central, était beaucoup plus
élevée que lorsque le participant devait choisir la sédentarité », constate B. Cheval. Ces
deux zones représentent respectivement le
combat qui s’instaure entre la raison et les affects, et la capacité d’inhibition des tendances
naturelles. « Le cerveau doit donc solliciter
beaucoup plus de ressources pour s’éloigner
des comportements sédentaires, plutôt que de
suivre son penchant pour la minimisation de
l’effort », continue le chercheur.
D’où vient ce penchant pour la sédentarité ?
« La minimisation de l’effort était capitale
pour l’espèce humaine au cours de l’évolution. Cette tendance à l’économie et à la
conservation des ressources augmentait
les chances de survie et de reproduction »,
explique B. Cheval. « Mais aujourd’hui,
nos sociétés modernes rendent cette optimisation énergétique caduque. Il faudrait au
contraire encourager l’activité physique au
lieu d’offrir des tentations à en faire moins,
comme les escalators ou les ascenseurs. Il
s’agirait par exemple de modifier l’espace
public pour réduire les opportunités des individus de s’engager spontanément dans des
comportements associés à une minimisation
de l’effort. »
Breves
Actualités
11
Réchauffement climatique :
l’inquiétante leçon du passé
Il y a 56 millions d’années, entre le Paléocène et l’Éocène, un réchauffement climatique a entraîné des crues très importantes
et bouleversé les paysages de la Terre.
Ce réchauffement fut exceptionnel. En un
temps très court à l’échelle géologique, 10 à
20 000 ans à peine, la température moyenne
a augmenté de 5 à 8 degrés, ne retrouvant
son niveau d’origine que quelques centaines de milliers d’années plus tard.
Dès les années 70, les scientifiques ont observé une forte anomalie du rapport entre les
isotopes stables du carbone, due à l’augmentation relative de la proportion de l’isotope
léger par rapport à l’isotope lourd, et traduisant un bouleversement du cycle du carbone,
tant dans les océans que sur les continents,
associé à un réchauffement global aux conséquences spectaculaires. Il y avait des palmiers
au pôle Nord et certaines espèces de plancton
marin, comme le dinoflagellé Apectodinium,
normalement restreintes aux eaux tropicales,
se sont soudainement répandues sur toute la
surface du globe. Les géologues utilisent ce
type d’observations comme de véritables
« paléothermomètres » qui témoignent dans
ce cas d’une élévation de la température des
eaux de surface ayant atteint presque 36
degrés par endroits, une température létale
pour de nombreux organismes.
laquelle on assiste aujourd’hui est beaucoup
plus rapide », souligne Sébastien Castelltort,
professeur au Département des sciences de la
terre de la Faculté des sciences de l’UNIGE,
et leader de l’étude faite en collaboration avec
des chercheurs des universités de Lausanne,
Utrecht, Western Washington et Austin.
En s’appuyant sur l’analyse de sédiments sur
le versant sud des Pyrénées, les chercheurs ont
mesuré l’impact de ce réchauffement sur les
crues des rivières et sur les paysages qui les
entouraient alors : des crues dont l’amplitude
est multipliée par 8 - et parfois même par un
facteur 14 -, ou encore une végétation qui
disparaît au profit d’un décor de galets.
Les scientifiques ignorent encore comment
le régime des précipitations a évolué, mais
savent que ce réchauffement a entraîné, outre
des crues plus intenses, une plus forte saisonnalité, avec des étés plus chauds. L’évaporation plus importante a entraîné une hausse des
précipitations dans une proportion inattendue. Un degré d’élévation de la température
implique une hausse de 7% de la capacité
de rétention de l’humidité dans l’air, et c’est
ce rapport qui est généralement utilisé pour
évaluer l’augmentation des précipitations.
« Mais notre étude montre qu’il y a des seuils,
des évolutions non linéaires qui vont au-delà
de ce rapport. Avec un rapport de 14 pour
l’amplitude des crues, on est face à des effets
qu’on ne comprend pas, qui s’expliquent
peut-être par des facteurs locaux, mais aussi
par des effets qui ne sont pas encore incorporés dans les modèles climatiques actuels »,
conclut Sébastien Castelltort.
Quoi qu'il en soit, ces conclusions inquiétantes montrent que les conséquences de ce
phénomène ont été bien plus importantes
que ne le prévoient les modèles utilisés aujourd’hui par les climatologues.
Plusieurs causes sont avancées, de l’activité volcanique intense à cette période à la
déstabilisation des hydrates de méthane, ces
« glaçons » de méthane stables sous certaines
conditions de pression et de température, qui
en dégazant auraient libéré leur gaz à effet
de serre.
Mais si l’événement est connu et ses causes
explorées, qu’en est-il de ses conséquences ?
« La question est importante car il y a une
analogie évidente avec le réchauffement
actuel et des leçons à tirer de cet événement,
d’autant que la hausse des températures à
Science magazine n°61
12
Actualités
Breves
BepiColombo va percer
les mystères de Mercure
© ESA - S. Corvaja
Depuis 3 mois, la mission BepiColombo
se dirige vers la planète la plus proche du
Soleil pour une mission audacieuse...
BepiColombo est la première mission européenne à destination de Mercure, la planète
la plus petite et la moins explorée à ce jour du
Système solaire interne. Initiative commune
de l’ESA et de l’Agence japonaise d’exploration aérospatiale (JAXA), ce sera également la
première mission constituée de deux orbiteurs
scientifiques qui effectueront simultanément
des mesures complémentaires de la planète et
de son environnement dynamique.
Il s'agit d’une des missions interplanétaires les
plus complexes jamais lancées. Construit par
l’ESA, le module de transfert vers Mercure
(MTM) transportera les orbiteurs jusqu’à la
planète en combinant un système de propulsion hélioélectrique et plusieurs manœuvres
d’assistance gravitationnelle dont un survol
de la Terre, deux survols de Vénus et six survols de Mercure avant de se satelliser autour
de cette planète fin 2025.
Certains instruments des deux orbiteurs scientifiques pourront également fonctionner au
cours de la phase de croisière, ce qui permettra
de recueillir de précieuses données scientifiques concernant Vénus. En outre, plusieurs
instruments conçus pour étudier un aspect
particulier de Mercure pourront être utilisés
pour étudier des caractéristiques totalement
différentes de Vénus, laquelle possède une
atmosphère dense contrairement à Mercure
dont la surface est bien visible.
« L’un des défis les plus importants à relever est la gravité considérable exercée par
le Soleil, ce qui rend particulièrement difficile l’insertion d’un véhicule spatial sur une
orbite stable autour de Mercure » a précisé
Andrea Accomazzo, responsable de la trajectoire de vol de BepiColombo à l’ESA.
« En effet, il faudra constamment exercer
un freinage afin de garder sous contrôle la
trajectoire en direction du Soleil, tandis que
les propulseurs ioniques fourniront la faible
poussée requise durant de longues séquences
de la phase de croisière ».
Science magazine n°61
Parmi les autres défis auxquels le véhicule
spatial sera confronté, il faut citer des températures extrêmes comprises entre -180° C
et plus de 450° C. De nombreux mécanismes
et revêtements de protection de BepiColombo n’ont jamais été testés dans de telles
conditions.
Les deux orbiteurs effectueront simultanément des mesures qui révéleront la structure
interne de Mercure, la nature de sa surface
et l’évolution de ses caractéristiques géologiques (dont la présence de glace dans ses cratères qui se trouvent à l’ombre), ainsi que les
interactions entre la planète et le vent solaire.
« BepiColombo tirera parti des découvertes
et des questions soulevées par la mission
Messenger de la NASA pour faire progresser
les connaissances sur Mercure et sur l’évolution du Système solaire » a souligné Johannes
Benkhoff, responsable scientifique du projet
BepiColombo à l’ESA. « Ce qui à son tour
s’avérera essentiel pour comprendre comment se forment et évoluent les planètes qui,
dans des systèmes exoplanétaires, gravitent
à proximité de leur étoile ».
Breves
Actualités
13
© NASA/Tony Gray
Le vaisseau spatial Orion
redescend sur Terre
Fin 2018, la version test de la capsule Orion, destinée à emmener des
missions habitées au-delà de l'orbite basse, était récupérée par l'U.S. Navy
dans l'Océan Pacifique.
Ce vaisseau spatial de la NASA (pour lequel l'ESA fournit le module de
service) devrait notamment servir pour des voyages vers la Lune : un vol test
sans équipage doit avoir lieu fin 2019. Pour un atterrissage moins brutal, le
retour en mer a été privilégié.
Science magazine n°61
14
Actualités
Breves
Catastrophes annoncées
en Méditerranée
Les changements climatiques s’accélèrent
dans le bassin méditerranéen. Pour la première fois, un consortium de scientifiques,
mené par Wolfgang Cramer (IMBE CNRS/Université d’Avignon/IRD/Université Aix-Marseille), en fait la synthèse.
Dans cette région, la température annuelle a
déjà augmenté de 1,4°C depuis l’ère préindustrielle, soit 0,4°C de plus que la température
globale. Durant les deux dernières décennies,
la surface de la Méditerranée s’est élevée de
60 mm, accompagnée d’une acidification
significative. Même avec un réchauffement
global futur limité de 2°C, comme demandé
par l’Accord de Paris, les précipitations estivales risquent fort de diminuer de 10 à 30%
selon les régions, aggravant les pénuries
d’eau et provoquant une décroissance forte
de la productivité agricole, surtout dans les
pays du Sud. Pour satisfaire les besoins de
l’agriculture, la demande en eau d’irrigation
augmentera de 4 à 22% selon l’accroissement
de la population.
des produits alimentaires du Maghreb). Les
risques pour les pêcheries, dus au réchauffement, à l’acidification et à la surpêche, sont
également importants.
Cette demande devrait entrer en concurrence
avec d’autres usages (eau potable, industrie,
tourisme) et elle va provoquer des conflits
entre les utilisateurs, les propriétaires et même
les gouvernements. Les impacts du changement climatique sur la production agricole
combinée à la demande croissante en produits animaux vont accroître la dépendance
des pays du Sud par rapport à l’extérieur (50%
Suite à la fonte des glaciers au niveau mondial, la hausse du niveau de la mer est aussi
en accélération et risque de dépasser les estimations récentes. En Méditerranée, ce phénomène touchera une très large population
localisée sur les côtes par des inondations
côtières importantes. Les intrusions marines
ont déjà affecté les sols et les nappes phréatiques ; ce phénomène va s’amplifier avec des
Science magazine n°61
conséquences sur les ressources agricoles et
la biodiversité. La santé humaine est également touchée par les changements en accélération (virus du Nil Occidental, dengue,
chikungunya, maladies cardio-vasculaires et
respiratoires). Dans des pays politiquement
fragiles, les risques socio-économiques avec
leurs corollaires (guerres, famines et migrations) sont de plus en plus attribuables aux
changements environnementaux.
Pour faciliter les réponses des décideurs
politiques à ces risques, un grand effort de
synthèse des connaissances scientifiques existantes est nécessaire, en incluant toutes les disciplines et secteurs. Voilà l’objectif du réseau
MedECC (Mediterranean Experts on Climate
and Environmental Change). Il considère que
cela est fait d’une façon insuffisante dans
les rapports du GIEC et de l’IPBES qui ne
traitent pas le bassin méditerranéen dans son
intégralité. Fort de près de 400 scientifiques
réunis en connexion avec des organisations,
des gouvernements et des acteurs sociétaux,
ce réseau vise à produire un premier rapport
d’évaluation des risques environnementaux
et climatiques en région Méditerranéenne.
(Source : INEE)
Breves
Actualités
15
Une mutation génétique
nous pousse à fumer
Pourquoi est-il si difficile d’arrêter de
fumer ? Pourquoi certains rechutent-ils
après des mois de sevrage tabagique ? Une
mutation génétique pourrait bien en être
responsable...
L’addiction au tabac est une maladie chronique à fort taux de rechute. Elle représente
la première cause de morts évitables dans les
pays développés. La nicotine est le principal
composé psychoactif du tabac responsable
de cette addiction en se fixant sur les récepteurs nicotiniques présents dans le cerveau. La
substance entraîne ainsi l’activation du circuit
de la récompense et favorise la sensation de
bien-être. En conséquence, la consommation
de tabac d’un individu est fortement liée à la
sensibilité de ces récepteurs nicotiniques, qui
sont composés de 5 sous-unités.
Ces dernières années, plusieurs études de
génétique humaine de grande ampleur ont
montré qu’une mutation présente dans le gène
CHRNA5 codant pour la sous-unité α5 des
récepteurs nicotiniques était associée à une
augmentation significative du risque de tabagisme. Cette mutation est très présente dans la
population générale (environ 35% des Européens en sont porteurs et jusqu’à 50% de la
population au Moyen-Orient). Les chercheurs
de l’unité de Neurobiologie intégrative des
systèmes cholinergiques (Institut Pasteur /
CNRS) ont alors cherché à déterminer quelle
phase de l’addiction à la nicotine est affectée
par la présence de cette mutation et à comprendre son mode d’action.
Les chercheurs ont montré que cette mutation
engendrait une plus grande consommation de
nicotine à fortes doses, ainsi qu’une rechute
plus importante à la recherche de nicotine
après sevrage. De façon intéressante, il a été
montré que cet effet sur la rechute est lié à
une réduction de l’activation des neurones du
noyau interpedonculaire, une structure cérébrale qui présente la plus forte concentration
en sous-unités α5 des récepteurs nicotiniques.
« Cette étude nous a permis d’évaluer plus
finement l’impact de cette mutation sur différentes phases de l’addiction à la nicotine. Elle
nous donne une première explication de son
mécanisme d’action qui favorise la rechute
à la recherche de nicotine après sevrage »,
explique Benoit Forget, premier auteur de
l’étude.
« Ces résultats suggèrent qu’un médicament
capable d’augmenter l’activité des récepteurs
nicotiniques contenant la sous-unité α5 pourrait permettre de réduire la consommation de
tabac et le risque de rechute après sevrage »,
ajoute Uwe Maskos, responsable de l’unité
de Neurobiologie intégrative des systèmes
cholinergiques (Institut Pasteur / CNRS) et
dernier auteur de l’étude.
Une nouvelle méthode pour
chasser des exoplanètes
Jusqu'à aujourd'hui, il était possible de
détecter uniquement des exoplanètes à
courtes périodes de révolution. Une nouvelle technique permet, en quelques mois,
de trouver des planètes avec des périodes
de révolution de plusieurs années.
La découverte d’exoplanètes se fait dans plus
de 99% des cas par des méthodes indirectes,
soit celle des vitesses radiales, soit celle des
transits. La méthode des transits consiste à
repérer une baisse de luminosité de l’étoile
hôte lors du passage de la planète devant elle.
Mais les astronomes attendent que celle-ci ait
accompli trois révolutions. Cette technique,
très efficace, a toutefois ses inconvénients
puisqu’elle ne permet de confirmer que la
présence de planètes aux périodes de révolution relativement courtes (de quelques jours
à quelques mois). Il faudrait effectivement
attendre plus de 30 ans pour détecter à coup
Science magazine n°61
16
Actualités
Breves
sûr une planète comme Jupiter (qui prend 11
ans pour faire le tour du Soleil) !
Pour pallier cet obstacle, une équipe d’astronomes de l’Université de Genève (UNIGE)
dirigée par Helen Giles, chercheuse au Département d’astronomie de la Faculté des
sciences de l’UNIGE et membre du PRN
PlanetS, a mis au point une méthode originale
qui permet de s’assurer de la présence d’une
planète en quelques mois, même si celle-ci
met 10 ans pour faire le tour de son étoile.
En analysant les données du satellite Kepler,
elle s’est rendue compte que certaines étoiles
montraient une baisse de luminosité temporaire significative, signature d’un possible
transit, ou en d’autres termes d’un passage
d’une planète devant l’étoile en question.
Helen Giles s'est alors intéressée à l’étoile
EPIC248847494, une sous-géante située à
1500 années-lumière de la Terre. Elle a dans
un premier temps consulté les données du
satellite Gaïa pour connaître le diamètre et
la distance de l’étoile. Sachant que sa baisse
de luminosité indique un transit de 53 heures,
elle détecte une planète située à 4,5 fois la distance Terre-Soleil et mettant, par conséquent,
à peu près 10 ans pour en faire le tour. La
question qui lui restait encore à résoudre était
de savoir s’il s’agissait bien d’une planète
et non d’une étoile. C’est le télescope Euler
de l’UNIGE, au Chili, qui allait lui donner
la réponse. En effet, en mesurant la vitesse
radiale de l’étoile, qui permet de déduire la
masse de la planète, elle a pu montrer que
la masse de l’objet est inférieure à 13 fois
celle de Jupiter, soit largement inférieure à
la masse minimum d’une étoile qui est de 80
fois supérieure à celle de Jupiter.
« Cette technique pourrait donc être utilisée pour chasser des planètes Terre habitables », s’enthousiasme Helen Giles. « On a
déjà trouvé des Terres, mais autour d’étoiles
naines rouges dont on ne connaît pas exactement le rayonnement et ses conséquences sur
la vie ». Avec sa méthode, il ne sera plus nécessaire d’attendre des années pour savoir si le
transit détecté est bien dû à la présence d’une
planète. « On pourrait même voir si la planète
possède une ou plusieurs lunes, à l’image de
notre Jupiter », conclut la chercheuse.
Encore mieux que les cellules souches !
Les cellules souches sont aujourd'hui en
première ligne des thérapies porteuses
d’espoir. Mais les effets bénéfiques de la
médecine régénérative pourraient davantage provenir de vésicules extracellulaires,
aussi anciennement surnommées « poussière cellulaire ».
Les vésicules extracellulaires sont des entités
libérées par les cellules, et ont longtemps été
considérées comme de la « poussière cellulaire » sans valeur. Or, des études montrent
qu’elles possèdent des propriétés thérapeutiques comparables à leurs cellules mères,
sans leurs inconvénients !
En effet, les vésicules ne se divisent pas,
limitant le risque de développer un cancer,
ne se différencient pas, empêchant qu’elles
développent une mauvaise fonction, et elles
semblent pouvoir être produites par un seul
donneur pour plusieurs patients. De plus, elles
ont déjà montré leur potentiel thérapeutique
chez l’animal, dans la régénération de lésions
cardiaques, hépatiques, ou encore rénales.
une complication post-opératoire ou à une
maladie auto-immune comme la maladie de
Crohn, engendrant un dysfonctionnement du
tube digestif.
Dans le cas de fistules digestives où il existe
une communication anormale entre les organes du tube digestif entre eux ou avec la
peau, la médecine régénérative représente
une importante piste thérapeutique. Ces fistules répondent faiblement aux traitements
actuels et peuvent se développer suite à
Pour la première fois, une équipe de chercheurs du CNRS, de l’AP-HP, de l’Inserm
et des universités Paris Descartes et Paris
Diderot a utilisé des vésicules extracellulaires issues de cellules souches pour traiter
des fistules digestives chez un modèle porcin.
L’étude révèle que l’injection locale de ces
Science magazine n°61
vésicules dans un gel au niveau de la fistule
induit 100% de fermeture des fistules digestives post-chirurgicales.
Les chercheurs envisagent désormais de tester
cette nouvelle approche dans un modèle de
fistules périnéales comme dans la maladie
de Crohn, avec l’espoir de remplacer dans le
futur l’injection des cellules souches. Le gel
de vésicules pourrait être administré localement, de façon peu contraignante, pour une
thérapie plus simple, plus sûre et plus efficace.
Breves
Actualités
17
Le rôle exact des métaux
dans la maladie d’Alzheimer
Une étude parue en 2016 montrait qu’une
exposition à la pollution urbaine impliquant des particules de magnétite jouait un
rôle dans le développement de la maladie
d’Alzheimer. Or, des chercheurs du CNRS
viennent de remettre en cause ce lien.
La magnétite, qui est l’un des principaux minerais de fer, présente une très forte stabilité,
y compris à l’échelle des temps géologiques.
Pourtant, une étude scientifique parue il y a
trois ans a suggéré que des nanoparticules de
magnétite provenant de la pollution atmosphérique pouvaient pénétrer dans le cerveau
par inhalation et, en se liant au peptide amyloïde, provoquer une dégénérescence neuronale responsable de la maladie d’Alzheimer.
Rappelons que les peptides amyloïdes sont
des petites protéines, localisées dans le cerveau, souvent sous forme de plaques chez les
patients atteints par la maladie d'Alzheimer.
Les amyloïdes peuvent se lier à des métaux,
en particulier le cuivre et le fer, normalement
présents dans le cerveau, mais dont la quantité et la répartition sont perturbées lors de la
maladie d’Alzheimer. L’ensemble amyloïdemétal peut réagir avec l’oxygène en présence
de réducteurs et générer des espèces réduites
de l'oxygène (radicaux libres) toxiques pour
les neurones.
Une étude antérieure, parue en 2007, décrivait
que la magnétite pouvait générer des réactions
d’oxydation néfastes. L’article de 2016, présentant la pénétration de la magnétite dans le
cerveau et sa fixation à l’amyloïde faisait, dès
lors, de la pollution atmosphérique une cause
probable de la maladie d’Alzheimer.
Des chercheurs du Laboratoire de chimie
de coordination du CNRS ont reproduit les
expériences dans les conditions de température et de pH identiques aux conditions
physiologiques : ils ont montré que la magnétite est incapable de se lier au peptide amyloïde et d’induire des réactions d’oxydation.
Ce résultat, en accord avec la très grande stabilité de la magnétite, permet donc de penser
que la magnétite est inerte in vivo et qu’il est
donc très peu probable qu’elle soit impliquée
dans la dégénérescence neuronale observée
dans la maladie d’Alzheimer. Cette étude
doit conduire à une relecture attentive des
travaux exprimant le caractère dangereux de
la magnétite dans le cerveau humain.
Le plus petit stent au monde est français
Les AVC (accidents vasculaires cérébraux)
constituent la première cause de mortalité
chez la femme et la première cause de handicap physique des adultes dans les pays
développés. Parmi les nouvelles techniques,
la neuroradiologie interventionnelle (NRI)
révolutionne leur traitement sans avoir recours à la chirurgie. Microguides, cathérers,
stents et coils sont en effet devenus indispensables pour combattre les 140 000 AVC qui
surviennent chaque année en France et se
soldent par 40 000 décès et 30 000 handicaps
lourds quand ils ne sont pas traités à temps.
Sur ce marché d'avenir, la société Balt est
bien connue des professionnels de santé pour
ses produits à la pointe de la technologie.
Depuis quelques mois, elle commercialise
le plus petit stent intracrânien, baptisé Silk
Vista Baby. Grâce à ce produit, les médecins
peuvent mieux naviguer dans les zones du cerveau difficiles d’accès et ainsi mieux soigner
les anévrismes. Il a aussi la particularité d’être
entièrement visible sous rayon X.
« En neuroradiologie interventionnelle, la
qualité fait la différence : nous la devons à
notre totale maîtrise du processus de fabrication », explique Nicolas Plowiecki, le président de cette entreprise familiale fondée par
son père en 1977. Balt allie haute technologie
médicale et savoir-faire d’orfèvrerie. En effet,
il faut des doigts de fées pour tisser des stents
en nitinol et beaucoup d’employés de l’entreprise possèdent d’ailleurs une précédente
expérience professionnelle dans la broderie,
la bijouterie ou encore la maroquinerie. Une
soixantaine d’étapes peuvent être nécessaires
pour fabriquer de bout en bout un cathéter, qui
contient des matériaux aussi divers que des
Science magazine n°61
Actualités
Breves
© D.R.
18
plastiques, du silicone, des métaux précieux,
de l’acier inox ou encore du nitinol.
La France a joué un rôle pionnier en neuroradiologie interventionnelle, née dans les
années 70 de la vision de grands professeurs
de médecine français. Léopold Plowiecki,
fondateur de Balt, a accompagné le développement de cette spécialité à la même
époque en inventant les premiers matériaux
médicaux destinés aux traitements des AVC
sans chirurgie.
© D.R.
Puis, de par la rencontre entre les besoins exprimés par les médecins et les techniques proposées par Balt, la société devient précurseur
dans la neuroradiologie interventionnelle,
discipline dans laquelle la France garde une
longueur d’avance. L’essor de Balt remonte
surtout à 1987 avec le lancement d’un microcathéter surnommé le « Magic » pour traiter
malformations artério-veineuses.
Fleuron industriel français de la Medtech, Balt
propose aujourd’hui la plus large gamme de
produits dans ce secteur et s’ouvre à de nouvelles spécialités vasculaires. Face aux géants
américains, la société continue à grandir afin
de devenir le leader sur son marché. En 2016,
Balt a repris un industriel américain, disposant dorénavant d’un site de production en
Californie, et a racheté plusieurs distributeurs
en Allemagne, en Suède et en Espagne. Ses
Science magazine n°61
prochaines acquisitions devraient se réaliser
en Chine, en Inde et au Brésil, parmi les plus
gros marchés après l’Europe.
Et parce que la culture de l’innovation est
clé au sein de la société, l’incubateur Balt
est né en 2017, avec pour objectif de soutenir les start-ups présentant des technologies
innovantes dans le domaine des dispositifs
médicaux en France.
Breves
Actualités
19
Une solution originale pour éviter
une collision avec un rapace
En France, plus de 800 collisions d’oiseaux
avec des avions sont mentionnées chaque
année. Comment détourner les rapaces,
les espèces les plus touchées, des sites à
risques ?
Malgré leur acuité visuelle exceptionnelle,
les rapaces ne détectent pas certains obstacles
comme les surfaces vitrées, ou détectent trop
tard certains objets en mouvement comme
les avions. Les systèmes d’effarouchement
existants étant peu efficaces sur les rapaces,
les chercheurs du laboratoire d’Ethologie animale et humaine (Ethos - CNRS/Université
de Rennes 1/Université Caen/Normandie),
en collaboration avec la société Airbus, ont
cherché à développer un nouveau système qui
les détournerait de certaines zones.
En se basant sur les connaissances actuelles
de la vision chez ces espèces, les scientifiques
ont d’abord testé les réactions de rapaces captifs à une série de stimuli visuels. Après plus
de 300 tests, ils ont constaté qu’un seul stimulus induisait des réactions d’évitement grâce
à une illusion d’optique. Ce « superstimulus »
correspond à des cercles concentriques noirs
sur fond blanc. Donnant l’impression aux
rapaces d’une collision imminente, il s’agit
en fait d’une illusion d’optique appelée « effet
looming ».
Le dispositif a été testé sur l’aéroport de
Lourdes-Tarbes-Pyrénées où de nombreux
rapaces comme les buses ou les milans
sont présents en été pour s’alimenter dans
les plaines. Deux écrans LED, diffusant le
stimulus en continu toute la journée, ont été
disposés à des endroits stratégiques et des observations ont été réalisées sur l’ensemble de
l’aéroport. Les 8800 observations d’oiseaux
ont ainsi révélé une rapide modification de
leur répartition, ceux-ci évitant les zones de
visibilité des écrans. Cet effet était encore
constaté après 5 semaines de diffusion permanente du stimulus.
Le fait que la population de rapaces ait augmenté dans les zones de non-visibilité des
écrans, à un moment où les ressources étaient
abondantes dans toutes les zones, montre l’efficacité du stimulus. De façon intéressante, un
effet similaire a été observé sur les corvidés
présents sur le site, alors que certaines espèces
de passereaux n’ont pas été influencées.
Ces résultats sont les premiers à proposer
une solution durable pour écarter de façon
inoffensive les rapaces de zones à risques. Ils
ouvrent également de nouvelles perspectives
de recherche, comme la possible implication,
dans cette réaction, des neurones de collision
spécialisés dans ces réactions d’évitement.
Percer les nuages pour mieux
communiquer
Des chercheurs de l’UNIGE ont mis au
point une technologie qui perce les nuages
pour permettre le passage d’informations
transmises par laser depuis un satellite.
Bien que performante, la communication
satellite par radiofréquences ne parvient
plus à suivre la demande d’informations qui
circulent chaque jour. Ses longueurs d’ondes,
longues, limitent la quantité d’informations
transmises, les bandes de fréquences disponibles se font rares et coûtent de plus en plus
cher, et la facilité avec laquelle on peut capter
les radiofréquences pose des problèmes toujours plus aigus de sécurité. C’est pourquoi la
recherche se tourne vers le laser. « Cette nouvelle technologie est pleine de promesses »,
relève Jean-Pierre Wolf, professeur à la Section de physique de la Faculté des sciences
de l’UNIGE. « Ses longueurs d’ondes très
courtes permettent de transporter 10 000 fois
plus d’informations que la radiofréquence,
il n’y a pas de limites de canaux et le laser
permet de ne cibler qu’une seule personne,
permettant une communication hautement
sécurisée. »
Problème : ces rayons lasers ne parviennent
pas à traverser les nuages et le brouillard. En
cas de mauvais temps, il est donc impossible
de transmettre une information par ce biais.
Pour contrer cette difficulté, la recherche
actuelle multiplie la construction de stations
au sol capables de recevoir ces signaux lasers en divers endroits du monde. L’idée est
de choisir la station visée par le satellite en
fonction de la météorologie. Bien qu’opérationnelle, cette solution reste tributaire des
conditions météorologiques et pose certains
problèmes de réglages du satellite qui doivent
être traités en amont de la communication,
sans être certain qu’il n’y aura aucun nuage
au moment choisi !
« Nous voulons contourner ce problème
en perçant un trou directement à travers
les nuages, afin de permettre le passage du
rayon laser », explique Jean-Pierre Wolf.
Pour ce faire, son équipe a mis au point un
laser chauffant à plus de 1500 degrés Celsius
et qui, à l’aide d’une onde de choc, expulse
latéralement les gouttelettes d’eau en suspension qui constituent le nuage, créant un trou de
quelques centimètres sur toute son épaisseur.
C’est d’ailleurs la découverte de ces lasers
ultrapuissants qui a été récompensée par le
Nobel de Physique 2018. « Il suffit ensuite
de maintenir ce rayon laser sur le nuage et
d’envoyer conjointement le laser qui contient
les informations », s’enthousiasme Guillaume
Schimmel, chercheur dans l’équipe de JeanPierre Wolf. « Ainsi, il se glisse dans le trou
Science magazine n°61
20
Actualités
Breves
© UNIGE Xavier Ravinet
à travers le nuage et permet le transfert des
données. »
Actuellement testé sur des nuages artificiels
de 50 cm d’épaisseur mais contenant 10 000
fois plus d’eau par cm3 qu’un nuage naturel,
ce « laser-nettoyeur » fonctionne même si le
nuage est en mouvement. « Nos expériences
permettent de tester une opacité semblable
aux nuages naturels. Il s’agit à présent de
le faire sur des nuages plus épais, pouvant
atteindre un kilomètre », souligne Jean-Pierre
Wolf. « Il s’agit aussi de tester différentes
sortes de nuages, qu’il s’agisse de leur densité ou de leur altitude », ajoute Guillaume
Schimmel.
Cette nouvelle technologie est un pas important vers l’utilisation commerciale de la
communication laser par satellite. « On parle
d’une possible mise en place globale d’ici
2025 ; notre idée est d’être prêts en même
temps et de permettre à des pays réputés
nuageux de disposer de cette technologie ! »
conclut Jean-Pierre Wolf.
Des pseudo-embryons pour éviter
l'expérimentation animale
Des chercheurs ont développé des pseudoembryons artificiels de souris, capables de
former les trois axes majeurs de l’organisme. Un outil inédit appelé à remplacer
les embryons de mammifères dans de nombreuses expériences.
Le plan de construction des mammifères est
mis en œuvre peu après l’implantation de
l’embryon dans l’utérus. Les différents axes
du corps, antéro-postérieur, dorso-ventral et
medio-latéral, se mettent en place rapidement, sous l’égide de réseaux de gènes qui
coordonnent la transcription de l’ADN dans
diverses régions de l’embryon au cours du
temps. Mais l’étude des processus orchestrant
la formation des embryons de mammifères est
entravée par la difficulté à les obtenir.
Science magazine n°61
Des chercheurs de l’Université de Genève
(UNIGE), de l’Université de Cambridge et
de l’Ecole Polytechnique Fédérale de Lausanne (EPFL) ont alors démontré la capacité
de pseudo-embryons de souris à produire la
plupart des types de cellules progénitrices nécessaires au développement. Formées à partir
de quelque 300 cellules souches embryonnaires seulement, ces structures, appelées gastruloïdes, ont un développement comparable
à celui de la partie postérieure d’embryons
âgés de 6 à 10 jours.
L’étude montre que la formation des trois axes
embryonnaires principaux se déroule selon un
programme d’expression des gènes similaire
à celui des embryons. Les gastruloïdes possèdent ainsi un potentiel remarquable pour
l’étude des stades précoces du développement
embryonnaire et de ses anomalies.
Ces pseudo-embryons artificiels peuvent
offrir dans certains cas une méthode alternative à l’expérimentation animale qui s’inscrit
dans le cadre des 3R. La règle des 3R (reduce,
replace, refine) s’est imposée internationalement comme le fondement de la démarche
éthique appliquée à l’expérimentation animale. Elle encourage à réduire le nombre
d’animaux utilisés, à affiner les conditions
expérimentales pour améliorer le bien-être
animal, et à remplacer à terme le modèle
animal par d’autres méthodes expérimentales
lorsque cela est possible.
Breves
Actualités
21
© NASA/JPL-Caltech
La nébuleuse de
la Patte de Chat
Située dans notre galaxie, la Voie Lactée, dans la constellation du Scorpion,
la nébuleuse de la Patte de Chat est une région où naissent des étoiles.
Eloignée de nous de 4200 à 5500 années-lumière, elle est ici photographiée
par le télescope Spitzer, de la NASA. Les parties les plus sombres
représentent des zones particulièrement denses de gaz et de poussières, qui
donneront donc naissance à une infinité d'étoiles.
Science magazine n°60
22
Actualités
Breves
Pourquoi vos enfants sont
doués en mathématiques
A l’heure où la France s’inquiète de son
mauvais classement dans les évaluations internationales en mathématiques
(l’enquête TIMMS 2015 met la France
au 38ème rang sur les 49 pays participant
à l’évaluation de CE1), il est nécessaire
de mieux comprendre quelles sont les
facultés requises pour réussir dans cette
matière. Pour ensuite adapter les méthodes
d’apprentissage.
Quelles compétences sont particulièrement
importantes à 5 ans et à 7 ans pour entrer
dans l’apprentissage des mathématiques ?
Pour répondre à cette question, une équipe
internationale de chercheurs a examiné
chez 73 enfants de 5 ans (Grande Section de
Maternelle) et 75 enfants de 7 ans (CE1) le
rôle précis de trois compétences qui peuvent
contribuer à la réussite.
Tout d'abord l’acuité du système approximatif
du nombre (SAN) : il s’agit de la précision
avec laquelle nous sommes capables de discriminer des quantités approximatives (par
exemple déterminer lequel de deux nuages
comporte le plus de points sans compter ces
points).
Ensuite la précision du lien entre nombre et
grandeur : c'est-à-dire la précision avec laquelle nous associons un nombre symbolique
à une grandeur (par exemple placer un nombre
symbolique sur une ligne vierge bornée entre
0 et 100).
Enfin la capacité de la mémoire de travail : il
s’agit de la capacité à maintenir des informations en mémoire à court terme tout en traitant
d’autres informations.
La performance en mathématiques a été
évaluée avec des épreuves de calcul mental
(additions, soustractions) et des problèmes
numériques oraux. Les résultats mettent en
évidence pour la première fois des facteurs
qui changent entre 5 ans et 7 ans, c’est-àdire avec l’entrée à l’école élémentaire.
Ainsi, en grande section, les deux facteurs
qui influencent la réussite en mathématiques
concernent des compétences relatives aux
quantités : en premier la précision du lien
entre nombre symbolique et grandeur, et en
second l’acuité du SAN. La capacité de la
mémoire de travail n'influence pas les performances en mathématiques à cet âge-là.
En CE1, la précision du lien entre nombre
symbolique et grandeur reste un bon facteur,
mais le plus important est alors la capacité de
la mémoire de travail, c’est-à-dire une capacité cognitive générale que l’on va retrouver
dans d’autres apprentissages que les mathématiques. L’acuité du SAN n’influence plus
les performances en mathématiques à cet âgelà. (Source : Institut des sciences biologiques /
INSB)
On peut voir des cellules repousser !
Science magazine n°61
Pour la réparation ou la régénération de
tous types de tissus, des vaisseaux sanguins
aux os, la technique de bioimpression cellulaire représente un outil prometteur. Toutefois, la visualisation de ces impressions
cellulaires et leur suivi in vivo restaient un
obstacle à leur utilisation.
(Laser-Assisted Bioprinting) s'applique bien
à l'ingénierie tissulaire. Elle permet de créer
des constructions en 2D ou 3D avec une résolution spatiale et une organisation contrôlées.
Toutefois, la visualisation de ces constructions une fois implantées in vivo et dans des
organes profonds n'était jusqu'ici pas possible.
Cette technique permet en effet de reproduire
parfaitement l’architecture 3D complexe d’un
tissu incluant les interactions cellules-cellules
ou cellules-environnement. Parmi les techniques de bioimpression, la méthode "LAB"
Pour résoudre ce problème, les chercheurs de
l'Institut des sciences biologiques (INSB) ont
utilisé l’Imagerie par Résonance Magnétique
(IRM), technique reconnue en radiologie mais
peu utilisée pour la visualisation de cellules.
Breves
Grâce à la richesse de ses contrastes, elle permet, de manière totalement non-invasive, de
visualiser un organe dans son entier et même
de le voir fonctionner, mais on ignorait si la
sensibilité et la résolution spatiale étaient
adaptées pour détecter des cellules organisées
dans l’espace en 2 ou 3 dimensions.
Les chercheurs ont développé un système
permettant de réaliser l’imagerie IRM de
cellules souches bioimprimées à haut champ
magnétique. Ces cellules, avant d’être bioimprimées, ont été « marquées » avec des particules de Fer. En adaptant les paramètres
d’acquisition, l'équipe a montré que la sensibilité de l’IRM était suffisante pour visualiser
Actualités
23
une très faible quantité de cellules marquées.
La résolution spatiale atteinte, de l’ordre de
100 microns dans les 3 dimensions, permet
de visualiser des édifices cellulaires avec un
schéma pré-établi (ligne, cercle ou disque),
ainsi que leur évolution dans l’espace et dans
le temps. Ces résultats ont été confirmés par
imagerie optique.
Remplacer le sang par un substitut
Diverses anomalies peuvent affecter le
transport de l’oxygène par le sang et nécessiter une transfusion. Afin d’éviter les problèmes liés aux transfusions, la recherche
de substituts sanguins est indispensable.
Comme l’hémoglobine est très toxique pour
les reins quand elle n’est pas contenue dans
les globules rouges, la mise au point de substituts sanguins représente un véritable défi pour
la recherche. Ces substituts limiteraient les
risques de transmission d’agents pathogène,
les problèmes de compatibilité entre groupes
sanguins et de pénurie liés aux transfusions
sanguines. Ils aideraient également au traitement de maladies telles que la drépanocytose, qui affecte la quantité et la structure de
l’hémoglobine : elle déforme les globules
rouges, qui circulent alors mal et forment
des occlusions vasculaires.
Des chercheurs du laboratoire Nanosciences
et innovation pour les matériaux, la biomédecine et l’énergie (NIMBE, CNRS/CEA), en
collaboration avec des médecins de l’hôpital Henri Mondor de Créteil, sont parvenus à
produire des substituts sanguins, sous la forme
de nanoparticules de silice. L’hémoglobine
accrochée à la surface des nanoparticules
conserve sa structure qui lui permet de capter le dioxygène de façon proche de ce qui se
passe dans les globules rouges. Transportée
par des nanoparticules bien plus petites que
les globules rouges, l’hémoglobine pourrait
alors libérer le dioxygène dans les capillaires
privés d’oxygène par les occlusions. Très
encourageants, ces résultats in vitro devront
à présent être testés in vivo. (Source : Institut
de Chimie)
Un nouveau moyen pour
dessaler l’eau de mer
De nos jours, le dessalement est devenu une
solution tout à fait abordable pour faire
face au manque d’eau douce dans de nombreuses régions du globe.
Le cœur du procédé de dessalement est basé
sur la technologie d’Osmose Inverse (OI).
Bien qu’elle ait prouvé son efficacité, elle
reste relativement coûteuse car il faut injecter
l’eau à de très fortes pressions pour compenser la faible perméabilité des membranes très
denses de polymères d’OI. De nombreux matériaux ont été développés afin de contourner
ce problème, comme les nanotubes de carbone
ou les membranes nanoporeuses de graphène.
Mais si les matériaux bidimensionnels (2D)
comme le graphène ou le disulfure de molybdène sont très étudiés pour ces applications,
le nitrure de bore hexagonal (hBN), qui présente une tenue mécanique supérieure à celle
du graphène (condition indispensable dans
les procédés d’OI), n’a jamais été considéré
comme membrane potentielle. C’est désormais chose faite.
Des chercheurs de l’Institut de physique de
Rennes (IPR, CNRS/Univ. Rennes 1) et de
l’Institut des sciences chimiques de Rennes
(ISCR, CNRS/Univ. Rennes 1/INSA Rennes/
ENSC Rennes), en collaboration avec l’université de Sherbrooke au Canada, ont utilisé
des simulations de type dynamique moléculaire afin de démontrer que les membranes de
nitrure de bore nanoporeuses permettaient une
augmentation drastique de la perméabilité.
Elles surpassent de plusieurs ordres de grandeur celle des membranes actuelles. Et leur
capacité à retenir les ions avoisine les 100%.
Les chercheurs ont également montré que la
membrane possédant la plus petite taille de
pore (8 Angström de diamètre) présentait les
propriétés de transport les plus intéressantes.
En effet, les molécules d’eau se disposent
dans ce cas en « file indienne » et passent
ainsi plus facilement l’ouverture que si elles
se présentaient de façon désordonnée. Quant
à l’excellente rétention des ions, elle vient du
fait que leur passage à travers la membrane
nécessiterait qu’ils soient déshydratés auparavant. Or, ce processus a un coût énergétique
élevé, le système privilégie donc plutôt le blocage des ions d’un côté de la membrane, plus
économe que la déshydratation.
Ces conclusions issues de simulations numériques ont ouvert la voie à une démonstration
de faisabilité. Une membrane en nitrure de
bore a d’ores et déjà été élaborée et est en
cours de test. L’ensemble de ces résultats
permet d’envisager de nouvelles applications
dans les technologies de dessalement et de
nanofiltration en général.
Science magazine n°61
24
Actualités
Breves
Notre Voie lactée a heurté
une autre galaxie !
La mission spatiale Gaia de l’ESA a dévoilé
un événement majeur de l’histoire de la formation de la Voie lactée*. Notre galaxie ne
s’est pas formée isolée, elle a fusionné avec
une autre grande galaxie dans sa jeunesse,
il y a environ 10 milliards d’années.
Gaia mesure la position, le mouvement et la
luminosité des étoiles avec une précision sans
précédent. Sur la base des 22 premiers mois
d’observation, l’étude de 7 millions d’étoiles celles pour lesquelles les positions et vitesses
3D complètes sont disponibles – a permis de
découvrir que 30 000 d’entre elles faisaient
partie d'un "groupe étrange" d’étoiles vieilles
se déplaçant à travers la Voie lactée et que
l’on peut observer dans le voisinage du soleil.
Nous sommes si profondément ancrés dans ce
groupe que ses étoiles nous entourent presque
complètement et peuvent donc être vues à travers la plus grande partie du ciel. Les étoiles
du groupe se distinguaient dans les données
de Gaia car elles se déplaçaient toutes sur
des trajectoires allongées dans la direction
opposée à la majorité des autres étoiles de la
galaxie, y compris le Soleil. Elles se distinguaient également dans le diagramme Hertzprung-Russell - qui relie luminosité et couleur
des étoiles - indiquant qu’elles appartenaient
à une population stellaire clairement distincte.
Dans le passé, les chercheurs avaient utilisé
des simulations pour étudier ce qu'il advient
des étoiles lorsque deux grandes galaxies fusionnent. En comparant celles-ci aux données
de Gaia, les résultats simulés correspondaient
aux observations. Ce groupe correspondrait
donc à des étoiles qui faisaient autrefois partie
d'une autre galaxie et qui ont été absorbées par
la Voie lactée. Ces étoiles forment à présent
la plus grande partie du halo interne de notre
galaxie - une composante diffuse d’étoiles
vieilles qui entourent à présent la majeure partie de la Voie lactée, le bulbe central, le disque
mince et le disque épais. Le disque épais est
une composante de la Voie lactée dont la
structure et l’origine sont encore débattues.
Selon les simulations de l’équipe, en plus de
fournir les étoiles de halo, la galaxie accrétée
aurait également pu perturber les étoiles préexistantes de la Voie lactée afin de contribuer
à la formation du disque épais.
Les étoiles qui se forment dans différentes
galaxies ont des compositions chimiques
uniques qui correspondent aux conditions
de la galaxie d'origine. Si ce groupe d'étoiles
est bien les restes d'une galaxie qui a fusionné
avec la nôtre, les étoiles doivent en laisser une
empreinte dans leur composition. Un premier
indice était présent dans le diagramme Hertzprung-Russell et le relevé spectroscopique
APOGEE a permis de confirmer que c’était
le cas.
Les astronomes ont appelé cette galaxie GaiaEnceladus du nom de l'un des géants de la
mythologie grecque, qui était la progéniture
de Gaia, la Terre, et d'Uranus, le Ciel. Selon
la légende, Encelade aurait été enterré sous
le mont Etna, en Sicile, et serait responsable
des tremblements de terre locaux. De même,
les étoiles de Gaia-Enceladus étaient profondément enfouies dans les données de Gaia et
ont ébranlé la Voie lactée, ce qui a entraîné
la formation de son disque épais.
L'équipe a également trouvé des centaines
d'étoiles variables et 13 amas globulaires
dans la Voie lactée qui suivent des trajectoires similaires à celles des étoiles de GaiaEnceladus, indiquant qu'elles faisaient partie
de ce système. Les amas globulaires sont des
groupes pouvant aller jusqu'à des millions
d'étoiles, maintenus ensemble par leur gravité
mutuelle et gravitant autour du centre d'une
galaxie. Le fait que tant de groupes puissent
être liés à Gaia-Enceladus est une autre indication du fait que celle-ci a dû être autrefois
une grande galaxie à part entière, avec son
propre entourage d’amas globulaires.
L’étude a indiqué que cette galaxie avait à
peu près la taille de l'un des nuages de Magellan - deux galaxies satellites environ dix
fois plus petites que la taille actuelle de la
Voie lactée. Cependant, il y a 10 milliards
d'années, lorsque la fusion avec Gaia-Enceladus a eu lieu, la Voie lactée elle-même
étant beaucoup plus petite, le rapport entre
les deux ressemblait davantage à 4 pour 1.
C'était donc clairement un événement majeur
pour notre galaxie.
* Les laboratoires français ayant contribué à cet article sont l’Institut de planétologie et d’astrophysique (IPAG/OSUG, CNRS/Université Grenoble
Alpes) et le Laboratoire galaxies, étoiles, physique et instrumentation (GEPI/Observatoire de Paris, CNRS/Université Paris-Diderot).
Science magazine n°61
Breves
Actualités
25
Des chercheurs suisses ont développé un
boitier portable capable de diagnostiquer
en 10 minutes un traumatisme cérébral
léger.
qui dure longtemps
et qui ne peut pas se
faire n’importe où »,
complète-t-il.
Chuter à ski, tomber dans les escaliers ou
prendre un coup sur la tête entraîne des
symptômes tels qu’une vision floutée, des
vomissements, une perte de conscience ou
de mémoire pendant une trentaine de minutes. Chaque année, en Europe, 3 millions
de personnes sont ainsi admises à l’hôpital à
cause d’une suspicion de traumatisme cérébral léger. Mais plus de 90% de ces patients
pourront rentrer chez eux sans risque, avec
seulement une bosse.
Des chercheurs de l’Université de Genève
(UNIGE), en collaboration avec les Hôpitaux
de Barcelone, Madrid et Séville, ont mis au
point un petit boitier qui analyse le taux de
protéines dans le sang et permet, à l’aide
d’une seule goutte de sang, de diagnostiquer
la possibilité d’un traumatisme cérébral léger
chez le patient. Commercialisée dès 2019,
cette découverte permettra non seulement
de désengorger les urgences, de libérer les
patients d’attentes souvent longues, mais
aussi d’économiser sur des examens médicaux coûteux. En effet, aujourd’hui le seul
diagnostic fiable est le CT Scan, un examen
disponible uniquement dans certains hôpitaux et qui, en plus d’être coûteux, expose
les patients à des irradiations.
Lors d’un choc à la
tête, certaines cellules cérébrales sont
abîmées et relâchent
les protéines qu’elles
contiennent, faisant augmenter leur
taux dans le sang.
Les scientifiques de
l’UNIGE et des hôpitaux espagnols ont
alors comparé le sang
de patients admis pour
traumatisme cérébral
léger mais diagnostiqués négatifs, avec
celui de patients ayant
effectivement un
traumatisme cérébral
léger. Ils ont progressivement isolé quatre molécules indiquant
la présence de ce type de traumatisme :
H-FABP, Interleukin-10, S100B et GFAP.
« Nous avons remarqué que le taux de HFABP à lui seul permet d’affirmer qu’il n’y a
aucun risque de trauma chez un tiers des patients admis après un choc ! », s’enthousiasme
Jean-Charles Sanchez. Le restant ira passer
un CT Scan afin de confirmer le diagnostic.
« Nous nous sommes demandés s’il était
possible d’isoler certaines protéines dont
la présence dans le sang augmente en cas
de traumatisme cérébral léger », explique
Jean-Charles Sanchez, professeur au Département de médecine interne des spécialités et
du Centre des biomarqueurs de la Faculté de
médecine de l’UNIGE. « Notre idée était de
trouver le moyen de faire un examen rapide
qui permettrait, lors d’un match de boxe ou
de football américain par exemple, de dire
si le sportif peut retourner sur le terrain ou
si son état nécessite une hospitalisation.
Tout le contraire du CT Scan, un examen
Il fallait encore mettre au point un appareil
permettant de faire l’examen partout, rapidement et simplement, et que l’on puisse se
procurer en pharmacie ou dans les salles de
sport. L'équipe a mis au point un test de diagnostic rapide nommé TBIcheck, inspirés par
le principe du test de grossesse : en posant une
seule goutte de sang sur la languette d’un petit
boitier en plastique de 5cm, le patient sait en
10 minutes s’il y a un risque de trauma léger,
à savoir si son taux de H-FABP est supérieur
ou non à 2,5 nanogrammes par millilitre de
sang. « Si une bande apparaît, le blessé doit
aller passer un CT Scan, s’il n’y a rien, il peut
© UNIGE Jean-Charles Sanchez
Détecter un traumatisme crânien avec
une seule goutte de sang
rentrer chez lui sans risque ! », affirme J-C.
Sanchez. En cas de doute lors de la lecture
du résultat, un petit lecteur, le Cube Reader,
peut être posé sur TBIcheck. Celui-ci écrira
« positif » ou «négatif » et enverra le résultat
sur le Smartphone du patient ou du soignant
via Bluetooth. Plus de doute possible !
« Aujourd’hui, nos recherches montrent que
les résultats sont encore plus précis lorsque
nous combinons les taux de H-FABP et de
GFAP », continue le scientifique. « Nous
sommes en train de préparer un TBIcheck
encore plus performant, qui permettra de renvoyer à la maison 50% des patients, mais qui
demande une augmentation de la sensibilité
de la languette qui reçoit le sang ». A terme,
l’objectif est de mettre sur le marché des
biomarqueurs capables de diagnostiquer des
traumatismes cérébraux, mais aussi des AVC
et des anévrismes. « Les biomarqueurs sont
une mine d’informations sur l’état de santé
des patients, à nous de savoir les décoder »,
conclut le chercheur genevois.
Science magazine n°61
26
Actualités
Breves
Eteindre l’addiction à la nicotine
grâce à la lumière ?
Et si l'on pouvait stopper l'envie de nicotine
en appuyant sur un bouton « off » ?
Chaque année, dans le monde, plus de 7 millions de personnes meurent du tabagisme. La
nicotine, principal agent addictif du tabac,
agit sur le cerveau en se liant sur les récepteurs nicotiniques. A ce jour, les techniques
de pharmacologie classique ne permettent pas
d’agir de manière précise et réversible sur
ces récepteurs. C’est pourquoi des chercheurs
de l’Inserm, du CNRS et de Sorbonne Université au sein du laboratoire Neuroscience
Paris-Seine, en collaboration avec l’Institut
Pasteur, l’Université de New York (NYU)
et l’Université de Californie Berkeley (UC
Berkeley), ont eu l’idée de fabriquer des outils
moléculaires capables d’interrompre le fonctionnement de ces récepteurs dans le cerveau
avec la lumière.
Dans cette étude, les chercheurs ont modifié
le récepteur nicotinique, afin de pouvoir y
accrocher un nano-interrupteur chimique
réagissant à la lumière. Sous l’effet de la
lumière violette, l’interrupteur se replie en
empêchant la nicotine de se fixer : le récepteur
est « off ». Sous l’effet de la lumière verte, ou
dans l’obscurité, l’interrupteur est déplié et
va ainsi laisser la nicotine agir : le récepteur
est « on ». Puis les chercheurs se sont focalisés sur un récepteur nicotinique particulier,
le type b2, et sur une zone clé du circuit de
la récompense, délivrant la dopamine. Lors
d’une injection intraveineuse de nicotine,
les neurones à dopamine répondent par une
augmentation de leur activité électrique, la
libération de dopamine qui en découle est la
clé de la mise en place de l’addiction.
Dans ce travail, cet effet de la nicotine
s’est trouvé fortement réduit lorsque le
nano-interrupteur est enclenché par la lumière
violette, mais a pu être restauré rapidement
sous lumière verte.
Les chercheurs ont ensuite démontré qu’il
était possible d’inhiber l’attrait pour la nicotine en enclenchant cet interrupteur. Pour ce
faire, ils ont comparé le temps que passaient
des souris dans deux compartiments avec ou
sans nicotine. Sous lumière verte, lorsque la
nicotine peut exercer son effet, ils ont observé
que les animaux préféraient le compartiment
avec nicotine. Sous lumière violette par
contre, les souris passaient autant de temps
dans chaque compartiment, prouvant qu’elles
n’étaient alors plus attirées par la nicotine.
Cette étude démontre qu’il est possible de
manipuler l’attrait pour la nicotine, et ce de
manière rapide et réversible.
La mystérieuse fin des manchots royaux
Tandis que l'on parle actuellement de la
grande crise d'extinction des espèces sauvages, des chercheurs français ont constaté
un déclin massif de près de 90% de la plus
grande colonie de manchots royaux au
monde située dans la réserve naturelle des
Terres australes françaises (TAAF). Si les
causes de leur disparition pourraient être
environnementales, le mystère reste entier.
Connue depuis les années 1960, la colonie de
manchots royaux Aptenodytes patagonicus de
l'île aux Cochons, dans le sud de l'océan Indien, était réputée pour être la deuxième plus
grande colonie de manchots toutes espèces
confondues (royaux et autres). Cependant, en
raison de son isolement et de son inaccessibilité, il n'y avait pas eu d'estimations récentes
de cette colonie depuis des décennies.
Les chercheurs du Centre d’études biologiques de Chizé (CNRS/Université de la
Rochelle)* ont utilisé des images satellites
haute résolution pour mesurer les changements de taille de la colonie depuis la dernière
visite de l’île par une équipe scientifique, en
1982. À l’époque, la colonie comptait 500 000
couples reproducteurs, soit une population de
* En collaboration avec le Fitz Patrick Institute of African Ornithology de l’université du Cap (Afrique du Sud).
Science magazine n°61
Brèves
plus de 2 millions d’individus. Pour évaluer
les surfaces occupées par les manchots entre
1960 et aujourd’hui, ils ont mesuré sur les
images satellitaires les contours de la colonie années après années, et se sont rendus
compte que celle-ci diminuait au profit d’une
re-végétalisation. Des clichés pris depuis un
hélicoptère lors de l’Antarctic Circumpolar
Expedition ont permis de confirmer la réduction spectaculaire de la colonie.
Les résultats indiquent que le déclin a débuté
à la fin des années 1990, coïncidant avec un
épisode climatique majeur dans l’océan Austral lié au phénomène El Niño. Cet évènement climatique a affecté temporairement les
capacités de recherche de nourriture d’une
autre colonie située à 100 km de l’île aux
Cochons et a provoqué son déclin. Ainsi le
même processus pourrait être à l’oeuvre sur
l’île aux Cochons. De plus, la taille de cette
colonie la soumettrait également aux effets
dits de « densité-dépendance ». En effet, plus
une population est grande plus la compétition entre les individus est rude et ralentit
la croissance de tout le groupe. Les effets
du manque de nourriture sont ainsi démultipliés et peuvent provoquer un déclin rapide et
massif sans précédent, notamment suite à un
évènement climatique comme celui de 1990.
La présence de maladies est aussi une hypothèse envisagée, le choléra aviaire décimant
Actualités
27
actuellement les populations d’oiseaux de mer
sur d’autres îles de l’océan Indien comme les
albatros sur l’île d’Amsterdam ou les manchots sur l’île de Marion.
Néanmoins, toutes ces hypothèses semblent
insuffisantes pour expliquer une réduction
d’une telle ampleur. Des études de terrain
portées par les chercheurs CNRS, avec l'appui de l'Institut polaire français Paul-Emile
Victor et en partenariat étroit avec l'équipe
de la réserve naturelle des Terres australes
françaises, devraient être menées prochainement pour confirmer les premiers éléments
qu’apportent les images satellites.
Les derniers Néandertaliens
plus récents qu'on ne le croit
De nombreuses innovations du Paléolithique supérieur pourraient bien être
attribuées à Néandertal...
Les vestiges humains étant rares en Préhistoire, les chercheurs utilisent traditionnellement les productions culturelles comme les
outillages en pierre taillée pour reconstituer
l’histoire des peuplements préhistoriques. En
France et au Nord de l’Espagne, les dernières
populations néandertaliennes sont traditionnellement identifiées comme celles produisant le « Châtelperronien », une culture qui
marque le début du Paléolithique supérieur
dans cette région, il y a environ 43 000 ans. De
manière concomitante, de nombreuses innovations techniques, symboliques et artistiques
voient le jour à cette période, et d’intenses
débats animent la communauté scientifique
pour savoir qui de Néandertal ou de l’Homme
anatomiquement moderne est responsable de
ces nouvelles manifestations.
Dans ce contexte, la culture du Châtelperronien est depuis près de 40 ans utilisée comme
un marqueur des derniers Néandertaliens dans
les modèles visant à comprendre sa disparition. Des recherches récentes, effectuées sur
le site de référence de la Roche-à-Pierrot à
Saint Césaire, montrent que la situation est
plus compliquée et que l’association entre
fossiles humains néandertaliens et vestiges
archéologiques du Châtelperronien n’y est
pas avérée. Le Châtelperronien n’est peutêtre donc pas la dernière manifestation des
populations néandertaliennes en Europe
occidentale. (Source : Institut Ecologie et
Environnement /INEE)
Science magazine n°61
28
Actualités
Brèves
Le raisin protège du cancer du poumon
© UNIGE
Déjà efficace en prévention des cancers
du tube digestif, le resvératrol, molécule
présente dans le raisin et que l'on retrouve
dans le vin rouge, a prouvé son intérêt grâce
à un nouveau mode d'administration...
Le cancer du poumon est le plus mortel au
monde, et 80% des décès qui lui sont imputables sont liés au tabagisme. En complément
de la lutte antitabac, des stratégies efficaces
de chimioprévention sont donc nécessaires.
Si ses propriétés chimiopréventives contre
les cancers affectant le tube digestif ont été
documentées dans des études précédentes, le
resvératrol restait jusqu’ici sans effet sur les
cancers du poumon.
Une étude menée par une équipe de l’UNIGE
vient de montrer cependant des effets préventifs contre ce cancer. Le resvératrol est
pourtant une molécule a priori peu adaptée à la
prévention du cancer du poumon : lorsqu’elle
est ingérée, elle est métabolisée et éliminée
en quelques minutes, et n’a donc pas le temps
d’atteindre les poumons. « C’est pourquoi
notre défi a été de trouver une formulation
permettant de solubiliser le resvératrol en
grande quantité, alors que ce dernier n’est
que peu soluble dans l’eau, pour permettre
une administration par voie nasale. Cette
formulation, applicable chez l’homme,
permet au composé de parvenir jusqu’aux
poumons », explique Aymeric Monteillier,
chercheur à la section des sciences pharmaceutiques de la Faculté des sciences de
l’UNIGE et premier auteur de l’étude.
La concentration de resvératrol dans les
poumons obtenue avec cette formulation
administrée par voie nasale est en effet
22 fois supérieure à celle que permet une
administration orale. Le mécanisme de
chimioprévention à l’oeuvre est probablement
lié à l’apoptose, le processus par lequel les
cellules programment leur propre destruction
et auquel échappent les cellules cancéreuses.
L’équipe de recherche de l’UNIGE va maintenant s’attacher à chercher un biomarqueur
qui pourrait contribuer à la sélection des personnes éligibles à un traitement de prévention
par le resvératrol.
Un nouveau reptile volant dans
le ciel provençal du Crétacé
La découverte d'un fossile unique de ptérosaure du Crétacé de Provence (site de
Velaux, Bouches-du-Rhône), l'un des plus
complets pour cette période en Europe,
vient d’être faite par une équipe de paléontologues franco-belge.
Les restes de ptérosaures, reptiles volants de
l’ère secondaire, sont assez mal connus pour
ce qui est du Crétacé européen. En effet, la
plupart des fossiles récoltés correspondent à
des ossements isolés, souvent fragmentaires et
difficilement déterminables. Une découverte
unique réalisée dans le gisement de Velaux-la
Bastide Neuve, près d’Aix-en-Provence, nous
permet d’obtenir de précieuses informations
Science magazine n°61
sur l’anatomie et l’identité des ptérosaures
présents dans le sud de la France au Crétacé
supérieur.
Les azhdarchidés sont des ptérosaures édentés
pouvant atteindre pour certains une bonne
dizaine de mètres d’envergure.
Les différents ossements mis au jour à Velaux,
appartenant très probablement à un seul et
même individu d'environ 4,5 mètres d'envergure, représentent à la fois des éléments crânien (mandibule) et postcrâniens (vertèbres,
omoplates, os longs...). Après avoir identifié
ce squelette partiel comme appartenant à la
famille largement répandue des azhdarchidés,
l’étude détaillée du spécimen a révélé qu’il
s’agissait d’un nouveau genre et espèce, Mistralazhdarcho maggii, dont le nom fait directement référence au célèbre vent provençal.
Mistralazhdarcho maggii partage une particularité anatomique avec un autre membre
de cette famille, Alanqa saharica, découvert
quant à lui au Maroc dans des dépôts un peu
plus anciens. Ces deux formes de même envergure possèdent une lame osseuse située
au milieu de la mandibule et qui devait venir
s’emboiter au niveau de la mâchoire supérieure, entre deux protubérances latérales. La
fonction d’une telle structure, même si elle
semble avoir été liée à un régime alimentaire
spécialisé, demeure encore mystérieuse.
Brèves
L’importance scientifique et patrimoniale
du gisement de Velaux-la Bastide Neuve est
de nouveau mise en évidence à travers cette
nouvelle découverte. Les fouilles paléontologiques dirigées par Xavier Valentin et
Géraldine Garcia (Université de Poitiers)
et menées avec Pascal Godefroit (Institut
Royal des Sciences Naturelles de Bruxelles)
et l’association de recherche Palaios, en appui
avec la commune de Velaux et le Conseil
Départemental des Bouches-du-Rhône, ont
depuis plusieurs années permis de redonner vie à un riche écosystème de la fin du
Crétacé (-72 millions d’années). Mistralazhdarcho maggii vient désormais s’ajouter
à un bestiaire déjà bien fourni, composé de
Actualités
29
nouveaux dinosaures tels que le sauropode
Atsinganosaurus velauxiensis et l'ornithopode
Matheronodon provincialis, mais aussi de
dinosaures carnivores, de tortues et de crocodiles. Des requins primitifs (hybodontes)
et des poissons-alligators (lépisostées) peuplaient également les eaux de cette plaine
alluviale. (Source : INEE)
Quand l'outil devient un
vrai organe des sens
Et si un humain tenant un outil était capable de percevoir tactilement son environnement, non pas uniquement avec
l’extrémité de l’outil mais avec l’intégralité
de ce dernier ?
Le sens du toucher intervient de façon capitale
dans le contrôle qu’un individu a de ses mains,
et par extension des outils à travers lesquels le
toucher lui permet de percevoir son environnement. Des chercheurs de l’Inserm au sein
du Centre de recherche en neurosciences de
Lyon (Inserm/Université Jean Monnet SaintEtienne/Université Claude Bernard Lyon 1/
CNRS) se sont intéressés aux mécanismes
permettant au cerveau de localiser le toucher
à travers les outils. Pour cela, ils ont utilisé
trois approches complémentaires à travers
plusieurs expériences de localisation d’un
coup porté sur un bâton tenu en main.
La première approche consistait à frapper à
différents endroits un bâton tenu en main par
un volontaire dont la vision était obstruée et
de lui demander de localiser l’impact. La précision de cette localisation s’est avérée aussi
efficace lorsque le choc était administré sur
le bâton, quel que soit l’endroit, que lorsqu’il
était administré sur le bras du volontaire. Ces
résultats démontrent la capacité humaine à
« incorporer » l’ensemble d’un outil tenu en
main comme s’il faisait partie de son propre
corps, le cerveau l’intégrant comme un organe
des sens à part entière.
La seconde approche se basait sur l’enregistrement des vibrations du bâton perçues à la
base de sa poignée et sur la peau de la main
le tenant. Les chercheurs ont observé que
les caractéristiques des vibrations du bâton
transmises à la main dépendaient de façon
prédictible de l’endroit de l’impact.
Enfin, dans la troisième approche, les caractéristiques des vibrations enregistrées dans la
seconde approche ont été traitées par un simulateur informatique des réponses cutanées,
permettant ainsi de modéliser les réponses aux
vibrations des mécano-récepteurs (neurones
sensoriels de la peau) en contact avec le bâton.
L’équipe de recherche a ainsi observé que les
mécano-récepteurs étaient capables de déchiffrer très précisément les motifs vibratoires
du bâton. Ceux-ci étant strictement dépendants de l’endroit de l’impact, le cerveau est
capable d’interpréter leur « profil » envoyé
par les mécano-récepteurs et par conséquent
de localiser la zone d’impact.
Cette étude montre que le cerveau humain
traite les outils comme des extensions sensorielles du corps de l’utilisateur, un mécanisme
que l’équipe de recherche se propose d’appeler « perception étendue par les outils ». Ce
phénomène nouvellement décrit ici représente un nouveau paradigme qui pourrait
permettre d’améliorer la compréhension des
phénomènes d’incorporations d’outils chez
l’être humain et de la perception sensorielle
des non-voyants, ainsi que l’appréhension de
l’utilisation des prothèses chez les personnes
amputées.
Science magazine n°61
30
Actualités
Brèves
Chiens et Homo sapiens :
un lien très ancien
Quand les premiers agriculteurs-éleveurs
ont migré à travers l’Europe, il y a plus
de 7 000 ans, ils n’étaient pas seuls. Ils ont
emmené leur animal de compagnie préféré : le chien.
Le Néolithique est une révolution culturelle
marquée par la naissance, il y a 11000 ans au
Proche-Orient, de l’économie de production
(agriculture, élevage), puis par sa diffusion
progressive d’Est en Ouest (il y a entre 9000
et 6000 ans) à travers l’Europe. Chiens et
hommes ont-ils une histoire commune, à quel
point leurs destins sont-ils liés ? C’est une
partie de ce mystère que tente de percer une
étude internationale de paléogénétique menée
à partir de l’ADN mitochondrial extrait de 99
restes archéologiques de chiens.
L'étude, menée par des chercheurs de l’École
Normale Supérieure de Lyon, du Muséum
National d'Histoire Naturelle, de l’Université de Rennes 1 et de l’Université d’Oxford
retrace les grands axes empruntés par les
populations de chiens pendant cette période
et indiquent que, tout comme le mouton, la
chèvre, le cochon, le bœuf ou les plantes
cultivées (blé, orge, pois, fèves et lentilles),
les chiens ont accompagné les agriculteurs
originaires du Proche-Orient au cours de leur
migration plurimillénaire à travers l’Europe.
Elle indique également que les chiens issus
du Proche-Orient ont remplacé petit à petit,
au cours du Néolithique, les populations
européennes de chiens associées aux chasseurs-cueilleurs et domestiquées depuis plus
de 15000 ans.
Cependant, les chiens modernes que nous
connaissons aujourd’hui possèdent majoritairement une toute autre signature génétique. L’étude précise que cette lignée pourrait
avoir été introduite en Europe après la fin du
Néolithique, notamment lors des migrations
humaines depuis la steppe pontique-caspienne, qui s'étend de l'estuaire du Danube
aux montagnes de l'Oural, et qui ont joué un
rôle crucial dans l'histoire de l'Europe et de
l'Asie (diffusion du cheval, de la métallurgie,
du millet…).
Quoi qu'il en soit, l’histoire des hommes et
des chiens est intimement liée depuis plus de
15000 ans. (Source : INEE)
A quoi rêvent les lézards ?
On a longtemps pensé que seuls les mammifères terrestres et les oiseaux possédaient
deux états de sommeil : le sommeil lent et
le sommeil paradoxal. Celui-ci, associé aux
rêves, est une phase complexe qui plonge le
corps dans un état ambigu, entre sommeil
et éveil.
Pendant les heures de sommeil, l’organisme
s’attelle à de multiples activités vitales :
consolider les connaissances apprises pendant
la journée, nettoyer le cerveau des déchets du
métabolisme, produire des hormones, réguler
la température, se réapprovisionner en énergie. Ce phénomène physiologique conservé
au cours de l’évolution semble partagé par
tout le règne animal. Mais qu'en est-il du
sommeil paradoxal ?
Une étude publiée dans Science en 2016 s’est
penchée sur le dragon barbu (Pogona vitticeps) en démontrant qu’il passait par deux
états distincts de sommeil. Elle émettait
ainsi l’hypothèse selon laquelle les phases
de sommeil seraient apparues chez un ancêtre
commun aux mammifères et aux reptiles, il
y a 350 millions d’années.
Des chercheurs de l’équipe Sommeil du
Centre de recherche en neurosciences de
Lyon (CNRS/Inserm/Université Claude Bernard Lyon 1/Université Jean Monnet)* ont,
dans un premier temps, réitéré l’expérience
faite sur le dragon barbu. Ils ont ensuite mené
une nouvelle étude sur une autre espèce de
*En collaboration avec un chercheur du laboratoire Mécanismes adaptatifs et évolution (CNRS/Muséum national d’Histoire naturelle) et des chercheurs de l’Institut national des sciences appliquées de Lyon.
Science magazine n°61
Brèves
Actualités
31
© NASA/ESA/Thomas Pesquet
Glaces sur le Dniepr
C'est l'astronaute Thomas Pesquet qui nous propose cette magnifique
photographie des congères sur le Dniepr, fleuve qui prend sa source en Russie
et se jette dans la Mer Noire. « Les paysages d'hiver sont aussi magiques à
partir de la Station spatiale internationale » souligne-t-il. « Cette vue du fleuve
au nord de Kiev me rappelle un tableau d'Hokusai ».
Science magazine n°61
32
Actualités
Brèves
mammifères et oiseaux, mais également
entre les deux espèces de lézards. Alors que le
sommeil paradoxal des humains présente des
activités cérébrales et oculaires semblables à
celles de l’éveil dans un corps ensommeillé,
celui des lézards se distingue par une activité des yeux plus lente et, pour le tégu, une
activité cérébrale bien différente de l’éveil.
lézard, le tégu argentin (Salvator merianae).
Les résultats confirment que les deux lézards
manifestent deux états de sommeil distincts,
partageant des similitudes avec le sommeil
lent et le sommeil paradoxal.
Cependant l’analyse de différents paramètres comportementaux, physiologiques
et cérébraux va encore plus loin en mettant
en exergue des différences non seulement
entre le sommeil des lézards et celui des
Ces différences révélées par l’étude offrent
une vision plus complexe de ce qu’est le
sommeil paradoxal au sein du règne animal,
ouvrant ainsi de nouvelles portes vers la compréhension de l’origine de notre propre sommeil, de nos rêves… et de ceux des lézards.
Une colle bio-inspirée des moules
Les moules sont généralement incrustées
sur les rochers au bord des plages ou sur
les pieux plantés par les conchyliculteurs.
Mais elles peuvent également se fixer aux
métaux et cette faculté inspire les chercheurs. Une demande de brevet vient d'être
déposée pour une "colle" bio-inspirée.
Tout part d’une observation : certains mollusques sont de véritables passagers clandestins et naviguent sur des milliers de kilomètres
en s’accrochant à la coque métallique des
navires. Pour se fixer ainsi, les moules produisent de la dopamine, une protéine composée d’une amine et d’un catéchol, une
molécule cyclique coiffée de deux fonctions
alcool. C’est cette partie, le catéchol, qui
intéresse les chercheurs de l’Institut Charles
Sadron, à Strasbourg.
« Le catéchol peut interagir avec des ions
métalliques ainsi que se fixer aux métaux »,
explique la chercheuse Fouzia Boulmedais,
auteure de l’étude. « Dans le même temps,
quand la molécule de catéchol est oxydée,
elle devient de la quinone, qui réticule avec
des protéines. » Le catéchol peut donc servir
à coller les protéines aux métaux. En outre,
il possède l’avantage de ne pas dénaturer les
protéines et donc de garder intactes leurs
activités.
Science magazine n°61
L’intérêt est que cette liaison n’est pas automatique. Il faut une oxydation pour qu’un
catéchol se lie à une protéine. Une oxydation
apportée par une impulsion électrique et qui
ainsi permet de localiser la réticulation de la
protéine au niveau d’une seule électrode. La
fonctionnalisation d’un réseau d’électrodes
par différentes enzymes permettra de réaliser
plusieurs tests biologiques avec un seul prélèvement. Un véritable biocapteur multiple !
Mais ce n’est pas la seule application envisagée par Fouzia Boulmedais. La molécule
pourrait s’utiliser pour développer des biobatteries, des détecteurs sous-cutanés, ou encore
pour la détection d’ions aluminium, en liant le
catéchol à une enzyme qui perd son activité
au contact de ce métal. (Source : Institut de
Chimie)
Expos
Actualités
33
Un même mécanisme
pour la vie et la mort
Pour transmettre le génome du père, les
spermatozoïdes doivent quitter l’organisme producteur et effectuer un voyage
périlleux. Une équipe de chercheurs vient
de décrire pour la première fois une étape
fondamentale permettant la préparation
de l’ADN paternel, mais aussi comment
un cancer très agressif peut naître de cette
façon.
Les spermatozoïdes sont les seules cellules
capables non seulement de survivre dans un
environnement hostile mais aussi de délivrer à
l’œuf les gènes du père dans un état d’intégrité
parfaite. Avant d’être transporté, cet ADN est
préparé par une réorganisation globale et une
compaction extrême, lors d’une succession
d’évènements sans précédent dans d’autres
types cellulaires. Paradoxalement, malgré son
importance primordiale pour la procréation
et la perpétuation des espèces, ce processus
reste l’un des phénomènes les plus obscurs en
biologie, bien que des travaux antérieurs aient
déjà permis de comprendre, dans ses grandes
lignes, les mécanismes moléculaires qui
dirigent cette compaction du génome mâle.
Un nouveau pas dans la compréhension de ce
phénomène a été franchi par les chercheurs
en identifiant le mécanisme déclencheur de la
compaction de l’ADN mâle et de la métamorphose organisationnelle qui lui est associée.
Il faut savoir qu'avant cette compaction, dans
les cellules germinales comme dans toutes
les cellules de l’organisme, le génome est
structuré par des protéines particulières, les
histones. Lors de la production des spermatozoïdes, la compaction de l’ADN nécessite
l’enlèvement et le remplacement des histones
par d’autres protéines, spécifiques des cellules
germinales, nommées protamines. On savait
précédemment que cet échange histone-protamine était précédé par une modification
chimique (acétylation) massive et globale des
histones. Or, ni la cause ni la conséquence
de cette acétylation massive des histones
n’étaient connues.
En suivant la piste initiée par la découverte
d’une protéine spécifique de la lignée germinale mâle, de fonction inconnue, les
chercheurs ont réussi à identifier le mécanisme de déclenchement de cette acétylation massive des histones et à comprendre
l’importance de cette acétylation dans l’enlèvement des histones. Ils montrent que ce
même mécanisme, naturellement mis en jeu
dans le contexte spécifique de la maturation
des cellules germinales mâles, peut aussi être
activé de manière aberrante suite à un remaniement génétique et expliquer l’apparition et
l’agressivité particulière de certains cancers.
La découverte de ce mécanisme permet non
seulement de mieux comprendre une étape
essentielle de la vie et de la procréation,
mais aussi met en lumière la capacité de
certains cancers d’activer des mécanismes
moléculaires normaux et naturels de manière
hors-contexte pour acquérir des propriétés
particulières. (Source : Institut pour l'Avancée des Biosciences - Institut des sciences
biologiques)
Science magazine n°61
34
Actualités
Brèves
Les cellules du corps peuvent
changent de métier
En mettant en lumière la capacité d’adaptation des cellules pancréatiques afin de
pallier un manque d’insuline, des chercheurs de l’UNIGE démontrent l’étendue jusqu’ici insoupçonnée de la plasticité
cellulaire.
Le pancréas abrite plusieurs types de cellules
qui ont pour fonction de produire différentes
hormones responsables de la régulation du
taux de sucre dans le sang. Il s’agit essentiellement des cellules α, productrices de glucagon, des cellules β, productrices d’insuline, et
des cellules δ, productrices de somatostatine,
une hormone qui agit comme régulateur local
de contrôle de l’activité des cellules α et β.
Ces cellules sont agglomérées en petits amas
connus sous le nom d’îlots pancréatiques.
Le glucagon promeut l’augmentation du
sucre sanguin, alors que l’insuline a l’effet
contraire. Chez les patients souffrant de diabète, en l’absence de cellules β fonctionnelles,
le taux de sucre dans le sang est perpétuellement trop élevé.
A la Faculté de médecine de l’UNIGE, le professeur Pedro Herrera et son équipe avaient,
il y a quelques années, démontré l’existence
d’une capacité naturelle de régénérescence
des cellules productrices d’insuline. Mais ce
phénomène ne concerne cependant que 1 à 2%
des cellules α et δ. Pourquoi certaines cellules
opèrent-elles cette conversion et d’autres pas ?
Et surtout, serait-il possible de l’encourager ?
Les scientifiques ont commencé par effectuer des analyses d’expression génique avant
et après la disparition des cellules β. Ils ont
observé, chez les cellules α, des changements
à première vue opposés : l’augmentation du
taux d’expression de certains gènes typiques
des cellules productrices d’insuline, mais
aussi, et en même temps, celle de certains
gènes typiques des cellules productrices
de glucagon. Le fonctionnement normal
des cellules à glucagon est lié à la présence
d’insuline : elles possèdent à leur surface des
récepteurs ayant pour fonction de la détecter.
Par conséquent, ce fonctionnement est perturbé lorsqu’on détruit les cellules β.
Mais quel est le signal qui induit la conversion
cellulaire ? Après étude, ce n’est pas l’hyperglycémie qui entraîne cette réaffectation
cellulaire. Cette plasticité n’est pas non plus
dépendante de l’environnement cellulaire
autour des îlots pancréatiques. Seule explication : la capacité de reprogrammation est
intrinsèque à l’îlot pancréatique où se trouvent
les cellules.
En bloquant dans les cellules α les récepteurs
de surface permettant de détecter la présence
d’insuline, une partie de ces cellules α s’est
alors mise à produire de l’insuline. Ces cellules deviennent hybrides : elles changent
Science magazine n°61
partiellement d’identité, et le phénomène
est réversible en fonction des circonstances
environnant les cellules.
Si les travaux du professeur Herrera se
concentrent sur les cellules du pancréas, le
même phénomène pourrait s’appliquer à bon
nombre de cellules du corps. Ainsi, l’idée que
les cellules une fois différenciées restent
stables à jamais se trouve aujourd’hui remise
en cause. « Ce que nous montrons, c’est que
l’état de différenciation d’une cellule donnée
n’est pas gravé dans le marbre. L’identité
des cellules, à tous les stades de la vie, est
modulée par leur environnement immédiat,
notamment par le biais de signaux inhibiteurs. Le maintien de l’identité cellulaire est
donc un processus actif d’inhibition, tout au
long de la vie de la cellule, et non un état
intrinsèque ou passif de la différenciation.
Cette faculté des cellules déjà spécialisées à
changer de fonction pourrait se révéler capitale dans bien d’autres pathologies dues à
une mort cellulaire massive ou inappropriée,
comme par exemple la maladie d’Alzheimer
ou l’infarctus du myocarde », conclut le professeur Herrera.
expoS
ActuAlités
35
EX P O s itiO N s
Microbiote
Inspirée du bestseller
"Le Charme discret de
l’intestin" de Giulia et Jill
Enders, paru en France
en 2015, cette exposition
décalée et décomplexée
a été conçue avec le partenariat scientifique de
l'INRA (Institut national
de la recherche agronomique). Elle raconte
l’incroyable vie du
microbiote, connu aussi
sous le nom de "flore
intestinale". Un univers
microscopique qui joue
un rôle fondamental dans
l'organisme : on en parle
d'ailleurs souvent comme
d'un "second cerveau".
Jusqu'au 4 août 2019
Cité des sciences et de l'industrie
30, avenue Corentin Cariou
75019 Paris - Tél : 01 40 05 80 00
www.cite-sciences.fr
La Terre vue de l'espace
Le Planétarium de
Vaulx-en-Velin propose
une exposition conçue
par l'Agence spatiale
européenne, en partenariat notamment avec
le CNES, permettant
d'admirer les splendides
images prises par ses satellites. A travers les plus
belles vues de la Terre,
découvrez la fabuleuse
diversité de ses paysages, mais aussi les nouveaux défis posés par le
changement climatique.
Jusqu'au 11 août 2019
Le Planétarium - Place de la Nation
69120 Vaulx-en-Velin - Tél : 04 78 79 50 13
www.planetariumvv.com
Coléoptères, insectes
extraordinaires
De la coccinelle au scarabée atlas en passant par
le doryphore et la luciole,
les coléoptères possèdent
des capacités étonnantes.
Présents sur la totalité du
globe à l’exception des
pôles et des mers, ces
insectes sont à l'origine
de nombreux mythes et
croyances. En associant
les regards scientifiques
et artistiques, cette exposition vous propose de
(re)découvrir ces créatures extraordinaires.
Jusqu'au 28 juin 2020
Musée des Confluences - 86, quai Perrache
69002 Lyon - Tél : 04 28 38 12 12
www.museedesconfluences.fr
Les Mondes Inconnus
La Casemate, le Muséum et l’Observatoire des Sciences de
l’Univers de Grenoble
(OSUG) vous invitent à
découvrir leur nouvelle
coproduction pour tout
savoir sur l'Univers et
ses mystères. L'exposition débute à la Casemate où vous obtiendrez
votre permis pour l’espace et découvrirez la
vie à bord d’une station
spatiale.
Jusqu'au 28 juillet 2019
www.lacasemate.fr - www.museum-grenoble.fr
www.osug.fr
Science magazine n°61
36
Dossier
La course à l'ordinateur quantique
La course à l'ordinateur
Après la révolution de l'informatique, une seconde révolution se prépare avec l'ordinateur quantique.
Science magazine n°61
La course à l'ordinateur quantique
Dossier
37
quantique
Aller toujours plus vite dans les puissances
de calcul, tel est naturellement le but des
scientifiques. Depuis plus de trente ans, ils
rêvent de l'ordinateur quantique. Si ce dernier
n'est pas encore à leur portée, les technologies quantiques avancent à grands pas. Des
verrous considérés comme infranchissables
finissent par être levés. C’est pourquoi la recherche mondiale est plus active que jamais
dans le cadre de ce qui est appelé aujourd’hui
« la deuxième révolution quantique ».
En Europe, qui se positionne comme leader
dans le développement des technologies
quantiques, cette recherche porte en particulier sur la réalisation, la caractérisation et
la manipulation de la brique élémentaire de
support de l’information, le bit quantique ou
qubit. Largement engagé dans ce domaine, le
CEA fait le point sur les dernières avancées.
Science magazine n°61
38
Dossier
La course à l'ordinateur quantique
Des calculs accélérés dans des proportions inouïes
Qui dit ordinateur quantique dit possibilité de décupler les puissances de calcul
puisque, à l'échelle du qubit (quantum-bit),
une particule peut se trouver simultanément dans plusieurs états. Alors qu'un bit
d'ordinateur classique n'a qu'une valeur :
0 ou 1.
Au début des années 1980, le Prix Nobel de
physique Richard Feynman est le premier à
pressentir les possibilités faramineuses d’un
ordinateur capable de tirer parti des lois
quantiques. Dès les années 1990, plusieurs
théoriciens démontrent que certains calculs
verraient leur résolution accélérée dans des
proportions inouïes s’il était possible de les
implémenter sur des bits quantiques plutôt
que sur des bits classiques. À condition, bien
sûr, de disposer d’un processeur quantique
pour les utiliser, processeur dont personne ne
sait à l’époque à quoi il pourrait ressembler.
Molécules en phase liquide, ions piégés
par des faisceaux laser, impuretés dans les
solides… les idées commencent à fuser dans
les laboratoires de physique pour définir ce
qui pourrait devenir les briques de bases d’un
Qu’est-ce qu’un bit
quantique (ou qubit) ?
Dans un ordinateur classique,
l’information est stockée dans
un ensemble (registre) de cases
mémoires, les bits, dont la valeur
est soit 0, soit 1. Un bit quantique
(qubit) a, quant à lui, deux états
quantiques |0> et |1>, séparés par
une différence d’énergie définissant sa fréquence (fQB), et peut
être à la fois dans ces deux états.
Au cours d’un algorithme (succession d'opérations dites « portes
logiques »), le registre de qubits
se trouve dans une superposition
quantique de tous ses états possibles (|00…0>, |10…0>, |11…1>,
|10…1>), permettant un calcul
massivement parallèle.
Science magazine n°61
Un bit d'ordinateur classique n'a qu'une valeur : 0 ou 1.
futur ordinateur quantique, à l’instar des transistors de la microélectronique classique.
Au XXe siècle, la mise au jour de la physique
quantique a révolutionné notre conception du
monde mais aussi notre mode de vie avec
ses applications : lasers, transistors, circuits
intégrés. Une deuxième révolution quantique
advient à l’aube du XXIe siècle. Elle regroupe
des recherches visant à concevoir et à réaliser
des dispositifs de rupture qui exploitent les
phénomènes physiques de la superposition et
de l’intrication quantique. C’est un domaine
en pleine expansion avec de très forts enjeux
scientifiques et technologiques. En particulier,
la réalisation d’un ordinateur quantique permettrait des approches révolutionnaires pour
certaines classes de problèmes.
Mais la mise au point de ce type d'ordinateur
se heurte à d’importants obstacles technologiques. D'ailleurs la communauté scientifique
bien informée sur les possibilités des technologies quantiques est encore réduite. Issue
pour l’essentiel du monde académique (physique et mathématiques), elle a peu développé
les voies applicatives pour le moment. Il est
donc possible que de nombreuses applications
insoupçonnées jusqu’à présent apparaissent
dans un futur proche.
Petit rappel sur la physique quantique
Les physiciens du début du XXe siècle comprennent que les échanges d’énergie
sont quantifiés. Bohr montre que l’atome n’évolue pas comme un système
classique capable d’échanger de l’énergie de manière continue, mais qu’il
présente plusieurs états « quantiques » ayant chacun une énergie bien définie
(comme des paliers définissant un niveau atomique).
Dans le monde macroscopique, le comportement quantique des systèmes
physiques passe généralement inaperçu. Il règne en maître sur la matière à
l’échelle des particules comme les électrons, les photons et les composants
du noyau atomique.
La course à l'ordinateur quantique
Dossier
39
Le calcul parallèle est utile pour
de nombreuses applications
Aujourd’hui, des programmes de recherche importants sont menés selon trois
grandes voies de l’ingénierie quantique.
Ils étudient ce qu’il est possible de réaliser en termes d’application en exploitant
les propriétés d’intrication, de non localité
et de superposition, propre à un système
quantique.
La recherche porte tout d'abord sur les capteurs. En effet, une information portée par
un qubit est très sensible aux perturbations
apportées par son environnement ; c’est une
difficulté pour réaliser un ordinateur mais cela
peut permettre de construire une sonde très
sensible. Autre domaine, les ordinateurs de
très grande performance : le calcul quantique
est intrinsèquement parallèle et permet de traiter en un temps très réduit de grandes quantités
d’information, avec des performances inaccessibles au calcul classique pour certaines
Qu'est-ce que la
superposition ?
C'est un principe, énoncé à travers l’exemple du chat vivant et
mort de Schrödinger, selon lequel
un même système quantique peut
être placé dans une superposition
d’états correspondant à des valeurs différentes d’une observable
(chat mort / chat vivant). Un électron peut être « physiquement »
à plusieurs endroits à la fois avec
une certaine probabilité : il a
X % de probabilité d’être ici et
Y % d’être là, etc. En physique
classique, l’état d’un système est
parfaitement défini et on ne peut
pas observer une telle superposition d’états. Les chercheurs
veulent utiliser cette propriété
de superposition des états pour
stocker et traiter des données
de façon massivement parallèle,
plus rapidement que dans l’électronique classique.
Une transmission ultra-sécurisée de l’information
La cryptographie quantique sert à établir des clés privées à distance, utilisées
ensuite dans des protocoles de chiffrement classiques. Elle repose sur l’échange
de bits générés aléatoirement, à ceci près que les bits 0 ou 1 deviennent des
superpositions d’états (les qubits). C’est une technologie quantique déjà relativement mûre qui donne lieu à des systèmes développés et commercialisés par
quelques petites entreprises. Ils permettent la transmission ultra-sécurisée
de l’information en réponse à la menace de l’ordinateur et des algorithmes
quantiques capables de mettre à mal les techniques de chiffrement classiques.
La communication quantique prendra véritablement son essor lorsqu’on
sera parvenu à assembler les briques élémentaires qui permettent de générer,
véhiculer, stocker et synchroniser l’information quantique entre sites distants.
applications. Enfin les télécommunications
protégées peuvent bénéficier d'améliorations.
De fait, les corrélations quantiques entre des
particules intriquées permettent de coder un
message garantissant l’absence d’interception lors de sa transmission. Le codage à base
de clefs publiques trop difficiles à factoriser
par les ordinateurs actuels pourrait être cassé
par un ordinateur quantique ayant un nombre
suffisant de qubits (de l’ordre du nombre de
bits de la clef).
Pour quels types d'applications un système
quantique serait-il particulièrement intéressant ? Le calcul massivement parallèle,
intrinsèque à l’ordinateur quantique, permet
de sonder l’espace des états d’un système
comportant de très nombreux paramètres.
Cette caractéristique permet déjà d’identifier
quatre grands domaines d’application.
En chimie, on pourrait simuler, in silico, de
manière exacte, la structure et le fonctionnement de grosses molécules d’intérêt pour la
pharmacologie ou pour l’agronomie. Avec les
ordinateurs actuels, même les plus puissants,
il est possible de simuler des petites molécules
mais il est souvent nécessaire de recourir à
de fortes approximations dès que la taille du
système étudié augmente.
Dans le domaine du Data Mining, l'ordinateur
quantique permettrait d'accélérer la recherche
d’une information spécifique dans une vaste
base de données.
Pour l’industrie 4.0, cela donnerait la possibilité d'optimiser les procédés, soit trouver une
solution optimale dans un système complexe
multiparamétrique, comme par exemple la
tournée la plus rapide d’un camion de livraison, ou ajuster l’offre à la demande sur un
réseau électrique très décentralisé.
Enfin, au cours de la phase d’apprentissage
d’un système d’Intelligence Artificielle, telle
qu’une reconnaissance d’images, les informations pourraient être simultanément reconnues, et non de façon séquentielle comme
c’est le cas avec des processeurs classiques
(examiner une situation, puis une autre, etc.).
La physique quantique règne en
maître sur la matière à l’échelle
des particules. On peut ainsi retrouver celles-ci sous plusieurs états
superposés.
Science magazine n°61
40
Dossier
La course à l'ordinateur quantique
A la moindre perturbation des qubits,
tout s'évanouit...
Pour effectuer des calculs très rapides, il
s'agit de disposer d'un très grand nombre
de qubits. Or, plus leur nombre est grand,
plus la superposition des états quantiques
est instable. Résultat : tout peut disparaître avant que le calcul ne soit mené à
son terme.
La superposition des états de base des qubits
représente l'atout majeur offert par les lois
de la physique quantique. Un ordinateur
exploitant cette possibilité pourrait calculer
de façon massivement parallèle, c'est-à-dire
simultanément, l'ensemble des valeurs des
qubits, et ainsi surpasser considérablement
la puissance de l'ordinateur classique.
Ainsi, dans un ordinateur classique, une série
de N bits égaux à 0 ou 1 permet d’encoder
un unique nombre parmi les 2N possibles (un
parmi 4096 pour N = 12).
En revanche, un registre quantique dont les
12 qubits seraient en parallèle plongés dans
les deux états de base |0> ou |1>, se trouverait
dans une superposition des 4096 états de base
du registre. Toute opération quantique qui lui
serait appliquée s’effectuerait en parallèle sur
ces 4096 états de base ! Ceci ne réaliserait pas
pour autant du calcul parallèle car la lecture ne
donnera qu’un seul résultat. L’art de l’algorithmique quantique consiste alors à exploiter
le parallélisme tout en concentrant, par chaque
étape de mesure, l’état du registre quantique
sur la ou les solutions du problème étudié.
Mais si les spécialistes de physique quantique
savent observer atomes, photons ou molécules dans des états dits « de superposition
quantique », ces états sont extrêmement fragiles : à la moindre perturbation extérieure,
ils s’évanouissent. D’où la nécessité d’isoler aussi complètement que possible de leur
environnement les systèmes que l’on souhaite
mettre durablement dans de tels états.
Les qubits sont les unités de construction
des calculateurs quantiques. Ils peuvent
être mis en oeuvre dans une large variété de
Science magazine n°61
systèmes physiques à l’échelle du laboratoire.
La recherche sur les qubits s’est d’abord naturellement portée sur des systèmes au comportement quantique avéré, comme les atomes
et les ions, bien que ces systèmes microscopiques soient difficiles à contrôler individuellement et à coupler. Elle s’est également
portée ensuite sur des systèmes plus faciles
à contrôler, comme des circuits électriques,
qui eux ne fonctionnent, en général, pas en
régime quantique.
Cependant, lorsqu’on veut produire de grands
systèmes ou des qubits en série, il faut utiliser des supports de l’information quantique
compatibles avec les standards industriels.
Les qubits de spin dans le silicium sont de
petite taille (typiquement 30 nm) et sont
compatibles avec les technologies CMOS
(Complementary Metal Oxide Semiconductor : technologie de fabrication de composants
électroniques), largement utilisées dans l’industrie microélectronique. Ils présentent donc
des avantages évidents pour la production en
série par rapport aux autres types de qubits.
Depuis 2012, où ont été mis au point les premiers qubits basés sur des spins d’électrons
confinés, le 28Si purifié isotopiquement
a permis d’améliorer significativement le
temps de cohérence du spin quantique. En
effet, l’isotope 28 du silicium ne porte pas de
spin nucléaire, source importante de décohérence pour le qubit. Plus le temps de cohérence du spin augmente, plus la fidélité des
opérations de calcul quantique et la capacité à
effectuer une séquence complète d’opérations
s’améliorent.
Qu'appelle-t-on
intrication ?
L’état quantique d’un système
formé de plusieurs sous-systèmes
peut être un état dans lequel
chaque sous-système est dans un
état quantique défini. Mais, et
c’est le cas le plus général, il peut
être dans une superposition de
tels états et ne plus correspondre
à un état quantique bien défini
pour chaque sous-système.
La course à l'ordinateur quantique
Dossier
41
Au niveau européen, un flagship (grand projet) sur l’ingénierie quantique a démarré en
2018 avec l’ambition d’amener les technologies quantiques sur le marché. Le financement
annoncé est d’au moins un milliard d’euros,
apporté par la Commission européenne et les
Etats membres sur dix ans.
Les grandes firmes s'associent à des communautés scientifiques, ou créent leurs propres
laboratoires de recherche. L'association de
Google avec I'Université de Californie de
Santa Barbara, ou la collaboration annoncée
sur dix ans du groupe lntel avec l'université
technologique de Delft, illustrent l'engouement pour cette thématique de recherche.
Atos-Bull, leader européen du calcul intensif,
s'est aussi positionné activement sur la feuille
de route de l'ordinateur quantique en réalisant
un émulateur d'ordinateur quantique intégrant
finement mémoire et calcul dans un serveur
classique optimisé, et en créant une équipe
spécialisée en logiciel adapté au quantique.
Un grand nombre de voies de réalisation
physique est développé en parallèle, à base
d’atomes froids, d’ions ou d’atomes piégés,
de centres NV, de photons, de supraconducteurs, de semi-conducteurs… Aucun consensus ni aucun argumentaire robuste n’existent
aujourd’hui sur la solution la plus adaptée
pour réaliser un ordinateur quantique comprenant plus d’une dizaine de qubits. Tous les
systèmes étudiés jusqu’à présent se sont en
effet heurtés aux problèmes de décohérence et
de complexité rapidement croissante des dispositifs quand le nombre de qubits augmente.
En particulier, le problème de la correction
d’erreurs est plus qu’ardu car ses difficultés
Fabrication de puces à bit quantiques supraconducteurs : lithographie électronique et dispositif de
lecture.
© P.Stroppa/CEA
Véritable rupture technologique, l'ordinateur quantique a mobilisé les chercheurs
de manière croissante cette dernière décennie. Les enjeux qu'il représente incitent de
grandes entreprises à investir d'importants
moyens, dans l'espoir de lever les verrous
conceptuels et technologiques.
© P.Stroppa/CEA
La course s'accélère !
sont d’ordre à la fois conceptuel et technologique, liant degrés de liberté, interactions,
complexité, méthode d’adressage, méthode
de mesure, décohérence. A ces questions
s’ajoute la vaste problématique de l’algorithmique et de son implémentation pratique
dans une architecture donnée (traitement des
erreurs, langage de programmation…).
Conserver la cohérence
Lorsqu’il est placé dans une superposition d’états, un système
oscille indéfiniment entre les différents états qui le constituent :
on le dit « cohérent ».
Fabrication de bits quantiques supraconducteurs dans une machine d'évaporation aluminium : mise en place de la galette de saphir servant de support aux circuits.
Mais toute interaction avec le
monde extérieur, par de très
fines interactions fluctuantes avec
l’environnement ou la mesure
des propriétés du système, tend
à modifier l’état quantique bien
préparé. Ceci déphase de façon
aléatoire les fonctions d’onde des
états de la superposition initiale,
qui est brouillée et perd ainsi sa
cohérence : c’est la décohérence.
Les chercheurs tendent à identifier des matériaux et des conditions physiques qui permettent à
des qubits de conserver leur cohérence le plus longtemps possible.
Science magazine n°61
42
dossier
La course à l'ordinateur quantique
Comme nous l'avons dit, l’ordinateur
quantique, susceptible de révolutionner le
traitement de certains problèmes hors de
portée des ordinateurs classiques existants
et même à venir, utilise des registres de bits
quantiques dont la cohérence quantique
doit être maintenue durant le calcul.
© P.Stroppa/CEA
Des qubits de grande robustesse
En 2002, les chercheurs du groupe
Quantronique du Service de physique
de l’état condensé (SPEC, CEA-CNRS,
Paris-Saclay), dirigé par Daniel Estève,
ont réalisé le premier circuit électronique
qui pourrait servir de brique de base à un
futur processeur quantique.
Sans trop entrer dans les détails techniques,
nous dirons que l'expérience a porté sur un
bit quantique constitué d'une boucle de métal
supraconducteur (aluminium) interrompue
par des jonctions tunnel (ou jonctions Josephson). L'état quantique du Quantronium a
ainsi été piloté par des séquences d'impulsions
radiofréquence, comme peut l'être celui d'un
atome par des impulsions laser. Des algorithmes quantiques ont ainsi été implémentés
dans des processeurs élémentaires.
Le spin...
... est une propriété quantique
d’une particule qui ne présente
pas d’équivalent dans la physique classique, contrairement à
la position ou l’impulsion. Cette
propriété permet de décrire
l’interaction de la particule avec
les champs magnétiques. Elle est
souvent assimilée au moment cinétique de la rotation d’un objet
sur lui-même. La spintronique est
la science qui consiste à exploiter les propriétés quantiques de
spin de l’électron. Elle offre des
possibilités d'applications dans
la réalisation de capteurs de très
grande sensibilité qui ont révolutionné le stockage magnétique de
l'information.
Science magazine n°61
Installation d'une expérience d'électrodynamique quantique dans un réfrigérateur destiné à porter l'expérience à -273°C.
Cette équipe a aussi introduit les systèmes
hybrides à base de bits quantiques supraconducteurs et de centres colorés dans le diamant combinant le traitement et le stockage
de l’information quantique. Aujourd'hui, les
travaux du groupe portent plus particulièrement sur la combinaison de circuits supraconducteurs avec des systèmes quantiques
microscopiques, des spins électroniques et
nucléaires, dont la cohérence quantique est
meilleure.
La France mène une recherche de premier
plan mondial dans les domaines du flagship quantique, particulièrement au sein du
CEA, du CNRS, de l’Inria et sur plusieurs
sites universitaires, dont Paris, Paris-Saclay
et Grenoble. Le CEA développe des collaborations avec la plupart de ces acteurs.
Des partenariats publics privés ont vu le
jour. Portée par Daniel Estève, une chaire
industrielle Atos-CEA a été lancée en mai
dernier. Soutenue par l’ANR, elle est baptisée
« Nasniq » (Nouvelle architecture de spins
nucléaires pour l'information quantique) et a
pour ambition d’explorer cette nouvelle voie
pour développer l’ordinateur quantique, soit
développer une voie hybride originale vers
l’ordinateur quantique en combinant des systèmes microscopiques très quantiques avec
des circuits électriques.
La course à l'ordinateur quantique
dossier
43
De leur côté, le CEA-Leti et l’Institut Nanosciences et cryogénie (Inac, CEA/UGA)
ont franchi une étape importante vers la fabrication à grande échelle de boîtes quantiques (qubits), briques élémentaires des
futurs processeurs de calcul quantique...
© D.Guillaudin/CEA
Des architectures tolérantes aux fautes
En mars dernier, le CEA et ses partenaires ont
ainsi annoncé la mise au point d’un procédé
pour obtenir des galettes de silicium enrichi
en silicium 28 qui peuvent servir de support
en vue de produire, en série, des milliers
de boîtes quantiques. Cette étape permet
un procédé utilisant l’isotope silicium 28,
compatible avec les chaînes de production
industrielles aux normes CMOS. Elle suit la
réalisation du premier qubit silicium en technologie industrielle CMOS en 2016.
Projet Silicium Quantique - Etude à très basse température des circuits silicium fabriqués au LETI Réfrigérateur continu à He3 forte puissance, conçu
dans le laboratoire Pheliqs.
© D.Guillaudin/CEA
Les chercheurs ont réussi à obtenir, sur des
plaques (ou galettes) de silicium, une fine
couche d’isotope 28 du silicium dont le degré
de pureté est très élevé et dont la structure
cristalline est d’une qualité comparable à celle
des films minces généralement fabriqués à
partir de silicium naturel. La prochaine étape
consistera à réaliser sur de tels substrats des
qubits dont la fidélité devrait être nettement
supérieure à celle de qubits obtenus précédemment sur silicium naturel.
Les équipes du CEA poursuivent aussi des
recherches dans d’autres domaines, complémentaires et indispensables à l’émergence des
technologies de l’ordinateur quantique et de
l’ingénierie quantique : l’électronique cryogénique, la nano-implantation contrôlée d’ions
dans les matériaux, des sources de photons
micro-ondes intriqués et des briques technologiques permettant d’utiliser des photons et
des électrons comme systèmes quantiques,
des sources électroluminescentes à molécules
organiques uniques, des dispositifs spintroniques en régime quantique.
Projet Silicium Quantique - Etude à
très basse température des circuits
silicium fabriqués au LETI Composants RF utilisés pour les mesures
haute fréquence et très basse
température.
Science magazine n°61
44
dossier
La course à l'ordinateur quantique
Une recherche
de pointe
Les équipes grenobloises du
CEA avaient déjà la maîtrise de
la fabrication de qubits dans un
procédé utilisant une plateforme
silicium sur isolant CMOS 300
mm. Cette année, elles ont démontré qu’un spin électronique
dans un transistor peut être manipulé par des signaux électriques.
En amont, les physiciens du CEA
à Saclay avaient déjà annoncé la
mise au point d’un qubit dans un
circuit électrique dès 2002, ainsi
que celle d’un dispositif de lecture
fiable des qubits en 2009.
Vers un leadership franco-australien
Comme nous l'avons dit, la France mène
une recherche de pointe dans le domaine.
Aussi, en mai dernier, un projet de nouvelle collaboration entre la première entreprise australienne dédiée à l’informatique
quantique, Silicon Quantum Computing
Pty Ltd (SQC), et le CEA a été annoncé.
Ce partenariat franco-australien est une
nouvelle étape concrète dans le développement d'un ordinateur quantique à base
de silicium.
SQC est un leader mondial de l’informatique
quantique à base de silicium. Exploitant la
propriété intellectuelle développée au CQC2T
(Australian Centre of Excellence for Quantum
Computation and Communications Technology), SQC travaille sur des approches parallèles avec des qubits à un seul atome et des
qubits fabriqués à l’aide de la technologie
CMOS à base de silicium. SQC détient une
expertise de tout premier plan au niveau mondial dans la conception et l’intégration de
composants pour puces quantiques basées sur
la technologie CMOS à base de silicium. Ce
Protocole d’accord porte sur cette approche
CMOS à base de silicium.
L’entreprise commune envisagée permettrait à SQC de travailler avec l’expertise du
CEA sur les composants CMOS sur silicium,
avec pour ambition de former ainsi un leader
dans la course mondiale à la fabrication et à
l’industrialisation des matériels informatiques
quantiques.
Les plus puissants ordinateurs
actuels ne peuvent égaler les capacités pharaoniques d'un ordinateur
quantique.
Science magazine n°61
La course à l'ordinateur quantique
dossier
45
Les étapes vers l'ordinateur quantique
◗ 1982
Le physicien Richard Feynman a l’intuition de l’ordinateur quantique, fondé sur la possibilité pour un système quantique de se trouver dans une superposition d’un grand nombre d'états en même temps, d’où la possibilité de calculs
massivement parallèles.
◗ 1999
Des chercheurs japonais de la société NEC, via des technologies développées par le groupe Quantronique du CEA,
observent pour la première fois un circuit supraconducteur dans un état de superposition quantique potentiellement
utilisable comme qubit.
◗ 2002
Le groupe Quantronique du CEA met au point un qubit supraconducteur, le quantronium, dont on peut lire l’état en
un coup, et non plus en moyenne, et dont la durée de vie (temps de cohérence) permettrait de s’en servir pour réaliser
des opérations logiques.
◗ 2004
John Martinis, ancien post-doc au CEA, réalise à l’Université de Californie une porte logique à deux qubits, dite iSWAP,
qui transforme un état 01 en une superposition quantique des états 01 et 10.
◗ 2012
Le groupe Quantronique du CEA démontre, grâce à un système à deux qubits supraconducteurs, la plus grande efficacité de l’algorithme quantique de Grover pour retrouver un objet parmi N.
◗ 2014-2015
Démonstration de codes correcteurs d’erreurs quantiques primitifs dans plusieurs groupes de recherche.
◗ 2016
Des chercheurs du CEA démontrent que les très petits transistors obtenus par la technologie silicium sur isolant permettent de réaliser un qubit intégrable ; de quoi mettre l’ordinateur quantique à portée de l’industrie électronique.
◗ 2017
Atos-Bull commercialise le simulateur de calcul
quantique.
◗ 2018
Le CEA et ses partenaires mettent au point un
procédé pour obtenir des galettes de silicium
enrichi en silicium 28 qui peuvent servir de support en vue de produire, en série, des milliers de
boîtes quantiques. Cette étape esquisse un procédé compatible avec les chaînes de production
industrielles aux normes CMOS (Complementary Metal Oxide Semiconductor : technologie
de fabrication de composants électroniques).
Comment maîtriser ces particules dont les états sont si fragiles ?
Nos remerciements au CEA (Commissariat à l'Energie Atomique) et notamment à Philippe Chomaz, directeur scientifique exécutif au sein de la
Direction de la recherche fondamentale, Maud Vinet, en charge du programme avancé sur la technologie microelectronique CMOS, et Daniel
Estève, directeur du groupe Quantronique au CEA Paris-Saclay.
Science magazine n°61
46
dossier
Cerveau : le rôle étonnant de certains neurones
Cerveau : le rôle étonna
Science magazine n°61
Cerveau : le rôle étonnant de certains neurones
dossier
47
a nt de certains neurones
Où naissent les neurones ? Ont-ils
une spécialisation dès le départ ?
Et ceux qui apparaissent à l'âge
adulte, à quoi servent-ils ? Les
dernières avancées sur le cerveau
révèlent des découvertes parfois
stupéfiantes : comme par exemple
la possibilité de faire changer de
fonction un neurone avec un peu
d'électricité !
Science magazine n°61
48
dossier
Cerveau : le rôle étonnant de certains neurones
Des neurones spécialisés dès la naissance
Des chercheurs suisses ont découvert le
lieu de naissance précis d’une catégorie de
neurones. Puis ils ont découvert un facteur moléculaire unique qui leur permet
de suivre leur migration jusqu’au cortex
cérébral.
Le cortex cérébral est composé d’une multitude de neurones, chacun doté de caractéristiques propres sur les plans moléculaire,
morphologique et fonctionnel. Mais où
naissent-ils ? Comment développent-ils leurs
propriétés particulières ? A l’heure actuelle,
il n’existe aucune réponse complète à ces
questions.
Deux types de neurones sont nécessaires pour
que le cortex cérébral puisse fonctionner de
façon harmonieuse : les excitateurs (80%),
responsables de la transmission de l’information à d’autres régions cérébrales, et les
inhibiteurs (20%) qui régulent l’activité des
excitateurs. Les neurones inhibiteurs, nommés également interneurones, sont considérés
comme de véritables « chefs d’orchestre ».
Ils modulent le flux excitateur et le rendent
cohérent, un fondement dans l’accomplissement de tâches complexes. Aujourd’hui, il est
encore difficile d’avoir accès aux sous-classes
de neurones inhibiteurs pour en saisir précisément le rôle dans le bon fonctionnement
du cortex cérébral adulte. D’où viennent-ils ?
Comment se spécialisent-ils ?
Pour tenter de répondre à ces questions,
deux modèles sont proposés par les neuroscientifiques. Le premier considère que
les différentes classes de neurones naissent
avec la même identité et se spécialisent par
la suite en fonction de leur environnement.
Au contraire, le second prône une diversité
génétique initiale, qui, dès la naissance de la
cellule, les amène à exprimer les traits d’une
classe donnée.
L’équipe d’Alexandre Dayer, professeur au
Département de psychiatrie et des neurosciences fondamentales de la Faculté de médecine de l’UNIGE (Université de Genève),
s’est alors intéressée à développer un outil
Science magazine n°61
qui permettrait non seulement de
savoir où est généré un type précis d’interneurones inhibiteurs et
de suivre leur migration jusqu’au
cortex cérébral, mais aussi d’en
étudier les propriétés à l’âge
adulte. « Nous avons observé
et testé plusieurs facteurs de
transcription, responsables de
la régulation génétique, et nous
avons découvert que le facteur
HMX3 est exprimé très localement dans une région de genèse
des interneurones. Ceci pourrait
figurer l’empreinte génétique
initiale d’une classe précise ! »,
s’enthousiasme Alexandre
Dayer. Suivant cette hypothèse,
les chercheurs ont découvert que
le gène HMX3 permet effectivement de suivre la trajectoire
développementale d’un type
unique d’interneurones, les cellules neurogliaformes.
Ils ont ainsi pu découvrir
l’origine des cellules neurogliaformes et suggérer que ce
sous-type d’interneurones est
défini par l’expression de ce
facteur. « Non seulement cette
catégorie d’interneurones trouve son origine
dans une zone appelée aire pré-optique, située très loin du cortex cérébral, mais elle naît
déjà spécialisée » explique Mathieu Niquille,
chercheur au Département de psychiatrie de
la Faculté de médecine de l’UNIGE. « Cela
donne du crédit au second modèle proposé
par les neuroscientifiques ».
Pour la première fois, des chercheurs sont
capables de localiser avec précision l’endroit
où est générée une catégorie particulière de
neurones inhibiteurs, et de suivre son parcours jusqu’au cortex cérébral. « Cette découverte est une importante avancée dans
la compréhension de la genèse de la diversité neuronale », relève Alexandre Dayer.
« Nos résultats démontrent que des facteurs
génétiques précoces sont responsables de la
spécialisation des cellules neurogliaformes,
et qu’il en est probablement de même avec
la vingtaine d’interneurones que l’on peut
observer dans le cortex cérébral. » Chaque
type naîtrait ainsi avec ses particularités dans
un endroit précis du cerveau.
Les chercheurs veulent à présent élucider le
rôle unique des cellules neurogliaformes et
tenter d’éclaircir l’origine des autres classes
d’interneurones. « Cette recherche ouvre
également des perspectives pour une meilleure compréhension de certaines maladies psychiatriques, comme l’autisme et la
schizophrénie, particulièrement concernée
par des altérations dans la balance entre
les neurones inhibiteurs et excitateurs à des
stades précoces du développement », conclut
Alexandre Dayer.
Cerveau : le rôle étonnant de certains neurones
dossier
49
Un peu d'électricité, et le neurone change de fonction !
La théorie de la spécialisation précoce des
neurones se confirme avec cette étonnante
découverte faite toujours à l'UNIGE : en
manipulant les propriétés bioélectriques
des cellules souches qui génèrent les neurones, il est possible de changer la composition cellulaire du cerveau au cours du
développement.
Le cortex cérébral est la région la plus développée chez les mammifères et permet des
fonctions intellectuelles avancées telles que
la perception consciente du monde, l’anticipation, ou encore le langage. A chaque activité correspondent des circuits composés de
neurones bien précis. Les différents types de
neurones sont créés les uns après les autres
au cours de l’embryogenèse par des cellules
souches nommées progéniteurs, présentes
dans les profondeurs du cerveau. « Nous nous
sommes demandés comment ces progéniteurs
savent quel type de neurones ils doivent fabriquer à chaque moment du développement de
l’embryon », expose Denis Jabaudon, professeur au Département de neurosciences
fondamentales de la Faculté de médecine de
l’UNIGE. Pour cette étude, l’équipe de scientifiques a choisi d’aborder la question sous
un nouvel angle. « D’habitude, ce sont des
facteurs génétiques qui sont les stars du fonctionnement cellulaire », explique Ilaria Vitali,
chercheuse au sein de l’équipe. « Ici, nous
nous sommes intéressés à d’autres acteurs,
les propriétés électriques des progéniteurs. »
En effet, si le rôle de l’activité électrique dans
le fonctionnement des circuits du cerveau est
bien établi, on ne savait jusqu’ici presque rien
sur l’effet de l’électricité sur les propriétés
des progéniteurs cérébraux. Les scientifiques
ont mesuré chaque jour la charge électrique
des progéniteurs d’embryons. « Nous avons
constaté qu’alors que le foetus grandit et que
les types de neurones fabriqués se complexifient, le voltage des progéniteurs augmente
de plus en plus », explique Denis Jabaudon.
Afin de confirmer cette observation, les scientifiques ont modifié génétiquement des cellules embryonnaires « pour manipuler à notre
guise leur voltage et charger ou décharger
ces cellules », explique Sabine Fièvre, copremière auteure de l’étude. Et effectivement,
si les progéniteurs sont artificiellement chargés en début d’embryogenèse, ils fabriquent
alors précocement des neurones apparaissant
normalement à la fin du développement de
l’embryon. « Et inversement, si nous déchargeons les progéniteurs, ceux-ci fabriquent à
nouveau des neurones apparaissant normalement plus tôt lors du développement de l’embryon ! », s’enthousiasme Denis Jabaudon.
Ces résultats démontrent pour la première fois
que l’activité bioélectrique des progéniteurs
joue un rôle capital dans la fabrication des
différents types de neurones. Ceci pourrait
expliquer les effets de certaines maladies du
développement liées à une activité électrique
anormale, comme par exemple l’épilepsie.
Les nouveaux neurones de l'adulte
sensibles à la récompense
On le sait désormais : le cerveau adulte
peut produire de nouveaux neurones. Mais
quelles sont leurs propriétés ? Quels avantages apportent-ils que leurs semblables,
générés peu après la naissance, ne peuvent
garantir ?
renouveler continuellement leurs neurones.
La découverte de ces néo-neurones adultes
fut une révolution en neurobiologie, mais de
nombreuses questions sur la fonction et la
manière dont ils s’intègrent dans leur territoire
cible demeuraient toujours sans réponse.
Même si la plupart des neurones sont générés
au cours du développement embryonnaire,
certaines régions du cerveau des mammifères
ont en effet la capacité, à l’âge adulte, de
Une équipe de chercheurs de l'Institut Pasteur
et du CNRS, dirigée par Pierre-Marie Lledo,
directeur de recherche CNRS, a démontré
que l’attribution de valeurs plaisantes aux
expériences sensorielles repose étroitement sur
l’activité des neurones produits chez l’adulte, et
non ceux formés peu après la naissance. C’est
grâce à l’activité de ces premiers qu’un sujet
pourrait anticiper l’arrivée d’une récompense.
Pour cela, les chercheurs se sont intéressés
plus particulièrement à la production de nouveaux neurones dans la région du cerveau
responsable de l’analyse des odeurs, le bulbe
olfactif. Ces néo-neurones sont considérés
Science magazine n°61
50
dossier
Cerveau : le rôle étonnant de certains neurones
comme des acteurs majeurs de flexibilité pour
l’apprentissage et la mémoire des expériences
sensorielles olfactives.
Les scientifiques ont constaté que les néo-neurones étaient capables de réagir différemment
à une odeur en fonction des conséquences associées à cette expérience sensorielle, comme
l’obtention ou non d’une récompense. Ils ont
également montré qu’un apprentissage olfactif était facilité dès lors que les néo-neurones
étaient activés. Finalement, la simple activation de ces neurones générés chez l’adulte
pouvait être assimilée à une odeur prédictive
d’une récompense.
En somme, c’est à travers la valeur attribuée
aux sensations, et non à la simple identification de la nature de cette sensation, qu’il faut
appréhender la fonction des neurones produits tardivement dans le cerveau adulte. Ce
travail démontre que l’apprentissage motivé
par l’obtention d’une récompense dépend
étroitement de la neurogenèse du cerveau
adulte. En effet, les neurones générés peu
après la naissance sont incapables d'assurer
cette fonction : identifier le stimulus sensoriel
tout autant que la valeur positive à laquelle
cette expérience sensorielle est associée.
L'Homme est-il la seule espèce qui lit
dans les pensées ?
C'est une capacité utile de comprendre les
états mentaux des autres : ce qu’ils pensent,
ce qu’ils ressentent, ce qu’ils veulent, ce
qu’ils aiment… On appelle cela la "théorie
de l’esprit". Elle joue un rôle majeur dans
les interactions sociales humaines. Mais
comment avons-nous acquis cette compétence au cours de l'évolution ? Quel type de
pression de sélection a finalement abouti à
en munir l'espèce humaine ?
Il s'agissait tout d'abord d'obtenir, chez
l'Homme, une mesure non verbale de la sophistication de cette capacité à comprendre
les états mentaux des autres. C'est ce qu'ont
développé Jean Daunizeau et Marie Devaine,
de l'Institut du Cerveau et de la Moelle épinière (ICM). Cette mesure est basée sur l'analyse mathématique du comportement dans
des jeux interactifs simples. Ensuite cette
approche a été adaptée en collaboration avec
la primatologue Shelly Masi (UMR CNRSMNHN), de manière à pouvoir comparer la
sophistication de cette capacité chez sept
espèces de primates non humains, depuis les
lémuriens jusqu’aux grands singes (gorilles,
orang-outans et chimpanzés). Cette étude inédite sur les origines de l’intelligence sociale
humaine présente l'analyse mathématique du
plus grand échantillon d'espèces de primates
publié à ce jour. Les résultats de l'étude vont
Science magazine n°61
à l'encontre de l’hypothèse généralement
admise, qui stipule que la capacité à comprendre les autres s'est développée en réponse
aux problèmes posés par la complexité du
groupe social dans lequel évolue l'animal.
Il semblerait plutôt que l’évolution de cette
performance soit principalement déterminée
par des facteurs neurobiologiques limitants,
comme la taille du cerveau.
S'il était déjà démontré que la théorie de l'esprit s'appliquait aux grands singes, les chercheurs ont identifié deux grandes différences,
deux « gap » évolutifs, entre les capacités des
humains et celles des grand singes d'une part,
ainsi qu'entre les capacités des grands singes
et celles des singes à queue d'autre part.
Cerveau : le rôle étonnant de certains neurones
dossier
51
Vengeance ou pardon : le cerveau décide
Sous le coup de la colère, des zones cérébrales s’activent. Face à l'injustice, notre
cerveau peut cependant désactiver le besoin de vengeance...
Des recherches ont déjà été faites sur la colère
et le comportement vengeur qui en découle.
Mais elles étaient jusqu'alors fondées principalement sur les souvenirs d’un sentiment
de colère que l’on demandait aux participants
de se remémorer, ou sur l’interprétation de la
colère sur des visages photographiés. Olga
Klimecki-Lenz, chercheuse au Centre interfacultaire des sciences affectives (CISA) de
l’UNIGE, a voulu localiser en direct quelles
zones du cerveau réagissaient lorsque la personne se mettait en colère, et comment ce
sentiment se matérialisait en comportement
vengeur.
25 personnes ont participé à l’Inequality Game, un jeu économique créé par la
scientifique pour déclencher un sentiment
d’injustice, puis de colère, avant d’offrir à la
« victime » la possibilité de se venger. « Le
participant a des interactions économiques
avec deux joueurs, qui suivent en fait un programme informatique (ce qu’il ignore) »,
explique Olga Klimecki-Lenz. « Le premier
joueur est aimable, ne propose au participant
que des interactions financières profitables
pour tous et envoie des messages sympathiques, alors que le second joueur fait en
sorte de multiplier uniquement ses propres
gains, tout en lésant le participant et en lui
envoyant des messages agaçants. »
Le jeu se déroule en trois phases, lors desquelles le participant est installé dans un
appareil d’imagerie par résonance magnétique (IRM) permettant aux scientifiques de
mesurer son activité cérébrale. Le participant
n’est ensuite confronté qu’aux photographies
des deux autres joueurs et aux messages et
transactions financières qu’il reçoit et émet.
Lors de la première phase, le participant est
aux commandes et choisit quels gains il distribue à qui. « Nous avons remarqué qu’en
moyenne, les participants font preuve ici de
justice et œuvrent pour que le jeu soit bénéfique pour tous », relève la chercheuse. La
deuxième phase est celle de la provocation :
le participant subit les décisions des deux
autres joueurs, et surtout les provocations et
injustice du «méchant » joueur, qui induisent
un sentiment de colère évalué sur une échelle
allant de 0 à 10 par le participant lui-même.
Lors de la dernière phase, le participant est
de nouveau maître du jeu et peut choisir de se
venger ou non en pénalisant les deux autres
joueurs. Globalement, les participants sont
restés gentils avec le joueur juste, mais se
sont vengés des injustices commises par le
« méchant » joueur.
La phase de provocation a joué un rôle crucial
pour la localisation du sentiment de colère
dans le cerveau. « C’est lors de cette phase
que nous avons pu identifier quelles zones
s’activaient en cas de coup de sang », ajoute
Olga Klimecki-Lenz. Grâce à l’IRM, les
chercheurs ont observé une activité du lobe
temporal supérieur, mais aussi de l’amygdale,
connue surtout pour son rôle dans le sentiment
de peur et dans la pertinence des émotions,
lorsque les participants regardaient la photographie du joueur injuste. Ces deux zones
sont aujourd’hui corrélées au sentiment de
colère : plus le participant indiquait un degré
élevé de colère, plus leur activité était forte.
« Mais l’Inequality game nous a surtout
permis d’identifier le rôle crucial du cortex
dorsolatéral préfrontal (DLPFC), une zone
qui est primordiale dans la régulation des
émotions et qui est situé à l’avant du cerveau ! », s’enthousiasme la chercheuse. En
effet, les participants ont eu tendance à se
venger du joueur injuste lorsqu’ils en ont
eu l’occasion. Toutefois, les chercheurs ont
observé une variabilité de comportement qui
montre que 11 participants sont malgré tout
restés justes envers le joueur « méchant ».
Mais pourquoi ne se sont-ils pas vengés ?
L’équipe du CISA a observé que plus l’activité
de DLPFC était importante durant la phase
de provocation, moins cet état de vengeance
perdurait et était violent. Au contraire, une
faible activité de DLPFC était liée à une vengeance plus prononcée du participant suite à la
provocation par le joueur « méchant ». « Nous
avons observé que le DLPFC est coordonné
avec le cortex moteur qui dirige la main qui
fait le choix du comportement vengeur ou
non », continue la chercheuse du CISA. « Il
y a donc une corrélation directe entre l’activité cérébrale dans le DLPFC, connu pour la
régulation émotionnelle, et le comportement
envers le joueur injuste. »
Pour la première fois, le rôle de DLPFC dans
la vengeance a donc été identifié. Il se distingue des zones de colère concentrées, elles,
dans l’amygdale et le lobe temporal supérieur.
« L’on peut alors se demander si une augmentation de l’activité de DLPFC par une
stimulation transmagnétique, permettrait de
diminuer les actes de vengeance, voire les
supprimer », s’interroge Olga Klimecki-Lenz.
Une solution utile... mais peut-être à réserver
aux individus les plus violents !
Science magazine n°61
52
dossier
La « fin » du kilogramme
La « fin » du kilogramme
C'est un changement historique que vit actuellement notre système
de mesure ! Quatre des sept mesures du monde viennent d'être redéfinies. Ainsi, alors que le kilogramme était jusqu'ici basé sur un étalon
matériel (le « grand K », ou prototype international du kilogramme,
conservé à Sèvres depuis 1889), il sera désormais calculé à partir
d'une constante fondamentale de la physique. Il en sera de même pour
la mole, le kelvin et l’ampère.
Science magazine n°61
La « fin » du kilogramme
dossier
53
Unifier les mesures à l'international
Pourquoi un tel bouleversement ? Pendant
longtemps, nos mesures n'ont pas fait preuve
d'unification. Elles étaient basées notamment
sur les mesures du corps humain, comme le
pied. Personne ne possédant la même longueur de pied, le pied du roi était choisi
comme référence. Or le pied romain, par
exemple, est plus court que le pied anglais
ou que le pied français ! Les échanges commerciaux demeuraient approximatifs...
Lors de la Révolution française, on a souhaité
mettre un terme à cette hétérogénéité des unités de mesure, dans un idéal d'universalité. En
1791, ce fut l'adoption du système métrique
décimal, imposé sur tout le territoire français. Le calcul du mètre a résulté des travaux
Un kilo pèsera
toujours un kilo...
colossaux menés par deux astronomes, Delambre et Méchain qui, pendant sept ans, ont
mesuré une fraction du méridien de Paris,
entre Dunkerque et Barcelone. Le mètre correspondait à dix millionième de la longueur
de ce méridien. A partir de cette définition a
été réalisé le premier étalon matériel du mètre
en 1889.
Mais peu à peu, les unités de mesure ont été
redéfinies en fonction des progrès de la physique pour obtenir une plus grande précision.
Ainsi, en 1967, l'ancienne définition astronomique de la seconde, fixée à 1/86400 d’un
jour moyen, a été remplacée par une définition
quantique plus exacte fondée sur la transition
entre deux niveaux d’énergie d’un atome de
césium 133. Ou encore, en 1983, on a donné
une nouvelle définition du mètre fondée sur
une constante physique fondamentale : la
vitesse de la lumière.
Les 7 mesures du monde sont...
◗ Le mètre : longueur
◗ Le kilogramme : masse
◗ La seconde : temps
◗ L’ampère : intensité du courant
électrique
◗ Le kelvin : température
◗ La mole : quantité de matière
◗ La candela : intensité lumineuse
L'étalon kilo s'allège...
...mais il ne sera plus défini par
rapport à un prototype matériel
pesant par définition exactement
un kilogramme. Il est défini désormais par rapport à la valeur
exacte fixée de la constante de
Planck (h). Un nouvel étalon du
kilogramme est réalisé à partir de
cette constante.
L'ancienne définition - le kilogramme est l’unité de masse, il
est égal à la masse du prototype
international du kilogramme - est
remplacée par : le kilogramme
(kg) est l’unité de masse du SI,
il est défini en prenant la valeur
numérique fixée de la constante
de Planck (h) égale à 6,626 070 15
× 10–34 lorsqu’elle est exprimée en
J.s, unité égale à kg m2 s-1, le mètre
et la seconde étant définis en fonction de c et vCs*.
En ce qui concerne le kilogramme, on avait
conservé depuis 1889 un étalon matériel. Protégé précieusement sous une triple cloche dans
un coffre-fort, à Sèvres (Hauts-de-Seine), ce
cylindre de platine iridié était aux côtés de 6
« témoins » afin de s'assurer que sa masse ne
variait pas. Or, mystérieusement, le poids de
ces différents cylindres n'est plus le même
aujourd'hui : il diffère de plusieurs dizaines
de microgrammes par rapport au grand K.
Ce dernier aurait perdu quelques atomes au
fil du temps...
* J.s = joule seconde ; c = vitesse de la lumière ; ΔνCs = fréquence de la transition hyperfine de l’état fondamental de l’atome de césium.
Science magazine n°61
54
dossier
La « fin » du kilogramme
Une mesure plus fiable s'imposait pour le kilogramme, mais aussi pour l’ampère, le kelvin
et la mole. En 2017 furent fixées dans cette
optique les valeurs exactes des constantes h
(constante de Planck), e (charge élémentaire),
k (constante de Boltzman) et NA (constante
d’Avogadro). Et en novembre 2018, la 26e
Conférence générale des poids et mesures,
réunie à Versailles et regroupant 58 Etats, a
officialisé la redéfinition des unités de mesure
à partir de ces constantes.
La mise en vigueur de cette décision est
prévue pour mai 2019. Il s'agit donc véritablement d'un changement historique dans
l'univers de la métrologie, la science des
mesures. Dorénavant, toutes les unités de base
du Système international sont redéfinies en
référence à sept constantes physiques dont la
valeur exacte est définitivement fixée. Elles
auront ainsi un caractère réellement pérenne
et universel.
Chronologie du Système international d’unités (SI)
◗ 1795
Adoption définitive par la Convention du système métrique décimal, à visée universelle.
◗ 1799
Les premiers étalons du mètre et du kilogramme, réalisés en platine, sont déposés aux Archives nationales de France.
◗ 1875
La Convention du mètre est signée par 17 pays. Ce traité, toujours en vigueur, crée le Bureau international des poids et
mesures (BIPM).
◗ 1889
La première Conférence générale des poids et mesures (CGPM) définit la seconde astronomique et adopte de nouveaux
étalons pour le mètre et le kilogramme.
◗ 1954
Introduction de l’ampère, du kelvin et de la candela comme unités de base, respectivement pour le courant électrique, la
température et l’intensité lumineuse.
◗ 1960
Institution du Système international d’unités (SI), qui définit notamment 6 unités de base (les 7 actuelles sans la mole)
et les unités qui en sont dérivées.
◗ 1967
Abolition de l’ancienne définition astronomique de la seconde, fixée à 1/86400 d’un jour moyen, pour une définition
quantique plus précise fondée sur la transition entre deux niveaux d’énergie d’un atome de césium 133.
◗ 1971
Introduction de la mole comme unité de base pour la quantité de matière.
◗ 1983
Nouvelle définition du mètre fondée sur une constante physique fondamentale : la vitesse de la lumière.
◗ 2017
Fixation des valeurs exactes des constantes h, e, k et NA qui seront utilisées pour la future redéfinition du kilogramme,
de l’ampère, du kelvin et de la mole.
◗ 2018
Les 7 unités de base du SI sont désormais toutes fondées sur des constantes de la physique.
(Source : CNRS)
Science magazine n°61
La « fin » du kilogramme
dossier
55
Une question de confiance
séparés d’un mètre, dans lesquels circule
un courant ? Cela fait plusieurs décennies
que les professionnels de l’électricité l’ont
en pratique troquée contre une définition
impliquant des processus quantiques. »
L’objectif était donc d’établir une confiance
dans les mesures, afin d'élaborer sur une
base fiable savoirs scientifiques, décisions
politiques et échanges commerciaux. Par
exemple, d’assurer qu’un kilogramme de
sucre est bien le même à Paris, à New York
et à Londres !
Comme le souligne le CNRS*, les scientifiques attendaient cette mesure depuis
longtemps. En effet, « alors que science et
industrie sont entrées dans l’ère du nanomonde, la totalité des références de masse
sur la planète étaient étalonnées à partir
d’un artefact dont la masse a lentement varié
d’environ 50 microgrammes par rapport à
celle de ses copies ». Et que dire si le « grand
K » était tombé ou avait été dérobé ? C'était
la fin du kilogramme et, dans la foulée, des
unités qui en dépendent, tels le newton, le
joule ou le watt !
« Quant au kelvin, l’unité de température, il
était défini comme une fraction de la température thermodynamique du point triple de
l’eau - où l’eau coexiste à l’équilibre sous les
trois phases : solide, liquide et vapeur. Or,
cette définition dépend de la qualité de l’eau
(impuretés, composition isotopique...) utilisée
pour la mettre en œuvre. Du reste, liée à une
température particulière, elle est peu adaptée
à la mesure des températures inférieures à 20
kelvins (-253,15 °C) ou supérieures à 1 300
kelvins (1 026,85 °C).
Et que dire de l’ampère, l’unité de courant électrique, définie à partir de la force
mécanique entre deux fils infiniment longs,
* CNRS Le Journal n°293 – Dossier réalisé par Mathieu Grousson et Yaroslav Pigenet : « Mesures : le grand renversement ».
Science magazine n°61
56
dossier
La « fin » du kilogramme
La mécanique quantique va mesurer le monde
Il était temps de moderniser notre SI et de
le refonder sur ce que la physique nous
offre aujourd'hui de plus fiable et universel : les constantes fondamentales. Celles
de la mécanique quantique notamment, la
physique de l'infiniment petit, représentent
ce que nous connaissons de plus stable, tant
dans la régularité des phénomènes que dans
leur précision. « Le moteur du changement
en cours est assurément l’émergence de la
mécanique quantique dans l’univers de la
métrologie », confirme Christian Bordé,
président du Comité science et métrologie
de l’Académie des sciences.
Ainsi, le kilogramme est redéfini à partir de
la constante de Planck, h. « Celle-ci est en
effet le produit d’une énergie par un temps »,
ajoute le CNRS, « et l’énergie est reliée à la
masse via l’équation E = mc2. Pour sa part,
le kelvin est redéfini à partir de la constante
de Boltzmann (k), liée à la mesure de l’agitation thermique des constituants fondamentaux d’un corps. Quant à l’ampère, qui n’est
autre qu’une charge par unité de temps, il
est relié à la charge élémentaire (e). Enfin,
la mole, l’unité de quantité de matière, est
définie directement en fixant la constante - ou
nombre - d’Avogadro (NA). »
Le CNRS note cependant que le nouveau SI
reflète uniquement la connaissance que l'on
a de la physique à l'heure actuelle. Ce qui
suppose des évolutions possibles dans le futur
en fonction de l'avancée de la science.
Quels changements attendre ?
Rassurez-vous, ces nouvelles définitions ne
vont pas changer votre quotidien ! Le grand
public n'est pas vraiment concerné... Pour les
secteurs intéressés, la continuité est assurée
entre l’ancien et le nouveau système. Les
valeurs des constantes fondamentales ont pu
être fixées après avoir été mesurées très précisément - donc avec une très faible incertitude
- selon les anciennes définitions. L’incertitude
Science magazine n°61
de la mesure porte donc désormais sur les
anciens étalons de référence.
Alors pourquoi changer de références ? « Tout
simplement parce qu’une fois le kelvin fondé
sur une constante fondamentale, sa définition
n’impliquera plus aucune température particulière, évitant très concrètement la propagation d’erreurs dans l’étalonnage des
thermomètres au fur et à mesure que l’on
s’éloigne du point triple de l’eau. Idem avec
le kilogramme, qui désormais ne fera plus
aucune référence à un étalon matériel. Etc. »
Comme l'analyse Marc Himbert, du Conservatoire national des arts et métiers (Cnam),
« les premiers bénéficiaires du nouveau kelvin
devraient être les industries concernées par
les hautes températures. En effet, 60% des
La « fin » du kilogramme
dossier
dossier
57
57
capteurs présents dans l’industrie sont des
capteurs de température ». Les laboratoires
de recherche fondamentale sont également
concernés par les très basses températures, de
même que par les propriétés de la matière aux
échelles les plus fines. Par exemple, « le GPS
aurait été quasi impossible à développer sans
la redéfinition du mètre, en 1983 », souligne
le métrologue.
Le nouveau SI augmentera donc la confiance
dans les unités fondamentales, et ce au niveau
international. À condition qu'il soit adopté
rapidement par tous. On se souvient de l'échec
malheureux, le 23 septembre 1999, de la
sonde Mars Climat Orbiter qui s’est écrasée sur Mars. « En cause, un logiciel de vol
exprimant la poussée des micropropulseurs
en unités de mesure anglo-saxonnes, quand
celui de l’équipe de navigation qui recevait
ces données pour calculer les corrections de
trajectoire les exprimait dans les unités du
système métrique... » note Marc Himbert.
Dans le domaine des mesures tout particulièrement, l'internationalisation s'impose...
7 constantes pour tout mesurer
Le futur SI sera le système d’unités selon lequel les valeurs des 7 constantes physiques suivantes seront fixées exactement.
Les 4 dernières ayant été fixées en 2017.
◗ La vitesse de la lumière dans le vide (pour le mètre),
◗ La fréquence de la transition hyperfine de l’état fondamental de l’atome de césium 133 non perturbé (pour la seconde),
◗ L’efficacité lumineuse d’un rayonnement monochromatique (pour la candela),
◗ La constante de Planck (pour le kilogramme),
◗ La constante d’Avogadro (pour la mole),
◗ La constante de Boltzman (pour le kelvin),
◗ La charge élémentaire (pour l'ampère).
Les unités hertz (Hz), joule (J), coulomb (C), lumen (lm) et watt (W) sont reliées aux unités seconde (s), mètre (m), kilogramme (kg) ampère (A), kelvin (K), mole (mol) et candela (cd). Par exemple, la vitesse de la lumière dans le vide, fixée
et strictement égale à 299 792 458 m/s, fait la synthèse entre espace et temps. (Source : CNRS)
Science magazine n°60
58
Les 7 unités du monde
dossier
©LNE/Philippe Stroppa
Les 7 unités du monde
Lampe étalon d'intensité lumineuse (pour la candela)
(Polaron LIS200) 1976 - Prêt du Laboratoire national de métrologie et d’essais, Paris
Science magazine n°61
Les 7 unités du monde
dossier
59
De tout temps, l’homme a cherché à mesurer ou à se mesurer : horloge, balance, sablier, sextant, thermomètre… mais aussi détecteur
de mensonges ou encore des instruments plus étonnants comme le
dactymètre ou le pséphographe.
En écho à la révolution actuelle de la métrologie, ou science de la mesure, le musée des Arts et Métiers à Paris propose l'exposition « Sur
mesure, les 7 unités du monde ». Un retour sur de rares objets historiques et une explication du bouleversement actuel.
Sans la mesure, l’homme n’aurait pas de repère
Depuis toujours, le corps humain et la mesure
sont intimement liés. En effet, la maîtrise de
notre santé passe par la connaissance de notre
taille, de notre poids, de notre température ou
de notre tension artérielle. A partir de l’Antiquité, de nombreuses unités de longueur ont
été basées sur des mensurations humaines :
le pied et le pouce en sont les descendants.
Mesurer l’homme, c’est mettre en données
« Le Conservatoire des arts et métiers et le système métrique décimal
sont tous deux des créations de
l’époque révolutionnaire. L’esprit
des Lumières, qui soufflait alors,
a inspiré l’unification des mesures
comme ingrédient indispensable à la
diffusion des connaissances et aux
échanges, qu’ils soient scientifiques,
commerciaux ou techniques. »
Bruno Jacomy,
directeur adjoint du musée
des Arts et Métiers à Paris,
Commissaire de l'exposition.
chiffrées à la fois son corps et ses activités.
Dans les deux cas, des trésors d’ingéniosité
ont été imaginés pour mettre au point des instruments capables de mesurer les aptitudes
psychomotrices, voire les émotions.
L'exposition présente une série d'objets qui
permet d’appréhender l’homme mesuré dans
toutes ses dimensions : pendule de pointage,
ancêtre des pointeuses modernes ; dactymètre pour la mesure de frappe des dactylos
ou couturières ; dynamomètre pour mesurer
la force musculaire de la main ; psychogalvanomètre couramment appelé « détecteur de
mensonges » ; dextérimètre pour la mesure
de l’habileté manuelle.
Mesurer, c’est comparer une grandeur physique inconnue avec une grandeur de même
nature prise comme référence. Pour cela, il
faut utiliser des unités communes et partager
les mêmes méthodes. Il s’agit d’une opération simple quand on dispose d’un instrument
qui donne directement la valeur numérique.
Mais bien souvent, les grandeurs sont mesurées de manière indirecte. La température
sur un thermomètre à alcool mesure en fait
la longueur d’une colonne de liquide que la
dilatation fait varier.
Les capteurs actuels, insérés dans les appareils électroniques, sont les descendants d’une
grande lignée d’instruments de mesure qui
n’ont cessé de se perfectionner : sextants,
pieds à coulisse, thermomètres, altimètres
ou tensiomètres.
Lorsqu’il s’agit de quantifier le sensible, il est
souvent difficile de s’accorder sur les valeurs
des phénomènes dont la perception varie en
fonction des observateurs : c’est le cas des
couleurs. Une expérience visuelle propose
aux visiteurs d’apprécier la variation des
teintes, selon l’éclairage auquel elles sont
soumises.
Mais la mesure peut aussi faire appel à notre
imaginaire par la charge symbolique qu’elle
a pu revêtir dans l’histoire : la pesée des âmes
dans l’Égypte des pharaons, la balance de
la justice, la tempérance, vertu cardinale de
l’Antiquité, ou encore le nombre d’or à la
Renaissance.
Science magazine n°61
dossier
Les 7 unités du monde
©Musée des Arts et Métiers-Cnam/photo Pierre Ballif
60
Thermomètre de bras dit « de Galilée »
Musée des Arts et Métiers-Cnam, inv. 22000
©Musée des Arts et Métiers-Cnam/photo Michèle Favareille
Ce thermomètre médical, dont l’invention est attribuée au grand-duc Ferdinand II de Médicis au milieu du XVIIe siècle, est fondé sur le principe
des différences de densité des liquides. L’instrument est attaché au bras du patient, la tête de la tortue vers le haut. En fonction de la température, les petites boules de verre colorées se déplacent selon la densité du liquide qu’elles contiennent.
L'aventure du mètre
Nous mesurons, sommes mesurés quotidiennement, de notre
poids à la vitesse de notre véhicule, en passant par notre opinion. Pour que cela soit possible, il est nécessaire d’avoir les
mêmes mesures pour tous.
Jusqu’au XVIIIe siècle, les poids et les mesures en France ne
sont que désordre et incohérence. Le pied, la livre, la pinte
ou le boisseau n’ont pas les mêmes valeurs d’une région à
l’autre, voire d’un village à l’autre. Seule la détermination
de la Révolution réussira à imposer partout en France et
« à tous les temps, à tous les peuples » un système simple,
unifié et pratique de mesure : le système métrique décimal,
aujourd’hui Système international d’unité.
Depuis la Révolution française, un Système de mesure et
d’unités a été élaboré jusqu’à devenir aujourd’hui le Système international d’unités.
Graphomètre à pinnules pour la mesure des angles
Construit par Michael Butterfield, fin du XVIIe siècle Musée des Arts et Métiers-Cnam, inv. 20737
Le graphomètre sert à mesurer avec précision des angles. Utilisé
horizontalement, il permet aux géomètres de mesurer des distances
et des surfaces ; verticalement, il peut donner la hauteur des édifices
ou des reliefs. C’est en perfectionnant un appareil de ce type que les
astronomes Jean-Baptiste Delambre et Pierre Méchain ont mesuré
par triangulation, entre 1792 et 1798, la distance entre Dunkerque
et Barcelone, afin de déterminer la nouvelle définition du mètre,
comme la dix-millionième partie du quart du méridien terrestre.
Science magazine n°61
Les 7 unités du monde
dossier
61
La disparition du dernier étalon matériel :
le kilogramme
©Musée des Arts et Métiers-Cnam/photo Pascal Faligot
Le Système international d’unités (SI) repose
sur 7 unités de base et un grand nombre d’unités dérivées. L’année 2018 fut marquée par la
redéfinition de 4 d’entre elles et vit disparaître
le dernier étalon matériel : le kilogramme.
Un échantillon de 90 mesures en provenance
d’Europe, d’Asie, et d’Amérique, révèle l’incroyable diversité qui existait avant la ratification du traité de la Convention du mètre.
Tel le « la » qui permet à chaque musicien
de l’orchestre d’accorder son instrument, le
SI gère au niveau planétaire l’ensemble des
unités de mesure indispensables à tous les
échanges.
Au cœur de l’exposition, les visiteurs découvrent les 7 unités de base, symbolisées
chacune par un objet : le kilogramme, le kelvin, la mole, l’ampère, la seconde, le mètre
et la candela. Cet espace explique en détail
pourquoi et comment sont définies chacune
de ces unités fondamentales qui permettent
de quantifier le monde.
Un cabinet de curiosités métrologiques réunit
une série d’objets étonnants, d’instruments
de mesure non conformes au SI, d’unités
disparues... Certaines subsistent au temps
comme les « chevaux » pour la puissance
des automobiles ou encore les « pieds » pour
l’altitude des avions.
Mais si les unités permettent des mesures
exactes et reproductibles, elles ne sont pas forcément utilisables directement dans les usages
courants. Entre la définition du kilogramme et
la balance de cuisine ou du marché, il existe
toute une chaîne de contrôle, dite chaîne de
traçabilité des mesures. Pour que les échanges
soient justes et les fraudes limitées, il faut en
effet garantir la validité des mesures et des
instruments utilisés. Les visiteurs découvrent
les notions de base de la métrologie, la science
de la mesure. Entourés d’un ensemble d’instruments historiques conçus pour approcher
la plus grande justesse (nécessaire de vérificateur, comparateur, balance monétaire…),
Kilogramme en platine iridié, avec socle et cloches.
Musée des Arts et Métiers-Cnam, inv. 06617
ils sont invités à appréhender les concepts
de sensibilité, de fidélité, de reproductibilité,
d’exactitude et d’incertitude.
Au-delà des mesures physiques, la plupart des
civilisations ont mis au point des systèmes
d’appréciation de la valeur des choses en
créant la monnaie. Les échanges commerciaux nécessitent tout autant des unités communes de dimensions et de masses que des
valeurs monétaires partagées.
Science magazine n°61
dossier
Les 7 unités du monde
©Musée des Arts et Métiers-Cnam/photo Pierre Ballif
62
Machine à prédire la marée dite «
Tide Predictor no.3 »
Conçue par William Thomson, lord
Kelvin (1824-1907), 1872
Musée des Arts et Métiers-Cnam,
inv. 21936
La mesure du temps
Pour mesurer le temps, les hommes ont d’abord
choisi d’observer les astres ou l’écoulement d’un
corps (sable, eau) permettant d’évaluer une
durée. Ainsi, cadrans solaires, clepsydres ou
sabliers sont utilisés. Au XIIIe siècle, les horloges
mécaniques apparaissent. Puis au XVIIe siècle,
d’importantes innovations mécaniques (régulateur, ressort spiral, échappement…) entraînent
la création et la miniaturisation des horloges. Les
montres et les chronomètres de marine fabriqués
au XVIIIe siècle atteignent une grande précision
qui sera décuplée au XXe siècle avec les horloges
à quartz et atomique.
Pendule de pointage enregistreuse à cadran
Inventée par Alexander Dey, 1888
Musée des Arts et Métiers-Cnam,inv. 21677
La mesure du temps de travail fait partie, depuis le
XIXe siècle, des éléments indispensables à la gestion
des entreprises. Sur cet ancêtre des pointeuses modernes, installée au début du XXe siècle dans une imprimerie parisienne, les employés, au nombre maximal
de 150, enregistrent leurs heures d’entrée et de sortie
en « pointant » l’index sur le numéro qui leur est attribué. Une bande de papier permet, chaque semaine, de
connaître les horaires de travail des employés. Chaque
retard y est inscrit en rouge.
Science magazine n°61
©Musée des Arts et Métiers-Cnam/photo Pierre Ballif
C’est en 1872 que le physicien britannique
William Thomson s’attelle au problème de
l’établissement des annuaires des marées et
conçoit le premier calculateur analogique capable de résoudre des équations complexes
par un procédé mécanique. Grâce à un jeu de
câbles et de poulies, le Tide Predictor assure
la somme des huit premières composantes
de la courbe d’évolution des marées.
Les 7 unités du monde
dossier
63
La dernière partie de l'exposition montre
l’importance et les enjeux de la mesure dans
les différents secteurs d’activité (industrie,
recherche...). À partir d’un phénomène,
d’une réalité, d’un objet, la mesure produit
des valeurs numériques. Celles-ci sont traduites en graphes, courbes, images numériques, ce qui suppose une interprétation qui
doit être la plus juste possible. Construire des
avions en assemblant des pièces fabriquées
aux quatre coins de l’Europe est aujourd’hui
chose courante. Seule la métrologie permet de
faire en sorte que toutes les pièces s’ajustent
et fonctionnent.
Dans les sciences de la nature, en astronomie
ou en physique des particules, la mesure se
heurte à la difficulté d’isoler les objets, et pose
de multiples questions relatives à l’espacetemps, c’est le cas pour la datation d’objets ou
d’êtres vivants, disparus ou non. Des appareils
relatifs à la santé donnent quelques clés pour
comprendre comment les valeurs sont mesurées et les informations traitées. Enfin, les
visiteurs sont invités à découvrir les usages,
plus subjectifs, de la mesure, dans la vie en
société : mesure d’opinion, de comportement,
statistiques…
Parallèlement à la présentation dans la salle
d’exposition temporaire (où une mise en
scène d’un intérieur d’habitation présente
une profusion d’objets actuels), l’exposition
Machine à voter, pséphographe
Inventée par Eugenio Boggiano,
1906 - Musée des Arts et MétiersCnam, inv. 14352
D’abord employé comme instrument d’aide
à la démocratie dans le cadre de votes politiques, le « pséphographe » a été encensé
par la presse française comme la « machine
à explorer l’opinion », voire à « explorer
l’âme des foules ».
Par un procédé uniquement mécanique, les
votes effectués par des jetons sont comptabilisés au dos de la machine. Utilisée à la
sortie de salles de théâtre, par exemple, elle
permettait de connaître l’opinion des spectateurs, en somme de mesurer leur satisfaction d’une façon un peu sommaire, à l’image
de nos « J’aime » actuels.
: ©Musée des Arts et Métiers-Cnam/photo Pierre Ballif
De la mesure astronomique à la mesure d'opinion
dossier
Les 7 unités du monde
©Musée des Arts et Métiers-Cnam/photo Pierre Ballif
64
est aussi l’occasion de mettre en valeur des
objets exceptionnels de la collection permanente parfois peu connus et dont le rôle dans
notre vie quotidienne a souvent été décisif.
Une sélection de 22 objets constitue le parcours de visite à travers les 7 collections du
musée parmi lesquels le sextant de Ramsden,
la balance de Fortin utilisée par Lavoisier,
le mètre et le kilogramme du « Conservatoire », l’horloge marine de Berthoud, le
tableau d’échantillons de 36 couleurs pour
la porcelaine de Colville, l’aiguille de Vicat, le
fusil chronophotographique de Etienne-Jules
Marey, le posographe du Pathé Baby, la lampe
étalon Carcel à mécanisme visible, la machine
à diviser la droite par Gambey, des roulements
à billes instrumentés, un pont à bascule pour
le pesage des wagons, une horloge d’espacement des trains, le pyrhéliomètre, l’appareil chronométrique pour la démonstration
expérimentale des lois de la chute des corps.
Balance monétaire pour trier
les pièces d’après leur poids
Conçue par le baron Armand-Pierre
Séguier - Musée des Arts et
Métiers-Cnam, inv. 07437
Système cohérent et ensemble fondamental
et universel, le Système International d’unités
repose sur sept unités de base : le kilogramme,
le kelvin, la mole, l’ampère, la seconde, le
mètre et la candela. À celles-ci s’ajoutent
une grande quantité d’unités dérivées, de
multiples et de sous-multiples, adaptés aux
sciences, aux industries et à tous les domaines
des activités humaines.
Le Système international d’unités (SI) est
ainsi dénommé en 1960 lors de la XIe Conférence générale des poids et mesures (CGPM),
en même temps qu’une nouvelle définition du
mètre. Il constitue une étape clé d’une aventure de près de deux siècles dont l’origine
remonte aux années qui précèdent la Révolution française.
2018 a marqué un tournant historique. A
l'automne, la 26e Conférence générale des
poids et des mesures (13-16 novembre 2018,
à Versailles) a voté les nouvelles définitions
de 4 de nos 7 unités de mesure du Système
International d’unités (SI). Elles sont établies
sur la base de constantes fondamentales de la
physique. Le kilogramme, unité de masse,
auparavant défini comme égal à la masse du
prototype international du kilogramme, voit
à présent sa définition fondée sur la constante
de Planck h. Le kelvin, unité de température, fraction 1/273,16 de la température
Science magazine n°61
© Musée des Arts et Métiers-Cnam/photo Sylvain Pelly
La révision de 4 des 7 unités de mesure
Machine à diviser la ligne droite
Henry Prudence Gambey (1787-1847) - Musée des Arts et Métiers- Cnam,
inv. 08322
Les machines à diviser sont indispensables en métrologie pour réaliser des règles ou tracer
des cercles aux graduations exactes. À l’aide d’un ensemble de mécanismes de précision, la
machine à diviser la ligne droite permet, soit de diviser une longueur donnée en un nombre
défini de parties égales, soit de tracer autant d’unités élémentaires de longueur déterminée.
Une loupe et un vernier permettent de contrôler la position exacte de l’index.
thermodynamique du point triple de l’eau,
est basé sur la constante de Boltzmann k.
L’ampère, unité de courant électrique, était
jusqu'alors défini comme l’intensité d’un
courant constant qui, maintenu dans deux
conducteurs parallèles, rectilignes, de longueur infinie, de section circulaire négligeable
et placés à une distance de 1 mètre l’un de
l’autre dans le vide, produirait entre ces
conducteurs une force égale à 2 x 10–7 newton
LeS 7 unitéS du monde
dossier
© Musée des Arts et Métiers-Cnam/photo Sylvain Pelly
par mètre de longueur. Sa définition est désormais fondée sur la charge élémentaire e.
Enfin la mole, unité de quantité de matière,
qui correspond à la quantité de matière d’un
système contenant autant d’entités élémentaires qu’il y a d’atomes dans 12 grammes de
carbone 12, voit sa définition fondée sur le
nombre d’Avogadro NA.
65
L'exposition revient sur ces 7 unités de base
sur lesquelles reposent toutes les mesures de
notre univers et en explique les nouvelles
définitions. Les unités du SI sont désormais
toutes dématérialisées, correspondant à la
volonté d'universalisation à l'origine de la
création d’un système d’unités de mesure
partagé par tous.
Sextant de Ramsden et son coffret
Jesse Ramsden (1730-1800)
Musée des Arts et Métiers-Cnam,
inv. 01841
Grâce au sextant, les marins du XVIIIe siècle
ont la possibilité de mesurer la hauteur du
soleil sur l’horizon avec une précision de 30
secondes d’angle, ce qui correspond à une
distance de moins d’un kilomètre. C’est un
progrès notable dans la mesure de la latitude. Aujourd’hui encore, cet instrument, qui
permet aussi de mesurer la longitude, est
toujours utilisé pour la navigation. Le GPS l’a
remplacé pour l’usage courant, mais en cas
de panne, le sextant fonctionnera toujours.
Sur mesure, les 7 unités du monde
Présentée au musée des Arts et Métiers et s’appuyant sur des collections historiques
et contemporaines, cette exposition explore le thème de la mesure sous toutes ses coutures, de l’individu à la société. Construite en partenariat avec le Laboratoire national
de métrologie et d’essais (LNE), elle fait écho à la redéfinition de quatre des sept unités
de base du Système international d’unités (SI) : le kilogramme, l’ampère, le kelvin et la
mole. Ces nouvelles définitions poursuivent l’ambition d’universalité et de dématérialisation au coeur de la création du Système international d’unités, mais aussi de dissémination à l’international.
Sur
mesure
16 octobre
5 mai
2018
Graphisme : JustinDelort.com
2019
i 7unités
les
exposition
du monde
Musée des Arts et Métiers
60 rue Réaumur, Paris 3e
www.arts-et-metiers.net
musee.des.arts.et.metiers
martsetmetiers
artsetmetiers
#ExpoSurMesure
Destinée à un large public, l’exposition révèle aux visiteurs l’omniprésence de la mesure dans notre quotidien et son rôle d’aide à la décision : le temps qui passe, la vitesse
de notre voiture, notre poids, le « la » en musique, les gigaoctets de nos ordinateurs…
Sans la mesure, l’humain n’aurait pas de repère. Elle fait partie intégrante de notre
société, tellement évidente et inévitable qu’elle se fait oublier. La mesure est néanmoins
essentielle et indispensable à l’humanité pour échanger et innover en toute confiance.
Jusqu'au 5 mai 2019 - Musée des Arts et Métiers
60, rue Réaumur - Paris 3e - Tél : 01 53 01 82 63 - www.arts-et-metiers.net
Science magazine n°61
66
dossier
Ils inventent la médecine de demain
Ils inventent la méd
Science magazine n°61
Ils inventent la médecine de demain
dossier
67
© A.Aubert/CEA
ecine de demain
Maladies neurodégénératives, handicaps... beaucoup de patients sont
aujourd’hui dans ce que les médecins appellent des « impasses thérapeutiques ».
Dans un environnement unique au monde, le Centre de recherche biomédicale Clinatec a l’ambition de démontrer comment les micro-nanotechnologies et l’électronique, qui ont intégralement transformés les
flux d’information, amorcent aujourd’hui une révolution dans le domaine
médical, et apportent des solutions pour ces patients.
L’ensemble de ces avancées préfigurent une révolution médicale plus
vaste qui pourra bénéficier à des millions de patients.
Science magazine n°61
68
dossier
Ils inventent la médecine de demain
Réunir plateforme technologique et hôpital
Ses équipes de cliniciens et chercheurs d'horizons
variés (médecins, mathématiciens, roboticiens...),
issus notamment du CEA et du CHU Grenoble
Alpes, y défendent une nouvelle médecine moins
lésionnelle, plus ciblée, et destinée au plus grand
nombre. Par exemple, dans cet environnement
unique, les essais cliniques bénéficient d’un système d’imagerie condensé et totalement adapté
(IRM 1,5 Tesla, MEG, SPECT-CT…) afin de
permettre un suivi plus performant des patients.
C’est l’assurance de diminuer considérablement
le risque d’effets secondaires indésirables et
d’accélérer la validation précoce des nouvelles
stratégies thérapeutiques.
Afin d’accélérer les recherches et le transfert des
innovations au bénéfice des patients, Clinatec a
choisi d’innover également dans son mode de
financement. En 2014, le CEA a ainsi initié la
création du Fonds de Dotation Clinatec, organe
© P. Avavian/CEA
C'est au Centre CEA de Grenoble qu'est
situé Clinatec, Centre de recherche biomédicale Edmond J. Safra, fondé par un
neurochirurgien, le Professeur Alim-Louis
Benabid. Clinatec place le malade au coeur
d’un projet innovant en regroupant, en un
même lieu, des laboratoires et un modèle
réduit d’hôpital.
Intervention sur un cerveau...
indépendant, chargé de lever des fonds privés
pour les affecter à ses programmes de recherche.
L'objectif est de créer les innovations de rupture
au service de la médecine de demain et transférer
plus rapidement les technologies vers les patients
parce que, comme le souligne le slogan de son
Fonds de Dotation : « Les malades n’ont pas le
temps d’être patients ».
Chercheurs et entreprises collaborent
Historiquement mobilisé sur la recherche pour l’exploitation de l’énergie nucléaire, puis plus généralement les énergies bas
carbone, le CEA (Commissariat à l'Energie Atomique) possède également des compétences de pointe dans l’électronique
et le numérique. Ainsi, dans le domaine de la santé, les scientifiques du CEA préparent la convergence numérique depuis
de nombreuses années : imagerie médicale, recherche de nouvelles molécules médicamenteuses, suppléance fonctionnelle des déficiences (dispositifs portés ou implantables et robotique par exemple), biocapteurs et télémédecine, etc. Le
centre CEA de Grenoble, où est installé Clinatec, consacre l'essentiel de ses recherches au développement des nouvelles
technologies, dans les domaines de l'énergie, de la santé, de l'information et de la communication.
Performant dans toutes les spécialités médicales et disposant d’équipements à la pointe de la technologie, le CHU Grenoble
Alpes possède également de nombreux domaines d’excellence, tant dans la prise en charge médicale que dans la recherche.
Des partenaires académiques et privés fournissent également des équipes à Clinatec. Les entreprises françaises de la
santé, et particulièrement Klésia, contribuent à son Fonds de Dotation.
Science magazine n°61
Ils inventent la médecine de demain
dossier
69
Implanter des dispositifs médicaux dans le corps
© P. Avavian/CEA
Parce les possibilités offertes par les micronanotechnologies et l’électronique sont encore insuffisamment utilisées en médecine,
Clinatec a pour ambition de les mettre enfin au service de la santé. Ces technologies
nouvelles ont de fait un potentiel prometteur en particulier dans les domaines suivants : les pathologies neurodégénératives
et le handicap moteur d’origine lésionnelle
(tétra ou paraplégie).
© P. Jayet/CEA
Par exemple, des innovations technologiques
permettraient de soigner grâce à des dispositifs
médicaux implantables. Aujourd’hui, le pilotage
d’une souris d’ordinateur ou d’un fauteuil roulant est possible par l’activité cérébrale volontaire,
après apprentissage. Mais il est limité par l’usage
de dispositifs électroniques externes ayant une
précision de mesure limité et ne permettant pas
une utilisation chronique dans le cadre de la vie
quotidienne. Les systèmes implantés permettraient un usage chronique tout en améliorant la
précision de mesure et de contrôle. Ces dispositifs
implantés, minimalement invasifs, pourraient à
terme révolutionner le diagnostic et le soin de
certaines maladies neurodégénératives.
On pourrait également disposer de biomarqueurs
de pathologies. En effet, certains fluides biologiques sont capables de nous révéler la présence
de pathologies avant que les symptômes apparaissent, ce qui ouvre la voie à une prévention
L'imagerie cérébrale MEG (magnétoencéphalographie).
précoce. Pouvoir détecter la présence d’une
maladie, son évolution et sa réponse au traitement
par une simple prise de sang ouvre des perspectives très importantes pour la prise en charge des
patients atteints de maladie neurodégénérative.
Les micronanotechnologies apportent des solutions inégalées pour capter et analyser les traces,
auparavant indétectables, de la maladie.
Pour piloter un fauteuil roulant par exemple, des implants cérébraux permettent un usage courant et amélioré par rapport à des dispositifs électroniques externes.
Science magazine n°61
70
dossier
Ils inventent la médecine de demain
« Illuminer » le cerveau pour stopper
la maladie de Parkinson
Grâce à la neurostimulation cérébrale profonde,
opération co-conçue et éprouvée à Grenoble par
les professeurs Benabid et Pollack, le quotidien
de 200 000 personnes dans le monde atteintes de
la maladie de Parkinson a radicalement changé.
L’intervention réduit de façon spectaculaire les
symptômes moteurs de la maladie. Pratiquée
depuis 25 ans, cette opération peut être encore
© P. Avavian/CEA
6,5 millions de personnes dans le monde
sont touchées par la maladie de Parkinson,
dont 150 000 personnes en France*.Bien
que les traitements déjà existants réduisent
considérablement les symptômes, la maladie ne cesse d’évoluer et la perte neuronale
s’accentue.
La salle de contrôle du bloc opératoire.
améliorée : diffusée à l’endroit précis du cerveau
où la maladie cause des dommages irréversibles,
une irradiation lumineuse serait capable de
Et si la stimulation cérébrale profonde guérissait d'autres maladies ?
Si la stimulation cérébrale profonde a été pensée pour la maladie de Parkinson, Clinatec mène avec d’autres centres des protocoles de recherche pour la
développer pour d’autres pathologies sans solution thérapeutique, avec des
enjeux sociétaux importants :
◗ les troubles obsessionnels compulsifs ou tocs (1,6 million de Français
concernés),
◗ l’obésité morbide (150 000 personnes en France),
◗ la dépression mélancolique profonde (la forme la plus grave de la dépression),
◗ les acouphènes (16 millions de Français),
◗ l’algie vasculaire de la face (120 000 cas en France).
préserver cet organe si sensible. En protégeant les
neurones, ce procédé éviterait ainsi aux malades
de perdre un peu plus chaque jour de leurs facultés
et de devenir à terme lourdement handicapés.
L'objectif final du projet NIR (Near Infra Red)
est de stopper pour la première fois l’évolution
de la maladie en illuminant, avec une lumière
proche infra-rouge, la région cérébrale qui dégénère dans la maladie de Parkinson. L'illumination
est réalisée à partir d'un dispositif intracérébral
implantable et empêchera la dégénérescence
des neurones dopaminergiques impliqués dans
la maladie.
Le potentiel de cette approche est scientifiquement démontré et le dispositif d’illumination
intracrânienne est en développement à Clinatec.
*Chiffres : France Parkinson.
Un implant pour refroidir le cerveau des épileptiques
L’OMS estime que 50 à 60 millions de
personnes souffrent d’épilepsie dans le
monde. En France, il s’agit de la deuxième
pathologie neurologique**. S’il existe des
traitements médicamenteux, 30 à 40%
des patients continuent de subir des crises
invalidantes.
Pour ces patients dits « pharmaco-résistants »,
il n’existe actuellement aucune solution thérapeutique mise à part l’ablation chirurgicale du
(ou des) foyer(s) épileptogène(s) - intervention
pas toujours réalisable selon la zone du cerveau
touchée.
Avec le projet Epicool, les équipes de Clinatec
travaillent à la mise au point d’un nouveau traitement contre l’épilepsie pharmaco-résistante :
si les effets bénéfiques du refroidissement (hypothermie) sur l’arrêt des crises épileptiques ont fait
l’objet de nombreuses études, aucune solution
technique implantable n’existe actuellement pour
refroidir en profondeur de manière régulière et
efficace les foyers épileptogènes.
** Source : Fondation française pour la recherche sur l’épilepsie.
Science magazine n°61
Fortes d’une expérience chirurgicale de plus de
20 ans en épilepsie, les équipes du Centre de
recherche se sont lancées sur le développement
d’un implant médical permanent pour : « enregistrer » le signal lié à l’activité cérébrale ; « détecter » des crises grâce à la mise en œuvre d’un
algorithme traitant en direct le signal et pouvant
commander le refroidissement ; « refroidir » de
manière localisée et contrôlée la zone épileptogène. Cette fonctionnalité est encore au stade de
la recherche au CEA.
Ils inventent la médecine de demain
dossier
71
© DR
Refaire marcher des tétraplégiques
1200 nouvelles personnes sont touchées
chaque année en France par la tétraplégie, qui rend impossible la commande nerveuse vers les muscles. Avec le projet BCI
(Brain Computer Interface), les médecins
et chercheurs de Clinatec développent un
dispositif permettant de contrôler par le
cerveau un exosquelette 4-membres afin
de redonner de la mobilité aux personnes
en situation de handicap moteur sévère.
Imaginer un mouvement ou l’exécuter provoque
en effet la même activité électrique cérébrale au
niveau du cortex moteur. Le système capte donc
ces signaux électriques appelés électro-corticogrammes, et les décode afin de piloter des effecteurs complexes, comme par exemple bouger les
membres d’un exosquelette.
Capter l’activité électrique au niveau du cortex
moteur a nécessité de développer un dispositif
médical implantable unique au monde : WIMAGINE®. Cette implantation s'effectue de manière
minimalement invasive dans la boîte crânienne.
Le but : mesurer les électro-cortico-grammes
grâce à une matrice de 64 électrodes en contact
avec la dure-mère (membrane fibreuse, dure et
rigide, qui entoure le cerveau et la mœlle épinière). Des cartes électroniques regroupent les
briques d’acquisition et de numérisation des
électro-cortico-grammes conçues grâce aux
experts en microélectronique du CEA Leti***.
Et également des briques de téléalimentation et de
transmission des données sans fil par liaison radio
sécurisée vers un terminal externe. L’implant est
évidemment biocompatible et sa sécurité assurée
sur le long terme.
Les électro-cortico-grammes ainsi captés sont
ensuite décodés en temps réel afin de prédire
le mouvement volontaire imaginé par le sujet.
Ce dernier peut ensuite piloter par exemple le
membre de l’exosquelette correspondant. Le
sujet placé dans l’exosquelette pourra donc piloter l’exosquelette en imaginant les mouvements
comme s’il allait les effectuer lui-même.
Le décodage des électro-corticogrammes a
nécessité de développer des algorithmes très
Principe de l’approche thérapeutique du projet BCI mené à Clinatec.
Les jeunes majoritairement touchés
Les complications de la tétraplégie sont lourdes pour le patient et son entourage, avec un très fort niveau de dépendance et une espérance de vie raccourcie de plus de 15 ans. La tétraplégie est à la fois un marqueur et un vecteur
d’inégalités sociales. Elle affecte essentiellement des personnes très jeunes, et
impose une lourde charge d’accompagnement. Sur 50 000 personnes para et
tétraplégiques en France, 70% ont moins de 35 ans.
En novembre 2016, le lauréat de la catégorie santé et recherche des ABNL (A
But Non Lucratif) Non Profit Awards 2016 a été remis au projet Brain Computer Interface porté par Clinatec.
Science magazine n°61
72
dossier
Ils inventent la médecine de demain
© P. Avavian/CEA
sophistiqués pour traiter des volumes de données gigantesques, en temps réel, et garantir une
bonne réactivité du pilotage de l’exosquelette.
Ce dispositif a également mobilisé les ingénieurs
chercheurs du CEA List****, qui continuent à
travailler sur un exosquelette auto-équilibré.
Clinatec a reçu l’autorisation de démarrer l’essai
clinique. Il s'effectuera sur 5 sujets tétraplégiques
sur une période de 5 ans. L’ambition, à terme, est
de pouvoir utiliser l’interface cerveau-machine
pour compenser différents types de handicap, et
redonner ainsi un maximum d’autonomie aux
patients dans leur vie quotidienne.
Assemblage de l'implant WIMAGINE ®.
© A.Aubert/CEA
Si les exosquelettes existent déjà, la grande
innovation est de pouvoir enregistrer et décoder
l’activité électrique dans le cerveau, et transmettre
ainsi en temps réel une intention de mouvement
à une machine.
Tests sur l'exosquelette EMY.
*** Leti : Laboratoire d'électronique et de technologie de l'information du CEA, principalement basé à Grenoble, pionnier dans les domaines des
micro et nano-technologies.
**** List : Laboratoire d'intégration de systèmes et des technologies du CEA, principalement basé à Saclay (Île-de-France), dédié aux systèmes
numériques intelligents.
Science magazine n°61
Ils inventent la médecine de demain
dossier
73
EMY : un exosquelette pour les personnes handicapées
Depuis les années 1960, et pour les besoins de la télé opération nucléaire, le CEA développe des interfaces homme-machine. Son dernier exosquelette est un concentré d'innovations...
S’appuyant sur plusieurs brevets, notamment sur son actionneur à vérin à câbles, le CEA s’intéresse concrètement aux exosquelettes dès le début des années 2000. La série d’exosquelettes Emy (Enhanced Mobility), développée au CEA List pour le projet
BCI, est tirée de l’expérience accumulée des projets Able (exosquelette pour la rééducation des membres supérieurs développé
entre 2004 et 2011) et Hercule (exosquelette d’aide à l’effort développé dès 2009 avec la société RB3D pour le compte de la
Direction Générale des Armées).
L'exosquelette Emy est protégé par 14 brevets : fabriqué en impression 3D avec des matériaux à base de titane, il est composé de
14 moteurs permettant de contrôler les 4 membres de l’appareil (2 bras avec 4 degrés de liberté chacun et 2 jambes avec 3 degrés
de liberté), et d’ordinateurs embarqués dédiés au traitement du signal et à son contrôle. De plus, il est autonome en énergie (en
fonctionnant sur batterie). Ce modèle a été choisi car il garantit une totale sécurité du patient l’utilisant. Ceci grâce à la notion de
« limitation de l’effort » de la génération d’un mouvement par la machine, lequel ne peut dépasser un certain seuil pour ne pas
soumettre le corps du patient à des chocs.
© DR
L’environnement numérique de l’appareil a également été développé par le CEA List. Les différents modèles d’exosquelettes
développés au CEA ont été déclinés en plusieurs versions, souvent conçues et développées avec des partenaires industriels pour
leurs besoins spécifiques. Actuellement, le projet d’exosquelette Emy Balance, porté par le projet européen Balance, vise le
développement d’un exosquelette destiné à la rééducation et à l’assistance aux personnes à mobilité réduite.
Science magazine n°61
74
dossier
RedonneR vie à PalmyRe...
Redonner vie
à Palmyre...
« Palmyre, Mossoul, Alep, Leptis Magna : combien d’empires ont été bâtis
sur ces sites ? Quelles merveilles évoquaient-ils hier encore aux voyageurs
du monde entier ! » interroge Jack Lang, Président de l'IMA (Institut du
monde arabe). Après les destructions récentes qu'ils ont connu, comment
communiquer aujourd’hui la majesté des sites antiques du monde arabe ?
Avec l'exposition « Cités millénaires, voyage virtuel de Palmyre à Mossoul », quatre lieux emblématiques, dont certains classés au patrimoine mondial de l’UNESCO, se dévoilent et renaissent dans une mise
en scène immersive spectaculaire.
L’IMA a fait le choix d’offrir à ses visiteurs une expérience singulière, intégralement virtuelle. L’ambition est de donner
un accès direct aux monuments, restitués
en 3D, afin de montrer au plus près ces
vestiges tels qu’ils ont été et tels qu’ils
sont aujourd’hui. Ressusciter le temple
de Baalshamin à Palmyre ou encore la
mosquée des Omeyyades à Alep...
Grâce aux technologies de numérisation
les plus en pointe, l’exposition offre aux
visiteurs un voyage au cœur des richesses
architecturales de ces villes et de ces prestigieux sites archéologiques, symboles du
patrimoine mondial de l’humanité et de
l’histoire multiculturelle des civilisations
du Proche-Orient. Une façon de redonner
vie à des monuments inaccessibles, de
plonger au cœur de civilisations brillantes
(Perses, Grecs, Romains, Arabes...).
Science magazine n°61
Conçue en collaboration avec la start-up
Iconem et Ubisoft, l’un des leaders mondiaux de la création de jeux vidéo, et en
partenariat avec l’UNESCO, l’exposition
allie projections géantes (dont certaines
à 360°), expériences de réalité virtuelle,
documents et images d’archives, mais aussi
vidéos et témoignages des populations sur
place pour en découvrir plus sur les bâtiments et le contexte historique.
« Ma mission pour le patrimoine menacé
est née de mes années en Syrie, Iran, Afghanistan et au Pakistan où j’ai travaillé
comme architecte indépendant de 2006 à
2010 », explique Yves Ubelmann, Président et co-fondateur d'Iconem. « Je me
suis rendu compte que personne ne pensait
à documenter ces endroits, leur dégradation ou leur destruction. »
dossier
75
© Ubisoft VR Experience - created with Iconem and UNESCO data
Redonner vie à Palmyre...
L'Eglise Notre-Dame de l'Heure, à Mossoul (Irak).
Iconem a développé une méthode innovante
de traitement adaptée aux sites patrimoniaux
en péril. « Notre équipe d’experts travaille sur
le terrain où nous nous associons aux experts
locaux » poursuit Yves Ubelmann. « L’équipe
sur place prend des milliers de photographies
des sites par drone et au niveau du sol avec
une perche afin de capter les données nécessaires pour réaliser des images et modèles
3D de la plus haute qualité. Ensuite, nos
ingénieurs allient nos algorithmes, l’intelligence artificielle et la puissance de superordinateurs pour reconstituer en 3D des sites
endommagés ou disparus. Développée grâce
à notre partenariat avec l’INRIA et Microsoft Research, notre technologie assure une
intégration fluide de plusieurs couches de
données pour construire les modèles 3D les
plus détaillés possible. »
Un voyage dans le temps et l'espace
Le visiteur va donc s'immerger à Palmyre
et Alep (Syrie), à Mossoul (Irak) et à Leptis
Magna (Libye). Par exemple, il découvre
sur les projections géantes la ville de Mossoul aujourd’hui : nouvellement reprise à
l’Etat Islamique, les stigmates de la guerre
y sont partout visibles. Vue du ciel, on distingue toutefois son tissu urbain traditionnel
encore bien marqué. En s’approchant des
monuments, dont le plus emblématique est
la grande mosquée al-Nouri au minaret penché, on voit leur état de destruction actuel
et progressivement la reconstitution de leur
architecture. Une nouvelle image virtuelle,
en trois dimensions, se superpose aux ruines,
et on découvre alors l’édifice tel qu’il fut, et
tel qu’il pourrait désormais être reconstruit.
images actuelles de la ville endommagée et
les photographies de rue plonge les visiteurs
dans l’histoire et suscite l’émotion.
Face à cette projection géante, une seconde
projection remonte le temps : ces mêmes
architectures, ces mêmes rues sont montrées à différents moments du XXe siecle.
La ville reprend vie à l’aide de photographies
d’archives animées. Le contraste entre les
Le minaret de la mosquée al-Nouri
était le plus haut d’Irak. Il surplombait Mossoul à une hauteur
de 60 mètres !
Saviez-vous que...
Science magazine n°61
Dossier
dossier
Redonner vie à Palmyre...
© APDF - Fonds Mossoul
76
© ICONEM / DGAM
La mosquée al-Nouri et son minaret penché était l’édifice symbole de la ville de Mossoul. Édifiée par le souverain
Nûr al-Dîn en 1170-1172, elle fut détruite le 21 juin 2017 par l’État islamique.
Vue de la mosquée des Omeyyades d'Alep et le minaret écroulé (Syrie).
Science magazine n°61
dossier
Dossier
77
© AKTC/Michel Ecochard
Redonner vie à Palmyre...
Alep en 1937.
Même scénographie à Alep, autrefois la troisième agglomération de l’Empire ottoman
après Constantinople et Le Caire. Le visiteur découvre depuis les toits de la citadelle
d’Alep, peu endommagée, les reliefs de la
ville. Il arpente les rues de la vieille ville et
s’approche ensuite de l’édifice religieux le
plus célèbre de la cité : la grande mosquée
des Omeyyades. Son minaret entièrement
détruit renaît sous ses yeux, grâce aux procédés technologiques de numérisation en trois
dimensions.
Quant à la Libye, elle présente cette particularité d’être un pays célèbre mais dont le
patrimoine est finalement assez méconnu,
alors qu’il regorge d’une multitude de trésors
Saviez-vous que...
Leptis Magna, construite à l’égal
de Rome, était qualifiée de « Rome
de l’Afrique » par les Romains
eux-mêmes.
archéologiques insoupçonnés. Leptis Magna est le seul des quatre sites du parcours
n’ayant pas subi de destructions malgré le
conflit libyen. Menacé par les pillages, l’abandon et l’avancée de la mer, c’est à un autre
type de danger que le public est sensibilisé.
Pour autant, l’immense site a gardé toute sa
superbe. Les images prises par Iconem en
avril 2018 permettent une véritable déambulation au milieu de cette cité millénaire. Peu
connue du grand public, cette ville romaine
est parmi les mieux conservées au monde,
et concentre toutes les architectures typiques
de cet empire : temples, basiliques, forum,
théâtre, amphithéâtre, thermes...
Enfin l'exposition nous emmène à Palmyre,
en Syrie. Prise de guerre de l’Etat Islamique,
les pertes qu’on y dénombre sont un désastre
pour le patrimoine mondial de l’humanité. Ses
édifices les plus connus, comme le temple
de Bel et le temple de Baalshamin, ont été
détruits avec fracas.
La vision du site aujourd’hui en ruines est
complétée par la reconstitution de ses monuments phares, avec une attention toute
particulière accordée à la restitution inédite
du temple de Baalshamin.
A noter, parmi les partenaires de l'exposition,
l’Alliance internationale pour la protection
du patrimoine dans les zones en conflit, ou
ALIPH. Il s'agit d'une toute jeune fondation,
créée l’année dernière à l’initiative de la
France et des Emirats arabes unis, afin de
répondre à un enjeu désormais majeur : la
destruction du patrimoine culturel dans les
zones en conflit.
Basée à Genève, l'ALIPH est un modèle de
cooperation unique entre Etats et donateurs
privés. Son rôle a été pleinement reconnu
par le Conseil de sécurité des Nations Unies.
Parmi les projets qu'elle soutient au MoyenOrient, on notera l’évaluation de la situation
et des besoins en vue de réhabiliter le musée
de Mossoul, ou encore la reconstruction du
monastère de Mar Behnam, également en Irak.
En faisant revivre ces cités millénaires par
la magie du numérique, l’Institut du monde
arabe entend sensibiliser le plus large public
aux enjeux cruciaux de la préservation et de
la réhabilitation du patrimoine.
Science magazine n°61
dossier
Redonner vie à Palmyre...
© Ubisoft VR Experience – created with IconemMAFLDOA data
78
© Pierre Ducrey, IASA - UNIL
La basilique de Leptis Magna (Libye).
Les gradins du théâtre de Palmyre.
Exposition jusqu'au 10 février 2019 - Institut du monde arabe
1, rue des Fossés Saint-Bernard - 75005 Paris - Tél : 01 40 51 38 38 - www.imarabe.org
Science magazine n°61
lafont presse 27x21 021_Mise en page 1 24/06/2015 08:10 Page 1
Guillaume Duprez
Editions du Puits Fleuri
Bien manger
pour moins de 3 euros par jour
c’est possible !
5 Réf. C143
Prix : 23 €
BIEN MANGER POUR MOINS DE 3 EUROS
PAR JOUR : C’EST POSSIBLE !
Toutes les pistes de réflexion
pour bien acheter
mieux consommer,
cuisiner autrement...
EDITIONS DU PUITS FLEURI
302
LE CONSEILLER JURIDIQUE POUR TOUS
CHRISTINE STAQUET
Réussir sa retraite
à l’étranger...
de A à Z
Droits et démarches pour s’expatrier
Réforme des retraites 2014
Réforme du droit de succession 2015
EDITIONS DU PUITS FLEURI
Gestion
&
Organisation
Jean-Louis Michel
Comment bien gérer
son
budget familial
en temps de crise ?
Outils, méthodes et conseils
pour mieux gérer vos finances personnelles
L’argent
Les comportements
Prévoir
Acheter
Le budget
Sortir des difficultés financières
Emprunter
Epargner
S’assurer
EDITIONS DU PUITS FLEURI
Essentiels
Lucie Guchet
Créer et gérer
association
mon
Les 50 règles d’or
Statuts
Formalités
de création
Réglement
Assemblées
générales
Tenue du
bureau
Assurances
Comptabilité
Rôle du
président
Aspects
légaux
Fichier des
membres
Financement
Trésorier
& secrétaire
Editions du Puits Fleuri
Essentiels
Lucie Guchet
Je deviens
assistante
maternelle
Démarches – Formation – Rémunération
Droits et obligations
Editions du Puits Fleuri
Gestion
&
Organisation
Cédric Chevauché
Préface d’Alain Bosetti
L’indispensable
pour créer son entreprise
Toutes les pistes de réflexion pour bien acheter, mieux
consommer, cuisiner autrement... Achat en gros ou groupé :
mode d’emploi . Les jardins coopératifs... Les fins de marchés .
Les dates de péremption . Cueillette et glanage... Conserver les
produits . Cuisiner les bas morceaux . Les techniques de cuisson...
Calendrier des fruits, légumes et viandes de saison.... (190 pages)
5 Réf. 302
Prix : 26 €
RÉUSSIR SA RETRAITE À L’ÉTRANGER de A à Z
Droits et démarches pour s’expatrier. Plus de soleil… Moins
d’impôts… Niveau de vie plus confortable… Vous serez bientôt à
la retraite et vous envisagez comme des milliers de Français de la
passer à l’étranger ! Alors étudiez bien ce guide pratique. Grâce à
ses nombreux conseils vous saurez vous préparer (démarches,
obligations, droits, adresses utiles…) au mieux pour réussir votre
retraite à l’étranger (250 pages)
5 Réf. 397
Prix : 23 €
BIEN GÉRER SON BUDGET FAMILIAL...
Comportement d’achat, gestion des comptes, faire face à des difficultés passagères, épargner, emprunter, s’assurer… Ce manuel
propose la mise en place de pratiques indispensables et d’outils simples, à la portée de tous, pour mieux gérer son budget
familial. (170 pages)
5 Réf. 119
Prix : 12,90 €
CRÉER ET GÉRER MON ASSOCIATION.
La création et la gestion d’association sont à la portée de tous,
mais encore faut-il respecter dès le départ un certain nombre de
règles : administration, gestion des activités, des bénévoles, comptabilité, fiscalité… Pour ne rien oublier, en voici, en toute simplicité,
les règles essentielles ! (120 pages)
5 Réf. C136
Prix : 12,90 €
JE DEVIENS ASSISTANTE MATERNELLE
Démarches & Formation - Rémunération - Droits et obligations
Comment devenir assistante maternelle en connaissant les
tenants et les aboutissants ! Avantages et inconvénients. Comment
obtenir l’agrément ? La formation - Les obligations et les droits de
l’assistante. Ba rème de rémunération. La recherche d’emploi…
parce qu’il faut vous faire connaître… (120 pages)
5 Réf. 127
Prix : 23 €
L’INDISPENSABLE POUR CRÉER
SON ENTREPRISE.
Cédric Chevauché, fondateur du site www.choisir-sa-franchise
.com est conseil en création d’entreprise. Avec L’indispensable
pour créer son entreprise, bénéficiez de l’expérience d’un serialentrepreneur, de ses conseils et de sa vision personnelle de chef
d’entreprise pour devenir votre propre patron dans les meilleures
conditions ! (210 pages)
5 Réf. C137
Prix : 26,50 €
VIADUC - L’ANNUAIRE DE LA FRANCHISE
ET DES RÉSEAUX COMMERCIAUX.
EDITIONS DU PUITS FLEURI
L’annuaire de la franchise
Cet annuaire de la franchise & des réseaux commerciaux est un
outil indispensable pour tous les porteurs de projets, futurs franchisés, franchiseurs et futurs franchiseurs. Il vous permet de comparer facilement les enseignes : concept, historique, profil du candidat recherché, coût d’entrée, coordonnées indispensables,
contacts, informations générales, conditions d’accès. (480 pages)
Explications, méthodes,
conseils, outils...
Essentiels
Docteur Mary
Liber
Lire
comprendre
ses analys
es
médicales
et
Toute une série de guides
pratiques et juridiques,
clairs et précis !
Editions du
Puits Fleuri
Essentiels
5 Réf. 133
LIRE ET COMPRENDRE
SES ANALYSES MÉDICALES.
Marie-Claire
Bouthors
& Alain Chev
alier-Beaumel
Prix : 12,90 €
L’essentiel
sur le
burn-out
Ce guide est le complément indispensable de vos analyses.
Il fournit l’explication et l’interprétation de ces analyses, les affections qu’elles peuvent éventuellement révéler… ou la confirmation
de sa bonne santé. (120 pages)
Comment bien
le connaître
pour mieux
le prévenir
5 Réf. 130
Prix : 12,90 €
L’ESSENTIEL SUR LE BURN-OUT.
Chocs physiques ou psychologiques, surmenage au travail, mais
aussi angoisses et stress de la vie quotidienne, peuvent amener au
burn-out. L’objet de ce livre rédigé en des termes simples est
d’expliquer ce qu’est le burn-out, ceci dans le but de proposer
méthode et conseils pour le prévenir. (120 pages)
Editions du
Puits Fleuri
Essentiels
Marie-Claire
Bouthors
& Alain Chev
alier-Beaumel
Comment
mieux gérer
son stress
?
Conseils et
exercices
de sophrolog
ie
pour vaincre
les angoisses
de la vie
quotidienne
5 Réf. 118
Prix : 12,90 €
COMMENT MIEUX GÉRER SON STRESS ?
Les auteurs ont voulu utiliser leur expérience de sophrologues
pour vous proposer un plan de travail accessible de prendre
conscience de votre niveau de stress et des exercices faciles à
pratiquer dans la vie quotidienne pour mieux le gérer. (120 pages)
5 Réf. 331
Prix : 26,50 €
BIEN-ÊTRE ET ÉPANOUISSEMENT
PAR LA TRADITION MÉDICALE CHINOISE.
Philosophie - Corps humain - Emotions - Fatigue - Saisons Alimentation - Sommeil - Sexualité... Face à l'augmentation des
dérèglements de notre "mécanique", la vision chinoise âgée de
plusieurs millénaires vous apportera peut-être une réponse positive pour retrouver votre équilibre. (332 pages)
5 Réf. 139
Prix : 23 A
LA TABLETTE NUMÉRIQUE À L’USAGE
DES SENIORS... ET AUTRES DÉBUTANTS
Comment s’équiper ? Comment ça marche ? Pour quels services ? Conseils et mode d’emploi… Accessible à tous sans
connaissances techniques préalables, ce livre va vous aider dans
votre choix et vous guider dans l’utilisation de votre tablette pour
en tirer le plus grand plaisir. (160 pages)
5 Réf. 104
Prix : 26,50A
INFORMATIQUE & NUMÉRIQUE
à l’usage des seniors... et autres débutants.
Ordinateur, logiciels, internet... Comment s’équiper ?
Comment ça marche ? Pour quels services ? Conseils et
mode d’emploi... Voici expliquées les bases de l’utilisation de l’ordinateur et d’Internet dans des termes simples, illustrés de nombreux exemples. Un point de départ qui permettra à tout lecteur
d’acquérir les bases nécessaires pour démarrer... (260 pages)
5 Réf. C142
Prix : 12,90 €
LE GUIDE DU PARFAIT RANDONNEUR.
Conseils - Matériel - Organisation... Ce petit manuel indispensable pour réussir une randonnée d’une journée ou de plusieurs semaines vous propose toutes les astuces et tous les
conseils concrets pour vous permettre de réussir. (120 pages)
& des réseaux commerciaux
Editions du
Puits Fleuri
"!
!
"!
# %!
! $"
!!!
$ Gestion
&
Organisation
Michèle Germ
ain
La tablette
numériqu
e
à l’usage des
seniors...
et autres débu
tants
Comment s’équip
Pour quels service er ? Comment ça marche
s ? Conseils
?
et mode d’empl
oi...
EDITIONS DU
PUITS FLEUR
I
Gestion
&
Organisation
Michèle Germ
ain
Informatique
& numériqu
e
à l’usage des
seniors...
et autres débu
tants
Famille, loisirs
, démarches,
services... :
comment mieux
vivre avec le
numérique
Ordinateur, logicie
ls, internet...
Comment
s’équiper ?
Comment
ça marche ?
Pour quels
services ?
Conseils
et mode
d’emploi...
EDITIONS DU
PUITS FLEUR
I
Essentiels
Eric Montigny
Guide du
parfait
Randonneur
Le
Conseils - Maté
riel - Organisat
ion...
Le manuel
indispensable
pour réussir
une randonné
e
d’une jour
ou de plusieurs née
semaines !
Edition 2015 / 2016
Bon de commande à renvoyer à : LAFONT PRESSE
53 rue du Chemin Vert - 92100 Boulogne-Billancourt
Editions du
Puits Fleuri
EDITIONS DU PUITS FLEURI
Coordonnées complètes : ..…......................................................................................................................
……………..…………..………….....…...……...……………….………......................................……...………….....……………
5 vous commande les ouvrages dont les n° suivent : ….....................................................................................................
5 Ci-joint mon règlement par chèque ou CCP de ……................………..A à l’ordre de LAFONT PRESSE
5 Règlement par CB : N° _ _ _ _ / _ _ _ _ / _ _ _ _ / _ _ _ _
Validité : _ _ / _ _
N° crypto. : _ _ _
2 ème édition
Signature
Cachet
SCIENCE
LIVRES
magazine

De Mercure à Pluton, des comètes aux
planètes mineures, ce beau livre dresse un
portrait complet et détaillé de chacun de ces
astres, en s’appuyant sur les toutes dernières
découvertes astronomiques et les derniers
résultats de la recherche. Il présente plus de
300 superbes images de notre système solaire,
dont des prises de vue éblouissantes de la
comète Tchouri et de la mystérieuse Pluton.
La beLLe aventure
de L'ocÉan
« Planètes, aux confins de notre système
solaire », par Thorsten Dambeck
Glénat - 2018 - 192 pages - 35€

L'océan mondial abrite la majorité des espèces vivantes sur Terre, génère une grande
part de l'oxygène que nous respirons, et régule
le climat de la planète. Des marins célèbres
l'ont parcouru.
De l'apparition de l'eau liquide il y a plus
de 4 milliards d'années, aux bateaux autonomes et aux robots plongeurs, cet ouvrage
magnifiquement illustré retrace en 100 dates
l'histoire mouvementée de l'Océan et de son
exploration.
« La belle aventure de l'océan », par
Pierre Royer et Jean-Baptiste de Panafieu
Dunod - 2018 - 216 pages - 29€

big five
Ours, loup, lynx, aigle royal, cerf... le naturaliste de terrain Marc Giraud nous révèle
la vie secrète de ces cinq animaux rares et
souvent farouches, ainsi que d'autres moins
connus, et nous fait partager leur quotidien à
l’aide de photos exceptionnelles. Car il existe
encore en Europe de gros animaux sauvages,
qui font venir les touristes et rêver les autres,
à l’instar des Big five en Afrique.
Science magazine n°61
auX sources de La vie
« Big five : Le retour des grands
animaux sauvages », par Marc Giraud
Delachaux et Niestlé - 2018
192 pages - 29,90€

pLanÈtes, auX confins
de notre sYstÈme
soLaire
Par quel « miracle » la vie a-t-elle surgi ?
En partant d’exemples concrets comme la
division cellulaire, l’apparition de l’oeil et
des vertèbres, Éric Karsenti, Médaille d’or du
CNRS et directeur scientifique de la Fondation Tara Océans, montre que l’information
contenue dans l’ADN et quelques principes
physiques simples suffisent à engendrer des
processus d’une complexité inouïe. Une
exceptionnelle plongée dans les mystères
de nos origines.
« Aux sources de la vie »,
par Éric Karsenti - Flammarion
2018 - 304 pages - 21,90€
Débats
dossier
81
FORUM
DES LECTEURS
Nanomatériaux :
la prévention s’impose
81
découvertes

La belle histoire
des volcans
Rédigé par un volcanologue mondialement
reconnu, ce panorama chronologique résume,
en 150 fiches largement illustrées, l'histoire
mouvementée de notre planète depuis sa naissance, il y a 4,5 milliards d'années, jusqu'à
nos jours. A la description de ces phénomènes
naturels extrêmes fascinants s'ajoutent des
informations et anecdotes variées (exploitation du soufre, conditions de tournage du film
Stromboli, etc.).
« La belle histoire des volcans »,
par Henry Gaudru et Gilles Chazot
De Boeck Supérieur - 2018
320 pages - 27€

24 heures d'innovations
Demain arrive à une vitesse vertigineuse
avec l'une des plus formidables accélérations technologiques de toute notre histoire :
intelligence artificielle, BeautyTech, Internet
des objets, blockchain, maison intelligente,
smart city, AgriTech, thérapie généique,
robots domestiques, impression 3D, réalité
virtuelle... Ce livre richement illustré vous
fait voyager dans votre futur et vous révèle 50
innovations 4.0 tout droit sorties des meilleurs
laboratoires et incubateurs.
« 24 heures d'innovations »,
par Eric Dosquet, Oxana Gouliaéva
et Jean-Christophe Bonis - Dunod
2018 - 224 pages - 24€


Les champions
du camouflage
De la « simple » imitation de la couleur dominante d'un milieu aux mécanismes les plus
sophistiqués, la nature n'a pas de limite dans
le domaine de la duperie. Ainsi le bout de la
langue de la tortue alligator ressemble à un
ver, et elle l'utilise comme leurre pour attraper
ses proies.
Ce beau livre aux images spectaculaires nous
propose une découverte passionnante de l'art
de la supercherie dans le règne animal.
Le Bot qui murmurait
à l’oreille de la vieille
dame
Nouvelle après nouvelle, Serge Abiteboul,
chercheur à l'Inria (Institut national de recherche en informatique et en automatique)
explore ce que pourrait être notre vie future,
entre objets hyperconnectés, greffes de cerveau artificiel et robots presque aussi insaisissables que certains de nos semblables…
La science et l’imagination s’allient pour
nous faire réfléchir aux possibles - et au
souhaitable.
« Le Bot qui murmurait à l’oreille
de la vieille dame », par Serge Abiteboul
Le Pommier - 2018 - 192 pages - 17€
« Les champions du camouflage »,
par Jean-Philippe Noël/Photographe
Biosphoto - Glénat - 2018
160 pages - 39,50€
Science magazine n°58
82
DÉBATS
FORUM DES LECTEURS
SCIENCE
magazine
Science magazine donne la parole
aux passionnés de science…
Suite à votre article sur le vieillissement et à
l'influence de certains gènes... j'avais entendu
parler d'une mutation génétique rare dans certaines communautés isolées qui leur permettrait de vivre plus longtemps...
Pascale D.
Montigny-lès-Metz (57)
lorsqu'il a subi une gigantesque tempête de sable
en juin dernier qui a obscurci le ciel martien.
Or, Opportunity fonctionne à l'énergie solaire...
Depuis août, les scientifiques américains, qui
ont retrouvé le rover, tentent de le « réveiller »
en lui passant de la musique du style « Life on
Mars ? » de David Bowie... (A l'heure où nous
mettons sous presse, Opportunity n'a pas encore
donné signe de vie).
Science magazine : En 2017, une telle mutation
a pu être observée chez une communauté Amish
aux États-Unis. Sur 177 personnes, 43 en étaient
porteuses, avec pour résultat une meilleure santé
et une augmentation de 10 ans de leur espérance
de vie. De plus les télomères de leurs cellules
immunitaires étaient 10% plus longs. La mutation génétique entraînait une forte réduction de
la protéine PAI-1, dont le niveau est très élevé
chez les obèses ou les diabétiques. D'où une
nouvelle preuve de la nécessité de réduire les
calories absorbées.
Vous dites qu'il existe sur terre un animal
immortel : une petite méduse de la mer des
Caraïbes. Mais est-elle vraiment la seule ? Que
dire du tardigrade, par exemple, qui supporte
les températures les plus extrêmes, des pressions énormes, et peut se régénérer après des
milliers d'années ?
Jean-Paul B.
Lodève (34)
Science magazine : La méduse en question est
dite « immortelle » dans le sens où elle est capable de reformer plusieurs organismes à partir
de quelques-unes de ses cellules. De plus elle
peut rajeunir ses cellules pour recommencer une
nouvelle vie, ou faire repousser ses membres.
Le tardigrade, lui, possède notamment la particularité de pouvoir entrer en cryptobiose, c'està-dire qu'il se déshydrate presque complètement
et remplace l'eau par un sucre qu'il synthétise.
Mais il n'a pas cette capacité de rajeunissement
qui intéresse tant les scientifiques.
Beaucoup de gens pensent que le réchauffement climatique signifie pour la France des
Science magazine n°61
On connaît depuis longtemps la distance de la
Terre à la Lune : 384 467 km. Mais comment
l'a-t-on mesuré dès le départ ?
Cédric P.
Issy-les-Moulineaux (92)
températures plus agréables, sans penser à
d'autres conséquences telles que par exemple
l'augmentation des pluies.
Camille F.
Boussières (25)
Science magazine : En effet, rien de positif
n'est à prévoir. Sécheresse importante dans le
sud, pluies plus intenses, crues et inondations
au nord. Sans compter la multiplication des événements extrêmes ! Et que dire si les courants
marins (reconnus à leur plus faible niveau en
2018) cessent d'équilibrer le climat en redistribuant la chaleur entre les régions équatoriales
et polaires ?
Qu'est devenu le petit robot Opportunity de la
NASA, perdu sur Mars ?
Charline A.
Paris 9e
Science magazine : Le rover, prévu à l'origine
pour durer 3 mois, était à sa 14e année de mission
Science magazine : Dès l'Antiquité, cette
mesure fut réalisée grâce aux éclipses permettant d'observer l'ombre de la Terre sur la Lune.
Connaissant le diamètre de la Terre, on a pu
calculer le diamètre de la Lune et sa distance à
partir de l'angle selon lequel on la voit.
A partir de 1969, des réflecteurs ont été posés
sur le sol lunaire dans le cadre du programme
Apollo. En mesurant le temps qu'un faisceau
laser, émis depuis la Terre et se réfléchissant
sur la Lune, met pour revenir, la distance de
notre satellite a pu être calculée très précisément.
Erratum
Dans notre dossier « Stopper le vieillissement » (Science Magazine n°60),
nous avons présenté le livre de Florence Solari : « L'homme qui vivra
200 ans est-il déjà né ? ».
Cet ouvrage est paru aux Editions Le
Pommier, et non aux Editions Belin
comme il était écrit p.42.
Toutes nos excuses pour cette erreur.
www.lafontpresse.fr
En kiosques ou sur lafontpresse.fr
c’est positif !
.
NOUVEAU LE QUOTIDIEN DU FOOT
C’est génial un quotidien
100% foot sur internet !
.fr
Le nouveau journalisme du football : Le quotidien du foot
en numérique. Participez vous aussi à l’aventure. Supporters,
passionnés, joueurs amateurs, dirigeants... écrivez votre article
et faites-le publier sur le site www.lequotidiendufoot.fr
LE QUOTIDIEN DU FOOT .fr
Sur internet et tablettes
Документ
Категория
Журналы и газеты
Просмотров
3
Размер файла
97 497 Кб
Теги
Science Magazine
1/--страниц
Пожаловаться на содержимое документа