Revue des sciences 05/08

1er  mai 2008 | par Jean Zin


Revues : Pour la Science - La Recherche
Brèves : Physique - Climat - Biologie - Santé - Technologie


Une figure mythique de la physique vient de nous quitter à 96 ans, John Archibald Wheeler, dont l'audace spéculative prenait le risque de l'absurde, voire du ridicule, mais pourra nourrir encore notre imaginaire pour longtemps. Il faut signaler aussi la disparition d'Edward Lorenz qui n'a pas la même stature mais a participé à la fondation de la théorie du Chaos avec presque rien, le battement d'une aile de papillon qui a suffi à bouleverser toute la science de la fin du XXème siècle. Sinon, les nouvelles sont très mauvaises du côté du méthane, plus ça va, plus on va vers le pire ! Pourtant il est de plus en plus probable que nous sommes seuls dans l'univers et que notre disparition programmée pourrait bien expliquer pourquoi... Il ne faut pas trop avoir confiance dans la technique et la géo-ingénierie pour nous sortir de là car les problèmes sont plus compliqués qu'on ne croit. Ainsi le chauffage des véhicules électriques pose un problème imprévu qui réduit leur viabilité. On se rend compte aussi que les espoirs qu'on avait mis dans l'informatique quantique étaient assez délirants en dehors de domaines très précis comme la cryptographie ou la simulation de systèmes quantiques. C'est un peu pareil pour le numérique et les réseaux sociaux dont on attendait beaucoup trop alors qu'on ne peut dépasser réellement le plafond des 150 relations. Du côté de l'émerveillement, on pourrait citer les imprimantes 3D autoreproductrice (même si on en est encore loin), mais surtout ces merveilleux paysages de Dallol, en Ethiopie, sans âme qui vive, tout près de la route des migrations en dehors de l'Afrique dont on peut se demander si c'est un hasard qu'elles passaient presque toutes par la terre sainte où naîtront les premières civilisations...



Pour la Science no 367, Un monde plat en carbone


Pour la Science

- Pessimisme autoréalisateur, p8
Ivar Ekeland

L'achat de certains produits financiers oblige à vendre à la baisse quand la Bourse chute, ce qui contribue à la baisse des cours et à vendre plus, et ainsi de suite.

Il y a une grande illusion dans les produits financiers qui prétendent diluer le risque car les gains que cela permet quand le marché monte se payent au centuple quand il baisse, accélérant sa chute !

Les banques centrales tentent de faire pencher la balance du côté de l'optimisme, mais elles ne sont guère aidées par la politique américaine, et notamment le coût monstrueux de la guerre en Irak (3000 milliards de dollars, le quart du PNB américain, uniquement financé par l'emprunt !).

- La théorie de l'évolution, p30

Les théories scientifiques se construisent pas à pas. Celle de l'évolution comme les autres. Certes, certains fossiles manquent à l'appel. Mais profitons de ces lacunes dans les registres fossiles pour souligner la richesse des mécanismes de l'évolution.

Pourquoi l'enseignement de la théorie de l'évolution pose-t-il davantage de difficultés que celui des théories de la chimie ou de la physique ? À cause de la dimension temporelle des mécanismes (ils s'étendent sur des millions d'années). Et aussi, parce que les difficultés sont niées plutôt que d'être analysées en toute transparence.

Cette dénonciation d'un trop grand zèle dans l'enseignement dogmatique de la théorie de l'évolution est bien venue car c'est donner des arguments à ceux qui la contestent. il faut donc reconnaître les trous de notre savoir pour mieux faire ressortir ce qu'il y a d'incontestable. Cependant, l'auteur témoigne de ses propres dogmatismes à vouloir ramener la sexualité simplement à l'élimination des mutations délétères et privilégier une interprétation individualiste de l'évolution (l'absurde "gène égoïste") en disant cette énormité :

Or l'individu sélectionné est celui qui transmet le maximum de ses gènes, c'est-à-dire qui a une descendance nombreuse et peu importe la survie de l'espèce.

Pourtant, c'est la compétition entre espèces et pour l'espace vital qui est déterminante plutôt que la compétition entre individus qui ne doit pas trop réduire la variabilité génétique. Il semble évident, au niveau des bifurcations, que ce n'est pas le nombre de descendants immédiats qui assure la survie de la nouvelle espèce mais de s'ouvrir une nouvelle niche écologique. De même, ce n'est pas tant le nombre de descendants qui assure l'optimisation des fonctions existantes mais la survie des plus performants à la longue, sous la pression de l'environnement selon une causalité descendante. On n'en a pas fini avec cette théorie de l'évolution, non pas avec le fait bien établi, mais avec sa formulation et son interprétation qui est encore si difficile et facilement idéologique...

- Graphène et nanoélectronique, p36

Une nouvelle forme du carbone est née : le graphène, feuille de graphite d'épaisseur monoatomique. Dans ce matériau qui captive les physiciens, les électrons se déplacent comme s'ils allaient à la vitesse de la lumière et avaient une masse nulle.

La masse des électrons rayée d'un trait de crayon... Ainsi pourrait-on résumer l'un des aspects les plus fascinants d'un nouveau matériau obtenu en 2004 à partir du graphite, forme cristalline de carbone bien connue et dont on fait les mines des crayons à papier. Cette année-là, l'équipe d'Andre Geim, à l'Université de Manchester, en Grande-Bretagne, a réussi à fabriquer un cristal bidimensionnel, c'est-à-dire un solide ordonné dont l'épaisseur est de seulement un atome. Les cristaux les plus minces obtenus auparavant avaient une épaisseur d'au moins une dizaine de plans atomiques. En partant du graphite, A. Geim et ses collègues ont obtenu une sorte de molécule plane géante, nommée graphène et formée uniquement d'atomes de carbone liés entre eux de façon à former un réseau d'hexagones, comme un nid d'abeilles (voir ci-contre).

À la suite de cette percée expérimentale, de nombreux physiciens se sont lancés dans l'étude de ce nouveau composé. Ils ont surtout été attirés par les propriétés électroniques hors du commun du graphène, que des théoriciens avaient en partie prédites au cours des décennies précédentes.

Le premier exploit, c'est d'avoir fait un cristal à 2 dimensions ce qui était considéré comme impossible car les fluctuations thermiques devraient le désagréger, sauf qu'elles sont absorbés par les déformations de la feuille de graphène dans la 3ème dimension :

Cependant, cette stabilité a un coût. Le graphène se déforme hors de son plan, dans la 3ème direction d'espace, et n'est donc plus réellement plat. Il ressemble alors à un film ultramince parcouru de vagues statiques. Ces ondulations ont une hauteur d'environ 1 nanomètre.

Pour le reste je n'ai pas bien compris, sinon que les électrons du graphène se comportent comme une "mer de Fermi" occupant tous les niveaux d'énergie (où les trous sont l'équivalent de positrons) et que les électrons ou positrons se déplacent sur la feuille de graphène comme une particule sans masse à 1000 km/s (300 fois inférieur à la vitesse de la lumière). Le fait que la masse de l'électron y devient nulle lui permet de franchir les barrières de l'effet tunnel avec une probabilité de 100% ! Tout cela en fait le matériau idéal pour la nanoélectronique :

En fait, à température ambiante, le graphène conduit l'électricité plus vite que n'importe quel autre matériau connu.

On pourra donc voir émerger, dans les prochaines années, une électronique hybride, qui combinerait graphène et nanotubes de carbone afin de tirer le meilleur des 2 matériaux.

- L'eau, une menace pour les calottes polaires, p60

L'eau liquide découverte sous les calottes de glace de l'Antarctique et du Groenland fragilise leur équilibre, et suggère qu'elles sont plus sensibles au réchauffement climatique que prévu. Leur disparition provoquerait une hausse catastrophique du niveau des mers.

La surface de la banquise Larsen B était constellée de « lacs » d'eau de fonte, signe que la péninsule Antarctique se réchauffait plus vite que n'importe quelle autre région du globe sous l'influence du changement climatique global.

Si la calotte Antarctique Ouest était amenée à disparaître, le niveau de la mer s'élèverait de presque 6m ; la glace provenant du Groenland y ajouterait environ 8m, et la calotte de l'Antarctique Est contribuerait à hauteur de 52m à la hausse du niveau des mers, soit plus de 65m au total ! Par comparaison, le premier étage de la tour Eiffel n'est situé qu'à 57m au-dessus du sol. La disparition des calottes polaires engloutirait ainsi une grande partie des villes du monde entier.

C'est sûr que si on ajoute tout, ça fait beaucoup, cela n'a rien d'impossible, hélas, mais il faut voir en combien de temps quand même...

- Les limites du calcul quantique, p68

Des ordinateurs quantiques seraient incroyablement performants pour accomplir certaines tâches. Mais pour résoudre la plupart des problèmes, ils feraient à peine mieux que les ordinateurs actuels. L'ordinateur ultime n'est pas pour demain !

Une affirmation récurrente et pourtant erronée est que les ordinateurs quantiques pourraient en théorie venir à bout d'un ensemble de problèmes particulièrement difficiles, les problèmes dits NP-complets - sur lesquels nous reviendrons -, que même les plus puissants ordinateurs existants échouent à résoudre en un temps raisonnable. Le secret de ces performances : une architecture à même de traiter toutes les réponses possibles simultanément.

Article salutaire pour remettre les pendules à l'heure et manifestant toute la distance qu'il y a entre les fantasmes et la réalité. Cela fait penser aussi à cette blague reprise par Freud qu'une découverte n'est jamais qu'à moitié aussi importante qu'on le croit ! Les ordinateurs quantiques pourraient servir dans la cryptographie et la factorisation pour laquelle il y a des algorithmes quantiques effectivement sans commune mesure avec les systèmes actuels. Des gains de performances sont à espérer aussi sur les approches de type "boîte noire" sans que cela aille très loin mais pour le reste il ne faut pas en attendre de meilleures performances qu'un ordinateur classique, plutôt beaucoup moins. En fait la plus grande utilité d'un ordinateur quantique serait de simuler des systèmes quantiques !

Le calcul quantique peut être envisagé comme le test le plus rigoureux auquel la mécanique quantique ait jamais été soumise. Un des résultats les plus passionnants de la recherche en informatique quantique serait ainsi de découvrir une raison fondamentale pour laquelle les ordinateurs quantiques ne peuvent pas exister. Un tel échec bouleverserait notre vision actuelle de la physique et ouvrirait d'autres horizons, alors qu'un succès ne ferait que la confirmer.

L'auteur propose même d'ériger en principe équivalent à celui de l'entropie l'impossibilité de réaliser un ordinateur capable de résoudre les problèmes NP-complets. Cela paraît assez raisonnable étant donné que les problèmes NP-complets ne peuvent être simplifiés ni décomposés en éléments linéaires exigeant de passer en revue toutes les possibilités. Un exemple que j'ai rencontré lorsque je faisais de la programmation industrielle, c'est l'imbrication de gammes de traitements de surface (monnaies et médailles, aviation). Impossible à optimiser. L'image qui m'a semblé la plus parlante c'est celle de peignes édentés qui s'imbriquent l'un dans l'autre mais qu'un infime décalage peut empêcher de s'imbriquer, ce qu'aucune formule ne peut prévoir...

- Récupérer l'eau atmosphérique, p100

L'atmosphère contient de la vapeur d'eau en abondance. Récupérée, elle représenterait une source alternative d'eau potable.

Si l'eau potable n'est pas équitablement répartie sur notre globe sous sa forme liquide, la vapeur d'eau est omniprésente dans l'atmosphère. Les brouillards et la rosée en témoignent. Même dans le désert le plus aride, la vapeur d'eau est là. Et de nouvelles stratégies se développent pour la récupérer : filets à brouillard, récupérateurs de rosée...

Un appareil commercial nommé RainMaker (faiseur de pluie) produit 25 litres d'eau par jour en aspirant et refroidissant chaque seconde 0,1 mètre cube d'air à 60% d'humidité et à 27°C. Cela correspond à un coût énergétique de 1600kW/h par mètre cube d'eau potable.

Un autre système intéressant est réservé aux pays côtiers car il utilise l'eau de mer pour humidifier des serres et récupérer de l'eau douce.

- Changer le monde, p102
CNRS, Centre d'écologie fonctionnelle et évolutive, Montpellier.
Sous la direction de Alex Steffen, La Martinière, 2007, 596 pages

Nous vivons au-dessus de nos moyens écologiques. Que faire ? Voilà le point de départ de ce livre. Tant d'autres ouvrages et d'articles, plus ou moins bien faits, nous le rabâchent : l'utilisation de la biosphère par l'homme n'est pas durable et la surexploitation des ressources naturelles provoquera, à terme, notre disparition. Quelle que soit la qualité de ces œuvres alarmistes, toutes prévoient notre perte et développent des scénarios apocalyptiques. L'originalité de l'ouvrage collectif dirigé par Alex Steffen et impliquant 62 coauteurs est de passer de l'alarme à l'action : il établit un impressionnant catalogue de gestes citoyens à faire qui favoriseraient une meilleure exploitation et une meilleure répartition des ressources naturelles. L'ouvrage est aussi un Who's Who anglo-saxon de l'activisme environnemental.

Passé les préfaces insipides d'Al Gore et de Bruce Sterling, l'épais volume se développe en sept chapitres traitant des biens de consommation, du logement, de l'urbanisme, des actions collectives, du monde des affaires, de la politique et du futur de la planète. Le propos est parfois hétéroclite puisqu'il a été composé notamment d'articles publiés en ligne sur le site WorldChanging.

Peu importe. Le livre atteint son but, en martelant tout au long de ses quelque 600 pages que le modèle occidental de développement est mort et qu'il en faut un autre à l'humanité.

Cela ne semble pas aller bien loin (il y manque le caractère systémique), mais c'est déjà ça !




La Recherche no 419, Homo Erectus sort d'Afrique


- La météo ne fait pas le climat, p14

Claude Allègre est ridiculisé d'avoir pris comme prétexte un mois de janvier un peu plus froid pour réfuter un réchauffement à long terme avéré, malgré ce que prétendent les sceptiques, par quantités de mesures et conforté par les progrès de la science. Ce petit coup de froid n'empêche pas que 2007 était une des années les plus chaudes.

- La syntaxe primitive du singe hocheur, p20

Ce qui est intéressant c'est que différentes combinaisons de son ont des sens différents, se rapprochant du langage, réfutant en tout cas l'hypothèse d'un proto-langage où les sons se confondent avec le sens, plus proche de la double articulation bien qu'incapable de phrases et de récit, limité à l'impératif :

Par exemple, une série de "pyow" signale la présence d'un léopard, une suite de "hack" ou des "hack" suivis de "pyow" celle d'un aigle. lorsqu'il combine ces deux cris dans le sens "pyow-hack", le singe hocheur mâle indique à son groupe que le moment est venu de se déplacer.

- Les barrages produisent du méthane, p12

Les émissions associées aux barrages tropicaux sont environ 10 fois supérieurs à celle des barrages tempérés. L'âge et la morphologie des réservoirs interviennent également. Plus un réservoir est vieux et profond, moins il émet de méthane.

- Du fuel avec du charbon, p24

La Chine se lance, hélas, dans la liquéfaction du charbon en pulvérisant de la poudre de charbon avec de l'hydrogène.

Selon l'accessibilité du charbon et sa qualité, une tonne produirait de 2 ou 3 barils de pétrole, pour un coût estimé entre... 25 et 100 dollars par baril.

- Les premiers hommes hors d'Afrique, p28

Les résultats de nouvelles fouilles archéologiques montrent que les premiers hommes sortis d'Afrique et arrivés en Eurasie il y a entre 2 et 1,5 millions d'années, étaient plus anciens et moins avancés techniquement que l'on ne l'imaginait.

Ce ne sont pas les plus évolués des Homo erectus qui sont partis à la conquête du monde mais les primitifs de l'époque qui accusaient un retard de près d'un million d'années avec leurs cousins d'Afrique ! Leurs pierres taillées étaient très grossières mais ils amassaient des galets plutôt pour s'en servir comme arme en les lançant contre les carnivores. Il démontraient cependant leur capacité à s'affranchir de leur milieu d'origine, peut-être grâce à leur socialité démontrée chez l'homme de Neandertal par la découverte d'une mandibule appartenant à un individu qui avait vécu plusieurs années sans dents, ce que montre la résorption de la plupart des alvéoles dentaires :

Ce crâne édenté, plus ancien témoignage d'une attitude compassionnelle chez les hominidés, est donc peut-être le premier signe de comportement réellement humain de nos ancêtres. Un comportement qui leur a permis finalement de peupler la planète.

- Quelle porte de sortie ont-ils trouvée ?, p38

Il est amusant de constater que la voie des migrations hors d'Afrique aurait toujours été le moyen-orient et notamment le passage de l'Egypte à la Palestine. La terre sacrée qui verra les débuts de la civilisation était le lieu de passage de tous les migrants, peut-être propice à l'accumulation des innovations.

Cet article fait état d'une explosion démographique des Homo sapiens vers 100 000 ans qui peuplent l'Afrique, puis entre 85 000 ans et 60 000 ans ils pénètrent en Asie, il y a 50 000 ans en Australie et il y a 40 000 ans en Chine et en Europe.

Le degré de fiabilité des études génétiques est bien difficile à évaluer. Il semble qu'une autre étude donne des résultats un peu différents. L'espèce ayant 200 000 ans, une période de sécheresse vers 100 000 ans aurait fractionné une population qui se réunifiera génétiquement il y a seulement 40 000 ans. L'explosion démographique et la sortie d'Afrique ne daterait que de 70 000 ans, et comme je l'avais déjà lu mais contesté par d'autres, à partir de seulement 2000 survivants peut-être, ce qui en ferait le véritable début de l'histoire humaine et de notre dernière grande mutation.

Le paléontologue Meave Leakey, professeur à la Stony Brook University, se demande pour sa part qui aurait pu imaginer qu'à un moment aussi rapproché, il y a de cela 70.000 ans, des événements climatiques extrêmes entraînèrent une réduction de la population humaine à une quantité aussi faible d'individus, plaçant l'espèce à l'extrême bord de l'extinction.

- L'essence de la musicalité, p54


Lorsque le son est parfaitement identique à ce qu'il était quelques instants auparavant, l'information est redondante, et notre cerveau s'en désintéresse assez vite. D'où le sentiment d'ennui qui s'en dégage. En revanche, lorsque le son évolue et qu'il est légèrement modulé, notre attention reste sollicitée durant une longue période.

Les propriétés de non-linéarité semblent donc primordiales pour que le son plaise aux musiciens.


- François Englert : « Le LHC détectera le boson de Higgs... s'il existe »

Je n'arrive pas à croire à cette histoire de boson de Higgs qui semble une pure invention mais bien sûr mon avis n'a aucune importance, je suis complètement incompétent sur le sujet. En tout cas, il ne faudrait pas dire boson de Higgs mais boson BEH (Brout-Englert-Higgs) selon François Englert interviewé ici et qui en avait fait l'hypothèse avant Higgs à partir de la physique statistique.

Il explique bien que l'hypothèse de ce "boson scalaire" vise à unifier les forces électro-magnétiques qui peuvent agir à très grande distance avec les forces nucléaires faibles ou fortes. Cela ressemble à une résurgence de l'éther. Je trouvais assez convaincantes les théories qui expliquaient cette différence de portée par le "bruit" qui en brouilleraient le signal plutôt que par une "brisure de symétrie". La masse des bosons me semblait pouvoir être imputée à leur énergie qui doit être d'autant plus importante que l'interaction est à courte distance, mais on devrait savoir d'ici quelques mois ce qu'il en est...





Brèves et liens



Physique


cosmologie, astronomie, physique quantique


- Un univers jumeau avant le Big Bang ?

Il s'agit de la suite des spéculations de Martin Bojowald à partir de la gravitation quantique en boucle (LQG) qui l'avaient amené à la conclusion que notre Univers résultait d'un cycle probablement sans fin d'expansions et de contractions (Big Bounce). La nouveauté, c'est qu'il y aurait plus de similitudes que prévu entre les univers qui se succèdent et peut-être même des traces de l'avant Big Bang dans le rayonnement fossile...

Si notre Univers a bien été précédé d'un autre, ayant subi un rebond après que sa taille soit devenue minuscule (100 fois la longueur de Planck environ), l'ancêtre de notre Univers devait être son quasi jumeau. De plus, aujourd'hui encore, des restes fossilisés de ce qui se passait avant le Big Bang pourraient bien se trouver au niveau des fluctuations du rayonnement fossile.

Pour arriver à cette conclusion, les deux chercheurs ont poussé un peu plus loin les calculs de Martin Bojowald et découvert que les quantités d'énergie et de matière contenues dans l'ancienne phase de notre Univers devaient être les mêmes qu'actuellement. Mieux, à une excellente approximation près, les fluctuations et la structure de l'espace-temps d'avant le rebond, à un niveau ni vraiment classique ni quantique, devraient être conservées sous certaines formes et être toujours là aujourd'hui. Ainsi, notre Univers, sans être une réplique exacte de son jumeau, avec en particulier une histoire différente, lui ressemblerait beaucoup. Les fluctuations de température dans le CMB (le fond diffus cosmologique observé par WMap) seraient probablement les héritières directes de celles existant avant la phase de rebond.

- Images de collisions de galaxies

- Les échos de lumière des trous noirs

Un des événements les plus spectaculaires en astrophysique est celui causé par la disruption d'une étoile s'étant approchée trop près d'un trou noir. Les forces de marée commencent par déformer l'étoile en une sorte de ballon de rugby, l'allongent ensuite en forme de cigare puis l'aplatissent pour en faire une crêpe avant de la mettre intégralement en pièces. Une partie du gaz ainsi libéré se met à spiraler en direction du trou noir où il vient alimenter brutalement un disque d'accrétion en matière fraîche. Par frottement, la matière s'échauffe et rayonne en émettant un flash puissant de rayons ultraviolets et X.

- Première preuve des ondes gravitationnelles ?

Le nouveau test de la relativité générale concerne un noyau galactique lointain, le quasar nommé OJ287, connu pour ses émissions périodiques d'un double éclat optique très lumineux à peu près tous les 12 ans. En 1988, Valtonen et d'autres ont suggéré que cette émission puisse être engendrée par un trou noir 18 milliards de fois plus massif que le Soleil, autour duquel gravite un second trou noir environ 200 fois plus léger. Dans un tel système binaire, l'objet le plus léger traverse la matière du disque d'accrétion du trou noir primaire deux fois par orbite, en générant à chaque fois de puissantes émissions d'énergie.

En outre, ces travaux suggèrent que le système binaire perd de l'énergie en émettant des ondes gravitationnelles - une prédiction fondamentale de la théorie de la relativité qui attend toujours d'être vérifiée de manière directe. Lorsque cette émission n'est pas incluse dans le modèle, l'éclat du quasar est prévu pour se produire 20 jours plus tard, ce qui fournit une preuve indirecte de l'existence de ces ondes gravitationnelles. Et selon Valtonen, le taux d'émission observé pour OJ287 en font la source connue la plus intense d'ondes gravitationnelles de l'univers, et donc une bonne cible pour les interféromètres laser comme LISA, particulièrement lors de la période 2016-2019 où les prochains grands éclats sont attendus.

- La matière noire : une détection directe ?

Si la matière noire existe, elle se trouve non seulement au niveau des amas de galaxies mais aussi dans les galaxies qu'elle entoure d'un halo sphérique. La majeure partie de la masse constituant une galaxie comme la nôtre est même composée de ces particules neutres interagissant très faiblement avec la matière normale et les autres particules que l'on sait fabriquer en accélérateur. Sans que nous nous en rendions compte, nous serions même touchés par un flux de ces particules traversant de temps en temps notre corps.

Si cette hypothèse s'avère exacte, il devrait se produire une modulation annuelle de ce flux de particules. En effet, le Soleil est en orbite autour de la Galaxie. Par rapport au référentiel héliocentrique, il se produirait donc une sorte de vent relatif de particules de matière noire. Comme la Terre est en mouvement par rapport au Soleil, sa vitesse propre doit s'ajouter (ou se retrancher) à la sienne par rapport au référentiel lié au centre de la Galaxie.

Comme le montre la figure 1, il y aura donc un moment où la vitesse de la Terre s'ajoutera à celle du Soleil, le 2 juin précisément, et un autre auquel elle se retranchera, ce sera le 2 décembre. En juin, le flux de particules de matière noire devrait donc être maximum mais il serait minimum en décembre.

Il y a presque 10 ans, l'équipe avait déjà trouvé une modulation annuelle avec les caractéristiques attendues. La communauté scientifique mondiale était restée sceptique.

Aujourd'hui donc, les chercheurs italiens enfoncent le clou, le signal détecté semble bel et bien réel. Sauf que d'autres expériences, comme CDMS ou Coupp, ne voient pas les particules qu'impliquent les observations de Dama.

- Cycles solaires : les tremblements de Soleil induiraient bien des éruptions solaires...

Ces gigantesques explosions dans les couches externes du Soleil seraient bien liées à de puissantes vibrations qui parcourent l'étoile entière, comme les tremblements de terre produisent des ondes sismiques à travers la planète.

Dans la même revue, Günter Houdek (université de Cambridge, Royaume-Uni) estime que cette observation pourrait donner le moyen de mieux comprendre les cycles solaires, qui dure onze années, et au cours desquels la fréquence des éruptions varie considérablement. L'origine de ce rythme est toujours une énigme.


- Visualisation de champs magnétiques en trois dimensions !

Pour la première fois au monde des chercheurs sont parvenus à reconstruire la structure en 3D d'un champ magnétique à l'aide de faisceaux de neutrons polarisés. La technique permet de visualiser, par exemple, le champ magnétique dans un supraconducteur, ce qui aidera sans doute à mieux comprendre les phénomènes qui s'y déroulent.

- Après les supraconducteurs, les superisolants !

Il faut des températures bien trop près du zéro absolu mais ce serait une façon de stocker de l'électricité sans aucune perte.

Des chercheurs allemands et américains ont démontré qu'un supraconducteur pouvait se transformer en superisolant. A terme, cette découverte pourrait servir à fabriquer des batteries idéales.

Des films de nitrure de titane, normalement supraconducteurs, pouvaient devenir... des supersisolants. Plongés dans un champ magnétique et refroidis à une température inférieure à 70 mK (millikelvins), ces films présentent alors une résistance infinie au courant électrique.

L'explication du phénomène n'est pas simple et la controverse fait actuellement rage dans la communauté scientifique. Selon Vinokour et ses collègues, comme ils l'expliquent dans Nature, lorsqu'un champ magnétique pénètre le supraconducteur, le flux magnétique provoque des structures quantifiées, analogues aux tourbillons dans un fluide, entre lesquelles les charges circulent. Dans le cas d'un superisolant, l'inverse se produirait, les charges resteraient fixes mais les tourbillons quantifiés passeraient d'une paire de Cooper à l'autre en bloquant tout transport de charge.

Selon les chercheurs, et bien que de nombreux progrès soient sans doute nécessaires, ce phénomène de « superisolation » pourrait permettre de fabriquer des batteries idéales, qui ne subiraient aucune perte de charges.

Circulation des paires de Cooper (paires d'électrons de spin opposé) dans un supraconducteur :

- Les futures découvertes du LHC déjà programmées !

Voilà le planning (boson de Higgs, supersymétrie, dimensions spatiales supplémentaires) mais peut-être rien de tout cela ne sera vérifié, vive les surprises ! L'absence de la supersymétrie renforcerait le principe anthropique de Léonard Susskind...

  • 2009 : La supersymétrie, si son échelle d'énergie est de 1TeV.
  • 2009/2010 : Le boson de Higgs, si sa masse est d'environ 200 GeV.
  • 2010/2011 : Le boson de Higgs, si sa masse est d'environ 120 GeV car à plus basse énergie, il est plus difficilement visible dans les données et il faut accumuler un plus grand nombre de collisions pour le mettre clairement en évidence.
  • 2012 : Des dimensions spatiales supplémentaires, comme dans le cadre des théories des cordes à basse énergie si celles-ci deviennent visibles à une énergie de 9 TeV.
  • 2012 : De la compositeness, si les quarks sont en fait des particules composites au lieu d'être fondamentales, et que leur nature composite se révèle directement à une échelle d'énergie de 40 TeV.
  • 2017 : La supersymétrie, si son échelle d'énergie est de 3 TeV.


- John Wheeler, l'un des pères de la cosmologie quantique, est décédé

Celui que toute la communauté scientifique mondiale considérait comme le physicien des physiciens, John Archibald Wheeler, vient de décéder à 96 ans d'une pneumonie, le 13 avril 2008. Il avait connu de très près tous les créateurs de la physique du siècle dernier, notamment Bohr et Einstein.

C'était un penseur audacieux qui ne reculait pas devant l'apparente absurdité du rôle de l'observateur dans les mesures quantiques et d'une co-créativité de la conscience et de l'univers ou des univers multiples, de particules qui remontent le temps, de la réduction de l'univers à l'information (It from Bit), etc.

« Nous vivons encore dans l'enfance de l'espèce humaine, toutes les horizons que sont la biologie moléculaire, l'ADN, la cosmologie commencent juste à s'ouvrir. Nous sommes justes des enfants à la recherche de réponses et à mesure que s'étend l'île de la connaissance, grandissent aussi les rivages de notre ignorance ».

- Mort du père de la théorie du chaos, Edward Lorenz

Edward Lorenz, père de la théorie du chaos et rendu célèbre par l'effet papillon, est décédé à l'âge de 90 ans le 16 avril 2008 à Cambridge (Massachusetts).

L'Univers repose essentiellement sur trois piliers, découverts au cours du XXème siècle. La théorie de la relativité, la mécanique quantique et la théorie du chaos. (en fait il faudrait ajouter l'entropie!)

En 1972, Edward Lorenz expose sa découverte dans une étude, intitulée : « Prévisibilité : est-ce que le battement des ailes d'un papillon au Brésil peut déclencher une tornade au Texas ? ». Cette phrase fera rapidement le tour du monde, immortalisant son auteur.


Climat



- La glaciation de l'Antarctique : une leçon pour le futur

Une équipe de géochimistes anglais et allemands vient de proposer un nouveau modèle décrivant les liens entre la glaciation de l'Antarctique et le cycle du carbone des océans.

Lors de la baisse du niveau des océans causée par le début de la glaciation antarctique, de nombreux récifs coralliens se seraient retrouvés à l'air libre. L'érosion aurait alors rapidement injecté de grandes quantités de calcaire dans les océans et ce dernier, en réagissant avec le dioxyde de carbone en solution, aurait conduit à une baisse de l'acidité des océans.

- Le rôle du méthane dans la fin de la dernière glaciation

Des chercheurs du CNRS (laboratoire de glaciologie et géophysique de l'environnement) se sont ainsi penchés sur l'évolution du taux de CH4 entre le dernier maximum glaciaire, il y a 18 000 ans et le début de la période actuelle (l'Holocène) il y a 11 500 ans.

Les chercheurs sont parvenus à identifier les processus responsables du doublement de la concentration en méthane atmosphérique lors de la dernière transition glaciaire-interglaciaire. Première conclusion, près de la moitié de cette augmentation résulte d'un accroissement substantiel des émissions de méthane à partir des régions marécageuses tropicales. De plus ces émissions ont été renforcées par la production des marécages et des tourbières boréales qui a débuté au cours de la transition climatique.

- Le permafrost sibérien fond et libère son méthane

Panique à bord ! Contrairement à des études qui se voulaient rassurantes sur la fonte du permafrost, la bombe climatique pourrait avoir commencé à exploser, comme il était hélas prévisible !

Les scientifiques ont découvert que le sol gelé de l'Arctique a commencé à fondre, libérant dans l'atmosphère le méthane qu'il emprisonnait. Ce phénomène pourrait être catastrophique car l'effet de serre de ce gaz est 20 fois plus important que celui du dioxide de carbone.

- L'équilibre climatique pourrait basculer d'ici sept à dix ans

L'équilibre climatique de l'hémisphère nord pourrait « basculer » d'ici sept à dix ans, provoquant une hausse aussi subite que sensible de la température moyenne du globe, en raison de la disparition de plus en plus prévisible de la calotte polaire en été et du réchauffement de l'océan Arctique.

« Les scientifiques du Groupe intergouvernemental d'experts sur le climat (GIEC) ont été trop timides, dit-il dans une entrevue donnée au Devoir. Le GIEC est commandité par les gouvernements » et ses conclusions doivent faire l'objet de consensus qui ne sont pas arrêtés uniquement par des scientifiques mais aussi par des politiques.

C'est grave, parce que les politiques vont certainement nous reprocher de ne pas les avoir avertis à temps. On a aussi été influencé par l'opinion publique qui ne veut pas entendre parler de catastrophes alors que des solutions existent pourtant, dont plusieurs cependant ne veulent pas entendre parler.

- L'effet humain sur les précipitations arctiques

Selon une nouvelle étude, l'Arctique est devenue plus humide durant le dernier demi-siècle et les hommes en sont en partie responsables. Cette nouvelle est particulièrement importante pour les climatologues car les anomalies dans le climat arctique peuvent, en raison de la structure unique des terres et de la position de l'Arctique sur le globe, influencer en fait le climat global.

Les chercheurs avertissent que cette "humidification" de l'Arctique pourrait se dérouler plus vite que prévu par les simulations actuelles du climat ; ils remarquent d'ailleurs que des études récentes montrent aussi que les glaces de l'Arctique régressent plus rapidement que prévu par les modèles.

- Le phytoplancton s'opposera-t-il au réchauffement climatique ?

C'est une lueur d'espoir assez douteuse car ce n'est qu'une expérience de laboratoire et si les coccolithophores qui se transforment en craie ont effectivement augmentés depuis 200 ans, cela n'a pas empêché la température de monter...

L'un des principaux dévoreurs de gaz carbonique du monde, le discret coccolithophore, qui peuple les océans du monde, ne semble pas craindre, comme on le pensait, l'augmentation d'acidité de l'eau de mer liée à l'effet de serre d'origine humaine. Au contraire, il se fait encore plus gourmand en gaz carbonique. Sa population aurait même crû depuis les débuts de l'ère industrielle.

Dans des sédiments de l'Atlantique nord, étudiés par carottage, il semble que l'activité de ces organismes du phytoplancton ait augmenté de 40% depuis les 220 dernières années, comme si elle était effectivement corrélée à l'augmentation du gaz carbonique atmosphérique.

- Obscurcir le ciel avec du soufre pourrait attaquer l'ozone polaire

C'est pourtant un spécialiste du trou d'ozone, Paul Crutzen, qui proposait d'obscurcir le ciel pour nous protéger de la chaleur du soleil... Voir aussi les critiques d'Edouard Bard.

L'injection continue de soufre dans la stratosphère, un projet de géoingénierie qui pourrait contrer le réchauffement global selon certains chercheurs, ferait sévèrement chuter les quantités d'ozone polaire selon de nouveaux calculs effectués par Simone Tilmes du Centre de recherche de Jülich en Allemagne et ses collègues.

En fait, des injections de petites particules soufrées assez grandes pour pallier le réchauffement en surface de ces prochaines décennies supprimeraient, estiment Tilmes et son équipe, tout l'ozone de la basse stratosphère arctique durant les hivers très froids. Et en Antarctique, l'injection soufrée pourrait retarder de 30 à 70 ans le rétablissement prévu de la couche d'ozone.

Clairement, beaucoup plus de recherches seront nécessaires pour déterminer toutes les conséquences de la géoingénierie avant que nous puissions sérieusement considérer l'injection de sulfates dans la stratosphère.

- L'inutile fertilisation des océans

Carte des couleurs de la mer (moyennées entre décembre 2004 et février 2005) illustrant la fertilité des eaux du plateau des Kerguelen (couleurs chaudes au sud-est de l'île) comparée à l'infertilité des eaux du large de l'océan Austral (couleur bleue au sud et à l'est), pourtant très riches en sels nutritifs. La couleur de la mer est un indicateur de la productivité biologique

Ces mesures révèlent qu'une quantité importante de fer - pas moins de 100 000 tonnes - est déversée tous les ans sous forme dissoute dans la mer depuis les berges des îles de Heard, localisées au sud-ouest du plateau des Kerguelen.

Mais qu'est devenu tout ce fer ? Car force est de constater que les eaux du plateau n'en gardent quasiment pas trace. On le sait, dans un milieu oxygéné comme l'eau de mer, le fer dissous est chimiquement instable: il s'oxyde et forme des produits insolubles. Ces énormes quantités de fer amenées à l'océan par l'érosion sont donc très vraisemblablement, et en grande majorité, très vite soustraites de la surface de la mer, les produits d'oxydation disparaissant dans les sédiments, probablement dans les zones situées près des côtes.

Ces résultats mettent en exergue combien vaines seront les fertilisations artificielles de l'océan envisagées par la géo-ingénierie sous la forme de déversements de fer dissous.


- Les réfugiés de l'environnement

La Terre chauffe et avec elle beaucoup de territoires autrefois accueillants deviennent inhabitables pour leurs occupants traditionnels. Du coup, les populations résidentes sont obligées d'aller s'installer ailleurs. Ces nouveaux réfugiés climatiques sont aujourd'hui une trentaine de millions mais leur nombre devrait dépasser les 250 millions en 2050.

Il faut savoir que près de 500 millions de personnes vivent à moins de cinq kilomètres des côtes et pas loin de 350 millions à moins de cinq mètres au-dessus du niveau de l'eau, voir en dessous pour certains (Bengladesh, Pays bas, Camargue...). Toutes ces régions sont directement menacées par la montée des eaux consécutives à la fonte des glaces polaires. Pour d'autres la menace ne vient pas de l'eau mais plutôt de son absence, en Asie, en Afrique et en Amérique Latine la déforestation conjuguée à la hausse des températures accélère la progression des déserts menaçant encore plusieurs millions de personnes.

- Total se reconvertit dans le nucléaire

Total veut faire du nucléaire un de ses "coeurs de métier". Parmi les sujets connexes abordés lors de cette déclaration il a estimé que le prix du pétrole ne redescendra plus... jamais.


- La France abandonne les agrocarburants alimentaires

La France veut faire "une pause" dans les biocarburants de première génération, qui sont fabriqués à partir de plantes vivrières et sont accusés de concurrencer les cultures alimentaires.

"La position de la France est claire: cap sur la deuxième génération de biocarburants", c'est-à-dire des carburants fabriqués à partir de plantes non vivrières.

- L'Allemagne se lance dans le diesel de bois, de paille ou de résidus de lait

Les biocarburants de "deuxième génération" ou "synthétiques" se veulent inoffensifs pour le climat mais aussi pour la sécurité alimentaire.

Pas question par exemple d'utiliser des céréales: les expérimentations en Allemagne utilisent du bois, de la paille, des mauvaises herbes, ou des résidus de lait de l'industrie agroalimentaire. "La deuxième génération des biocarburants sera mûre en 2012-2014 au mieux. Croire que cela peut aller plus vite est illusoire", juge-t-il.

Sans compter que ces nouveaux produits sont encore loin d'être viables économiquement, avec un coût de production estimé à 1 euro par litre pour le diesel "au bois".

- Réchauffement : un petit répit avant de replonger

Ce modèle prédit que le réchauffement va se ralentir ces prochaines années pour ensuite s'accélérer, et qu'au moins la moitié des années postérieures à 2009 seront plus chaudes que 1998, l'année la plus torride jamais enregistrée. En d'autres termes, la planète va connaître un petit répit avant de se mettre à suer pour de bon. Selon les auteurs, la prochaine décennie représente un horizon avant lequel il faudrait adopter des mesures de planification pour la mise à niveau des infrastructures, la politique énergétique et le développement économique. Après les tensions seront plus grandes et agir dans l'urgence donne rarement de bons résultats.

- Mieux comprendre le phénomène climatique El Niño

Une des théories actuelles pouvant rendre compte de la nature quasi-cyclique d'ENSO (El Niño Southern Oscillation) est la théorie dite de "l'oscillateur rechargé déchargé". Selon cette théorie et diverses observations, le Pacifique équatorial (entre 5°N et 5°S de latitude) se recharge en eaux chaudes (de température supérieure à 20°C) avant l'apparition d'un évènement El Niño et s'en décharge durant sa phase mature, ces recharges / décharges se traduisant par des variations du niveau de la mer.

Les auteurs ont mis en évidence que ces anomalies de volume d'eau chaude du Pacifique équatorial sont égales à la somme des transports de masses d'eau à travers les frontières nord et sud de la bande équatoriale. Ils ont également démontré que la variabilité de ces transports méridiens à 5°N et à 5°S est principalement due à des ondes de Rossby équatoriales qui sont des ondes océaniques essentiellement engendrées par le vent et se propageant d'est en ouest. En se propageant, ces ondes modifient en effet la thermocline (profondeur de séparation entre les eaux chaudes de surface et les eaux froides des profondeurs) ainsi que le niveau de la mer, générant des anomalies de courants méridiens qui induisent le remplissage (ou la vidange) de la bande équatoriale en eaux chaudes avant (ou pendant) ENSO.

- Déclencher la foudre par laser

L'équipe de chercheurs franco-germano-suisse Téramobile a réussi pour la première fois à créer des micro-décharges dans un nuage d'orage grâce à un laser: un nouveau pas pour déclencher la foudre.

Pour dépasser le stade de la décharge couronne et déclencher des éclairs, il est nécessaire d'allonger la durée de l'ionisation générée par le laser, qui est actuellement limitée à une microseconde (un millionième de seconde). Les chercheurs travaillent donc à mettre au point un laser dix fois plus puissant, qui pourrait voir le jour d'ici deux ans et qui permettrait cette fois de déclencher la foudre.


Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie


- S'il y avait de la vie ailleurs, nous serions condamnés à mort !

Pour Nick Bostrom non seulement il est probable que nous soyons seuls sur la Terre comme je l'avais conclu moi-même (bien que je pense qu'il y a des formes primitives de la vie partout où c'est possible contrairement à lui), mais si on découvrait de la vie ailleurs, et encore plus de la vie évolué cela voudrait dire que non seulement les civilisations sont mortelles mais aussi les espèces les plus intelligentes. En fait la fréquence des catastrophes cosmiques serait une explication suffisante mais l'effondrement des sociétés n'est pas une découverte (cela commence au moins avec la période intermédiaire égyptienne mais pour les Hittites cela sera beaucoup plus rapide). Il y a surtout une erreur de raisonnement :

If it is true that almost all intelligent species go extinct before they master the technology for space colonization, then we must expect that our own species will, too, since we have no reason to think that we will be any luckier than other species.

Certes, on peut penser que si nous sommes les seuls ou les premiers, cela nous laisse plus de chance de survivre que si nous venons après d'autres intelligences extraterrestres qui auraient été complètement rayés de l'existence ensuite mais, dans le cas contraire, on n'en est pas condamnés d'avance pour autant. C'est ne pas tenir compte du fait que la vie procédant par essais/erreurs, il faut un nombre astronomique d'échecs avant d'avoir une réussite qui ensuite se reproduit (ampliation). La vie, l'information, l'intelligence, c'est l'improbabilité. On ne peut se contenter des probabilités ici (on ne paie de mots), ni croire pouvoir énoncer des lois de l'évolution implacables même si l'exception confirme la règle. Il y a donc bien peu de chance qu'on s'en sorte mais il faut compter sur l'improbable du facteur humain, il faut vivre et penser. Et si nous échouons, sur une autre planète un jour, dans un autre univers peut-être, d'autres survivront pour conquérir l'espace...

- Trop peu de temps pour exister

Les planètes du type de la Terre ont une période propice au développement de la vie trop courte pour envisager l'apparition d'une vie intelligente, selon une nouvelle étude.

Le professeur Andrew Watson, de l'Université d'East Anglia, ne croit pas aux extraterrestres ! Dans un article publié dans la revue Astrobiology, il estime que l'homme est probablement la seule espèce intelligente de l'univers. Il appuie son discours sur un modèle de probabilité mathématique prenant en compte quelques étapes clés dans le développement de la vie. Selon lui, il y avait moins de 0.01% de chances sur quatre milliards d'années que l'Homme apparaisse.

L'une des constatations qui le poussent au pessimisme est le fait que l'apparition de l'Homme soit extrêmement tardive dans l'histoire de la Terre. Alors que les premières traces de vie remontent à quatre milliards d ‘années, Homo sapiens ne parcoure la planète que depuis moins de 100 000 ans. C'est à dire à la fin de la période habitable de la Terre. Celle-ci sera effectivement beaucoup moins accueillante dans un petit milliard d'années, quand le soleil sera beaucoup plus chaud.

- Les oeuvres complètes de Darwin en ligne

43.000 pages et 150.000 dessins, y compris des documents manuscrits, sont désormais accessibles à tous, sous forme d'images ou de textes retranscrits.

- La fin des dinosaures

une nouvelle étude, publiée en mai dans la revue Geology, fait état de la découverte de petites billes, appelées cenosphères, dans les sédiments CT sur huit des treize sites examinés. Ces sphères microscopiques se forment suite à la combustion de charbon et de pétrole brut. Les chercheurs pensent donc que l'astéroïde de Chicxulub a pu s'écraser dans un immense réservoir de pétrole et projeter dans l'atmosphère d'immenses quantités de d'hydrocarbures enflammés. Cette boule de feu s'est propagée sur des centaines de kilomètres et a initié le processus d'extinction des grandes formes de vie en épargnant les plus petites comme les ancêtres des mammifères. Cette théorie permet d'expliquer la présence de suie dans les sédiments, elle n'apporte pas, en revanche, de précisions sur l'évolution de la Terre (réchauffement, nuage occultant, pluies acides...) immédiatement après l'impact.

- Des insectes de 100 millions d'années

Le rayonnement X puissant et pur de l'ESRF, associé à deux techniques de microscopie, a fourni de magnifiques images en trois dimensions de minuscules animaux inclus dans de l'ambre opaque depuis cent millions d'années.

- Des insectes se servent des plantes pour communiquer

Des insectes souterrains injectent des substances chimiques qui se retrouvent dans les feuilles des plantes qu'ils attaquent pour signaler aux autres insectes que la plante est déjà occupée !

- Les moustiques sont-ils en train de gagner la guerre ?

La plupart du temps, quand les insectes parviennent à résister aux insecticides, grâce à une mutation génétique, cela s'accompagne pour eux d'un "fardeau" génétique: ils résistent bien aux insecticides mais sont plutôt "handicapés" pour le reste (survie, fécondité, échappement à la prédation...). Et quand ils se retrouvent dans un environnement sans insecticide, ils se reproduisent beaucoup moins bien que les insectes n'ayant pas muté, les insectes dits "sensibles".

Des moustiques "double mutants", porteurs de deux gènes de résistance aux deux classes d'insecticides les plus utilisées dans le monde, ont été étudiés par des chercheurs du CNRS et de l'IRD. Ils montrent dans un article publié en ligne dans BioMed Central que ces mutations interagissent et augmentent le taux de survie des moustiques en absence d'insecticide.

Contrairement à ce que l'on pouvait penser, les "doubles mutants" ne sont malheureusement pas doublement "handicapés". Au contraire: leur fardeau génétique diminue. Ils sont donc résistants en présence des deux classes d'insecticides et plus en forme en leur absence...


- Découverte d'une grenouille sans poumons

Dans la jungle de Bornéo vit une énigmatique grenouille : dépourvue de poumons, elle respire grâce à sa peau. C'est le premier spécimen de ce type jamais découvert.

Les grenouilles vivent près de rivières agitées par de violents rapides et pour les traverser elles ont besoin de passer en profondeur, sous l'eau, or des poumons pleins d'air c'est un peu comme une grosse bouée : impossible de plonger.


- L'extraordinaire mobilité des récepteurs neuronaux

Les récepteurs des neurotransmetteurs se déplacent très rapidement. Une mobilité qui joue un rôle primordial, et jusqu'à présent insoupçonné, dans le passage de l'influx nerveux d'un neurone à l'autre. Ce mouvement contrôle ainsi la fidélité de transfert de l'information.

Quand un terminal pré-synaptique (en bleu) est stimulé par une série de potentiels d'action, le neurotransmetteur glutamate est libéré dans la fente synaptique (points rouges). Il se lie à des récepteurs du glutamate sur le neurone post-synaptique (jaune) et cela déclenche des courants ioniques (traces rouges), qui excitent le neurone post-synaptique. Si les récepteurs du glutamate sont mobiles (côté gauche), l'échange rapide des récepteurs permet une transmission fidèle de l'information. Lorsque ces récepteurs sont immobiles (côté droit), la réponse post-synaptique devient déprimée.

S'intéressant à la dynamique de ces récepteurs, les chercheurs viennent de révéler qu'une simple modification de leur mobilité a un impact considérable sur la transmission synaptique à haute fréquence, c'est-à-dire à des fréquences entre 50 et 100 Hz (ce sont celles qui interviennent lors des processus de mémorisation, d'apprentissage ou de stimulation sensorielle). Plus précisément, ils établissent que cette mobilité permet le remplacement en quelques millisecondes des récepteurs désensibilisés par des récepteurs "naïfs" au niveau de la synapse. Ce phénomène réduit la dépression synaptique (4) et permet aux neurones de transmettre l'information à plus haute fréquence. A l'inverse, si les récepteurs sont immobilisés, cette dépression augmente notablement, ce qui empêche la transmission de l'influx nerveux dans les synapses au-delà d'une dizaine de Hertz.

Allant plus loin, les scientifiques ont démontré que des séries prolongées de stimulation haute fréquence, qui induisent une augmentation du taux de calcium dans les synapses, provoquent l'immobilisation des récepteurs. Ils ont aussi prouvé que ces séries de stimulation diminuent la capacité des neurones à transmettre une activité à haute fréquence. La mobilité des récepteurs est donc corrélée à la fréquence de transmission synaptique, et par conséquent, à la fidélité de cette transmission.

Dans des conditions normales de fonctionnement du cerveau, on peut supposer que l'immobilisation des récepteurs, suite à une série de stimulation haute fréquence, est un mécanisme de sécurité. Il permettrait d'éviter que la série suivante ne surexcite le neurone post-synaptique. Une transmission fidèle de l'information entre deux neurones est bien entendu cruciale pour le bon fonctionnement du cerveau. De prime importance, ces résultats suggèrent que certains dysfonctionnements de la transmission neuronale sont dus à un défaut de stabilisation des récepteurs. Or, la stimulation électrique à haute fréquence de certaines régions du cerveau est utilisée pour traiter la maladie de Parkinson ou des troubles obsessionnels compulsifs (TOC). Son mécanisme d'action, aujourd'hui mal connu, pourrait faire intervenir la mobilité des récepteurs. Ces travaux permettent donc d'identifier de nouvelles cibles thérapeutiques et augurent d'éventuels médicaments pour traiter les troubles neurologiques et psychiatriques, résultant bien souvent d'une mauvaise communication entre neurones.


Santé


génétique, traitements, nutrition, hygiène


- Des cellules souches humaines à partir d'ovules de vache

Voilà de quoi alimenter d'interminables débats alors qu'il n'est pas du tout évident que ce soit une voie d'avenir. S'il n'y a pas de création d'organismes hybrides malgré les apparences, ce sont tout de même des cellules humaines avec des mitochondries de vache !

Pour éviter le recours à des cellules embryonnaires humaines, un biologiste britannique a cherché et réussi à utiliser des ovules de vache dont le noyau a été retiré et remplacé par celui d'une cellule humaine. A la clé : une voie thérapeutique nouvelle... et un débat de société.

A l'intérieur, les biologistes ont glissé un noyau prélevé sur une cellule humaine et reprogrammé pour qu'il devienne similaire à celui d'un œuf et non plus celui d'une cellule de peau. La cellule est devenue un embryon, qui a survécu trois jours, jusqu'au stade à 32 cellules, ce qui est insuffisant pour en obtenir des cellules souches.

Il ne s'agit bien sûr pas de réaliser une chimère, ce qui n'a d'ailleurs pas été fait puisque les cellules résultantes ont un génome purement humain.

- Des cellules cancéreuses peuvent contaminer leurs voisines

Certaines cellules tumorales sont capables d'envoyer des vésicules contenant des protéines oncogènes « contaminer » des cellules saines et leur faire adopter un comportement aberrant et malin.

Cela prouve que le cancer est un processus multicellulaire, où les cellules communiquent beaucoup entre elles. On entre en opposition avec la vision traditionnelle d'une unique cellule « mutée » qui se multiplie de façon incontrôlée jusqu'à former une tumeur.

- Un marqueur génétique prédisposant au cancer du poumon est identifié
Le Monde, Le Figaro, 04.04

Le fait que le facteur génétique soit relié aux récepteurs à la nicotine, renforce le caractère cancérigène du tabac (mais aussi des patchs à la nicotine?).

Trois études internationales, publiées dans Nature et Nature Genetics, concordent pour identifier un marqueur génétique présent chez une partie de malades atteints d'un cancer du poumon.

Toutes trois situent la variation incriminée dans une région du chromosome 15 où sont localisés des gènes codant pour des récepteurs à la nicotine.

Interpréter les résultats de ces études comme la preuve que seuls les porteurs d'un marqueur génétique de prédisposition feraient un cancer du poumon serait une grossière erreur. L'absence de ce marqueur ne signifie pas non plus une immunité vis-à-vis de cette maladie.

Alors que le risque pour un fumeur invétéré d'être atteint d'une tumeur maligne au poumon est de 16 %, il passe à 23 % s'il est porteur de variations sur les deux copies du chromosome 15, ce qui est loin d'être négligeable.

- Cancer du sein : les acides gras trans fortement suspectés

Une étude française indique que le risque de développer un cancer du sein est presque doublé chez les femmes dont le sang renferme une grande quantité d'acides gras trans. Déjà accusés de favoriser des maladies cardiovasculaires, ces composés, que l'on trouve surtout dans des produits industriels (comme les pâtisseries et les margarines) se retrouvent de nouveau sur la sellette.

Il paraît que les industriels maîtrisent de mieux en mieux l'élimination de ces gras trans, espérons-le...

- Soigner le cancer du sein par ultrasons
''La Croix, Les Echos"" 21.04

La Croix brosse le portrait de Jean Palussière, radiologue à l'Institut de cancérologie Bergonié à Bordeaux, où « ce spécialiste du cancer du sein et son équipe ont mis au point un nouveau procédé destiné à soigner les tumeurs par des ultrasons focalisés ».

Le journal remarque qu'« il lui aura fallu près de 10 ans de sa vie » et parle d'« avancée médicale majeure, qui pourrait révolutionner les techniques d'opération et éviter à certaines femmes l'ablation du sein ».

Non seulement leur appareil peut repérer la tumeur grâce à l'IRM, mais surtout il permet de piloter, avec précision, le faisceau des ultrasons, car il mesure en temps réel la température dans la zone à détruire.

Les tests n'ont pour l'heure été réalisés que sur des animaux. D'ici à la fin de l'année, 10 patientes vont tester l'efficacité de ce traitement. Si les résultats sont positifs et le procédé validé par le Comité d'éthique, la machine pourrait être installée dans les hôpitaux à l'horizon 2010.

De leur côté, Les Echos s'intéressent à « l'électroporation contre les tumeurs ».

Plusieurs pays européens commencent à utiliser un nouveau traitement anticancéreux à base d'impulsions électriques.

Cette méthode électrochimique exploite le fait que les membranes des cellules s'ouvrent aux molécules extérieures sous l'action d'un champ électrique. L'effet est d'autant plus intéressant qu'il impacte surtout les cellules en division, donc les tumeurs.

- Les statines contre le cancer

L'importance de l'inflammation dans le développement des cancers promet un rôle renforcé des statines qui sont utilisés pour baisser le cholestérol mais qui ont aussi un effet anti-inflammatoire ou anti-oxydatif (sans doute plus important que la baisse du cholestérol lui-même dont l'intérêt a été mis en doute).

Ces résultats - probants - pour ce qui concerne les fortes doses qui sont bien associées à une réduction globale du nombre de cancer, ne manquent pas d'interroger une fois encore sur le polymorphisme d'action des statines.

- Des nanoparticules magnétiques pour guider des globules blancs sur les tumeurs

Claire Lewis et Munitta Muthana, chercheurs à l'Université de Sheffield ont, avec leurs collègues, concrétisé une idée brillante. Comme ils l'expliquent dans le journal Gene Therapy, ils ont injecté dans les monocytes des nanoparticules magnétiques. Cela peut surprendre mais de telles particules sont présentes dans certaines bactéries et sont parfaitement bien tolérées par ces organismes vivants.

Après avoir réussi à insérer ces nanoparticules dans les monocytes, et ces derniers ayant été injectés dans des souris malades, les chercheurs ont alors utilisé des champs magnétiques pour attirer les cellules traitées vers les tumeurs. Ils se sont alors aperçus que la quantité de monocytes porteurs de la thérapie génique ayant pénétré dans les tumeurs avait bien augmenté.

Lewis pense que cette nouvelle technique a un grand potentiel en thérapie génique et pas uniquement pour le cancer. Elle cite par exemple des problèmes d'arthrose ou d' ischémie myocardique conduisant à des problèmes cardiaques.

- Une chimiothérapie avec des doses milles fois plus petites grâce aux nanoparticules

La chimiothérapie peut être une arme efficace dans la lutte contre le cancer. Malheureusement, les doses nécessaires de produits actifs ont souvent des effets secondaires indésirables. Cela pourrait changer grâce à l'emploi de nanoparticules recouvertes des substances actives. Une étude récente montre qu'une dose mille fois moins forte de produits suffit à traiter certaines tumeurs.

- Chimiothérapie : l'effet jeûne
L'Express numéro 2961

Le fait de jeûner pendant 2 jours avant une chimiothérapie pourrait protéger les cellules saines de l'organisme sans diminuer l'efficacité du traitement.

Une équipe de Los Angeles (Etats-Unis), associée à l'hôpital Gaslini, à Gênes (Italie), est parvenue à ce constat grâce à une expérience menée sur des souris.

Les chercheurs ont injecté aux rongeurs des cellules cancéreuses humaines. Puis ils les ont séparés en deux groupes : d'un côté, les souris nourries normalement ; de l'autre, celles qui avaient été soumises à deux jours de jeûne.

Ils ont ensuite administré à toutes une dose élevée de chimiothérapie.

Dans le premier groupe, la moitié étaient mortes et les autres, très affaiblies. Dans le second, les souris ne manifestaient aucun signe d'épuisement et le traitement a permis de prolonger leur vie.

Selon le responsable de l'étude, Valter Longo, les cellules saines soumises au jeûne se mettent en sommeil, ce qui les rend résistantes aux agressions. Les cellules cancéreuses continuent à proliférer, mais sont vulnérables à la chimiothérapie.

- L'eau est à consommer avec modération...
Le Parisien 22.04

Il y a une polémique sur l'eau depuis qu'une étude a conclu qu'il ne servait à rien d'en boire ! S'il était salutaire de contredire les publicités féminines qui prétendent que boire aiderait à maigrir, il faut se méfier de ces études isolées, comme celles qui concluent à la nocivité des vitamines. Cela dépend des gens et si boire ne sert à rien quand on est en bonne santé, c'est souvent utile quand on prend de l'âge au moins. De même, parler de la qualité de l'eau du robinet dépend énormément d'où l'on est !

Le Parisien indique en effet que selon une étude américaine qui « contredit pas mal d'idées reçues », parue dans le Journal of the American Society of Nephrology, « boire une bouteille d'eau par jour n'est pas nocif, mais ne sert à rien. Ni à maigrir, ni à éliminer, ni à se sentir mieux ».

Pour en arriver à ces conclusions, deux chercheurs de l'université de Pennsylvanie à Philadelphie ont étudié la littérature scientifique concernant les supposés bénéfices de cette consommation en eau, et ils n'ont rien trouvé de particulièrement probant et de prouvé.

On entend souvent que boire 1,5 l d'eau permettrait d'éliminer davantage de toxines. C'est archifaux. Les reins éliminent les toxines, consommer plus d'eau va générer plus d'urine, mais pas plus de toxines dans cette urine.

Le spécialiste ajoute qu'« on n'a jamais vu quelqu'un perdre du poids en buvant de l'eau. Il faut que les femmes arrêtent de se gâcher la vie en trimbalant partout leur bouteille en plastique ».

Nos besoins journaliers en eau sont apportés à 80 % par notre alimentation. (...) Pour le reste, il suffit d'écouter son corps et de boire quand on a soif.

- La lutte contre le syndrome métabolique fait débat au Japon
Le Monde 29.04

Alors que l'existence même ce qu'on appelait aussi le "syndrome X" était mis en doute jusqu'à récemment, on s'aperçoit qu'il pourrait toucher 50% des hommes de plus de 40 ans ! On se dispute sur le tour de taille mais on ne fait pas le rapport encore avec l'andropause, semble-t-il...

Soucieux de réduire les dépenses de santé, le gouvernement japonais a lancé, début avril, une campagne controversée de lutte contre le syndrome métabolique.

Ce syndrome est lié aux habitudes de vie et est susceptible de provoquer des maladies cardiovasculaires et du diabète. Il est diagnostiqué en cas d'obésité abdominale élevée associée à deux critères parmi les quatre suivants : taux élevé de triglycérides, glycémie trop importante, faible niveau de cholestérol HDL et hypertension artérielle.

En 2004, les autorités nippones ont mené une étude auprès de 3 900 personnes de 20 ans et plus. Il est apparu que 23 % des hommes et 9 % des femmes souffraient du syndrome. Chez les plus de 40 ans, la proportion passait à près de 50 % chez les hommes et 20 % chez les femmes.

Ces conclusions ont conduit le gouvernement à lancer une campagne qui oblige tous les Japonais de 40 à 74 ans à se soumettre à une mesure de leur tour de taille.

Les personnes examinées seront ensuite classées en trois catégories. Les sujets les plus sensibles au "métabo" devront suivre des sessions afin de modifier leurs habitudes de vie.

Les critères retenus fixent à 85 cm pour les hommes et 90 cm pour les femmes la limite au-delà de laquelle le syndrome peut être diagnostiqué. Or les recommandations de la Fédération internationale du diabète situent, pour les Japonais, ces limites à 90 cm pour les hommes et 80 cm pour les femmes !

- Plus de chances d'avoir un garçon avec une alimentation riche
Le Figaro 23.04

Un apport calorique important au moment de la conception favorise la naissance des garçons, (...) alors qu'un régime hypocalorique aurait tendance à sélectionner des filles.

Les chercheurs ont aussi pu mettre en évidence une forte corrélation entre la consommation de céréales au petit déjeuner et la naissance de garçons.

- Antidépresseurs : les risques durant la grossesse
Le Figaro 22.04

Une expérience conduite par une équipe de l'Inserm montre que des souriceaux exposés à ces psychotropes ont des troubles du sommeil à l'âge adulte, (...) celui-ci étant fragmenté et peu réparateur. Des perturbations proches de celles observées dans la dépression et qui persistaient tout au long de leur vie.

La régulation du sommeil se programme dans les toutes premières années de vie. Cette période serait essentielle au bon fonctionnement des neurotransmetteurs cérébraux qui font en particulier intervenir la sérotonine dans la régulation du sommeil.

Il est avéré que les perturbations du fonctionnement de ce système provoquent des troubles du sommeil, de l'anxiété, voire de la dépression.

Or chez les personnes dépressives, la plupart des traitements sont à base d'inhibiteurs de la recapture de la sérotonine, qui agissent en augmentant artificiellement son taux dans la synapse.

Ces travaux nous donnent à penser que les 3 premières semaines de vie chez la souris constituent une période critique durant laquelle s'installe et se consolide l'impact du système sérotoninergique sur la régulation du sommeil et des comportements émotionnels. Et une fois ce système mis en place, il semble qu'il ne soit plus possible de le modifier.

- Des antidépresseurs peuvent améliorer la vision!

Des essais ont montré que le Prozac agissait sur la plasticité des neurones liés à la vision et pourrait donc servir à corriger certains types de déficiences visuelles.

Ils offrent aussi une piste pour répondre à la question encore en suspend de savoir comment les antidépresseurs aident à réguler l'humeur des patients déprimés en suggérant que la plasticité cérébrale pourrait jouer un rôle important dans ce processus. Les scientifiques ont donné des doses normales de fluoxétine à des rats adultes dont la vision avait été perturbée par l'absence d'exposition à des images au cours d'une période critique de leur développement précoce (!). Les chercheurs ont détecté dans le cerveau des animaux des changements dans l'expression de protéines et les communications électriques indiquant que le traitement avait rétabli la plasticité neuronale dans le système visuel des rats et favorisé la récupération de leur vision.

- Vers un test de la dépression ?
L'Express numéro 2961

Ce pourrait être une révolution : des médecins de l'université de l'Illinois (Etats-Unis) ont découvert un marqueur biologique propre à la dépression, qui pourrait déboucher sur un test de dépistage.

Il s'agit d'une protéine (Gs alpha), qui modifie la transmission de certains neuromédiateurs dans le cerveau. On la trouve en quantité égale chez les individus normaux et les déprimés, mais, chez ces derniers, elle a tendance à s'accumuler à des endroits spécifiques sur la membrane des cellules, bloquant ainsi les capacités de communication.

A prendre avec des pincettes quand même car cela paraît un peu douteux.


- La régénération totale du cerveau

La cytokine était auparavant utilisée comme stimulateur sanguin. Mais il s'est avéré qu'elle était capable de provoquer l'arrivée dans le sang de cellules souches, dont les réserves sont quasiment inépuisables.

L'expérimentation animale a montré que dans les cas de détérioration de l'encéphale accompagnés de dommages psychoneurologiques et somatiques graves, le rétablissement après traitement à la cytokine est quasiment total.


- Alzheimer : alcool et tabac facteurs aggravants
Le Figaro 18.04

Ces dernières années, des travaux concordants de plus en plus denses indiquent que cette affection dramatique serait aussi liée à notre mode de vie.

Et il apparaît que les facteurs qui affectent le cœur, notamment ceux responsables de lésions coronariennes, altèrent aussi le fonctionnement du cerveau avec l'âge.

Cette démence fréquente frappe plus précocement les gros fumeurs et les buveurs invétérés.

Une autre étude dévoilée lors de cette conférence soutient que les personnes ayant une hypercholestérolémie dans leur quarantième année, ont un risque accru aussi d'en souffrir plus tard. Un troisième travail affirme, lui, qu'avoir un gros ventre en milieu de vie est également associé à plus de risque plus élevé.

Dans cette maladie, il y a la conjonction de lésions au niveau de la microcirculation du cerveau et des dépôts de plaques amyloïdes. En agissant sur les facteurs de risque vasculaire, c'est-à-dire en arrêtant le tabac, en traitant l'hypertension, le cholestérol, le diabète, en pratiquant de l'exercice physique, on retardera à l'évidence l'apparition de la maladie.

- Le GHB, un psychotrope en vogue pouvant provoquer la mort
Libération 25.04

Le GHB a été découvert par Henri Laborit, sous le nom de Gamma OH, dont il faisait grand cas mais son point faible c'est l'alcool qui rend sa consommation dangereuse.

Libération consacre une page au GHB, ou acide gamma-hydroxybutyrique, « connu comme la «drogue du violeur» », psychotrope « en vogue » dont « les effets désinhibants peuvent provoquer la mort ».

LObservatoire français des drogues et toxicomanies s'inquiète, dans son dernier rapport, Trend (Tendance récentes et nouvelles drogues), de cette mode.

L'observatoire rapporte «un développement de l'usage dans le cadre des afters», ainsi qu'«une augmentation des comas consécutifs à la consommation de cette substance».

Libération cite un musicien, Yiss, qui remarque que le GHB « est complètement banalisé. J'ai vu des gens tomber comme des mouches. Sur les dancefloors, tout le monde a sa petite bouteille d'Evian avec de la menthe et du GHB ».

Le phénomène reste mal connu : « A l'hôpital, on vous demande ce que vous avez pris. Vous répondez du GHB. On vous demande alors qui vous l'a versé dans votre verre. Ils pensent à la drogue du violeur. L'usage récréatif est encore méconnu ».


- Un patch pour tester la sueur

La plupart des vêtements conçus pour la surveillance de la santé mettent l'accent sur des mesures physiologiques, tels que la température du corps et le rythme cardiaque. C'est l'une des premières tentatives visant à analyser en permanence les signaux biochimiques en utilisant les vêtements. L'équipe a utilisé une approche novatrice pour la surveillance: une combinaison de fils hydrophiles et hydrophobes tissés ensemble pour canaliser la sueur aux capteurs. En utilisant l'attraction et la répulsion naturelle pour déplacer la sueur, la méthode évite aussi la nécessité de nouvelles sources d'énergie.

Une fois que le tissu a capté quelques millilitres de sueur dans le patch, les capteurs déterminent la quantité de potassium, de chlorure ou de sodium. Mesurer ces électrolytes peut donner un bon aperçu du métabolisme de la personne.

- Première pose de rétine artificielle
Le Parisien 11.04

Une première pose de rétine artificielle chez un homme devenu aveugle a été réalisée en France à la mi-février, à l'hôpital parisien des Quinze-Vingts.

Après une longue rééducation, l'opéré ne retrouvera pas une vision normale, mais il reconnaîtra des formes et pourra s'orienter dans son univers familier.

La prothèse de rétine comporte des photorécepteurs, (...) transformant le signal lumineux en signal électrique transmis au cerveau par le nerf optique.

- Des nanofibres pour réparer la moelle épinière


Une lésion de la moelle épinière, provoquant chez des souris une paralysie des membres inférieurs, a pu être réduite, immédiatement après l'intervention, grâce à l'injection d'une substance liquide - là est la nouveauté -, formant ensuite un réseau de nanofibres organiques facilitant la repousse des cellules nerveuses.


- Le sang artificiel à l'origine d'une surmortalité importante
Le Figaro 30.04

Le Figaro annonce qu'une étude américaine « montre que la transfusion des substituts de sang serait responsable d'une surmortalité significative, par rapport aux transfusions effectuées avec des dérivés naturels ».

Le Dr Charles Natanson, des Instituts nationaux américains de la santé, a constaté que des hémoglobines artificielles administrées dans le cadre d'essais cliniques de phase III ont provoqué une hausse de 30 % du risque de mortalité avec 59 crises cardiaques fatales contre 16 survenues dans le groupe témoin.

Au total, 164 personnes traitées avec des sangs artificiels sont décédées contre 123 dans les groupes témoins ayant reçu des transfusions de sang naturel.


Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique, économie


- Un maïs OGM qui digère sa propre celulose

Pour faire des agrocarburants à partir du maïs, la difficulté c'est la cellulose. C'est pourquoi un maïs OGM vient d'être produit capable de digérer sa cellulose (seulement une fois moissonné) pour la transformer en sucres qu'on peut facilement transformer en éthanol ensuite par fermentation.

Pour éviter la possibilité de transférer des gènes à d'autres cultures ou des plantes sauvages, les enzymes seront produites dans les feuilles et tiges, non pas dans ses graines, les racines ou le pollen. De plus, pour empêcher le maïs de se digérer lui-même, les plantes on été conçues de telle sorte que les enzymes s'accumulent dans des compartiments intérieurs des cellules, appelées vacuoles. Les cellulases ne sont relâchées qu'une fois la plante récoltée, pendant la transformation.

- Une maison écolo à 100 000 euros

En 2012, les bâtiments devront consommer au maximum 50 KWh/m² /an, contre 80 à 130 actuellement. Anticipant ces nouvelles normes, Pascal Benveniste, fondateur et président de Eneovia, propose dès aujourd'hui de construire des maisons respectant ces réglementations pour la somme de 100 000 euros, hors terrain.

Les premières maisons vendues à des particuliers vont être construites à parti du mois de juillet dans la Somme. Les maisons de 80 à 100 m² sont entièrement fabriquées avec des matériaux et des techniques durables : béton cellulaire avec isolation par l'extérieur, pompe à chaleur, récupérateur d'eau, capteurs solaires, eau sanitaire chauffée...

- Des éoliennes sur plateforme

Les éoliennes sur plateforme permettraient d'implanter des éoliennes à plus de 32 km des côtes là où le vent est plus fort.

- Des hydroliennes au fond de la mer

Cet engin de sept tonnes n'est qu'un prototype à l'échelle un tiers, conçu par la société Hydrohelix Energies, qui fonctionnera durant 4 à 6 mois pour tester l'exploitation d'une source d'énergie renouvelable : le courant.

Ce gisement inexploité d'énergie est présent partout où il y a du courant : dans les fleuves, dans les zones de battements des marées et les endroits où sévit régulièrement un courant marin. Il faut également une profondeur suffisante pour ces engins immergés, posés ou ancrés sur le fond, afin qu'ils ne gênent pas la navigation.


- Premier vol d'un avion piloté électrique à piles à combustible

Les ingénieurs de Boeing ont réussi à faire voler, pour la première fois au monde, un avion piloté sur la seule ressource de piles à combustible embarquées.

Déjà il y a un an, un modèle réduit d'avion avait volé sur la seule force de son moteur électrique alimenté par une pile à hydrogène. Mais aujourd'hui, c'est d'un véritable avion emmenant son pilote qu'il s'agit, avec la promesse d'évoluer progressivement vers un appareil plus important capable d'emmener une vingtaine de passagers.

- Le point faible des voitures électriques : le chauffage

C'est une assez mauvaise surprise ce problème imprévu mais il faut absolument trouver des alternatives aux systèmes de chauffage qui utilisent la chaleur des moteurs thermiques, faute de quoi les voitures électriques sont inutilisables par temps froid. C'est un vrai problème pour lequel il n'y a pas de solution actuelle. Les projets à plus long terme sont très coûteux.

- Un "poumon géant" pour combattre la pollution

On l'appelle le "super arbre", mais ses inventeurs préférent parler d'un "poumon géant" pour qualifier cette machine de cinq mètres de haut, aspirant les particules et les gaz nocifs tout en recrachant de l'oxygène, et qui pourrait être une solution pour les villes fortement polluées comme Lima, la capitale péruvienne.

La machine, explique à l'AFP M. Gutierrez, permet de purifier 200.000 m3 d'air par jour, ce qui équivaut à la respiration de 20.000 personnes, et quant au gaz carbonique l'invention remplace avantageusement 1.200 arbres.

De plus, ce purificateur urbain "traite l'oxyde d'azote et l'oxyde sulfureux, retient les particules de carbone et de salpêtre, l'abestos des plaquettes de frein des voitures et jusqu'aux particules de caoutchouc provenant de l'usure des pneus".

Le PAU-20 ressemble à une grande boite bleue de 3,5 mètres sur 2,5 avec des grilles pour l'aspiration sur ses quatre côtés, placées très bas à 65 centimètre (juste à la hauteur des pots d'échappement) et mesure cinq mètres de haut.


- Des mémoires nanométriques contruites avec une protéine

Nouvelle technologie de réalisation de cellules mémoire utilisant une protéine animale, la ferritine, qui a la propriété de s'auto-organiser. L'emploi de cette protéine permet de façonner des structures à l'échelle nanométrique, plus simplement qu'avec les technologies lithographiques traditionnelles. Ceci devrait permettre de développer une puce de la taille d'un timbre et qui aurait une mémoire de 1 Téraoctet.

- Les fullerènes C60 non toxiques pour les "bons" microbes

Même si la plupart des nanoparticules utilisées dans des procédés industriels ne sont pas toxiques à faible dose (ce qui n'est pas toujours totalement démontré), il reste difficile de prédire quel pourra être leur impact sur l'environnement dans l'hypothèse où de fortes concentrations s'y disperseraient. Une équipe de chercheurs de Purdue University vient de publier une des premières études qui se focalisent sur l'impact des fullerènes C60 (molécules composées de 60 atomes de carbone disposés en sphère) sur l'environnement, en s'intéressant à leur effet sur la bio activité de micro-organismes.

Ils ont ainsi observé qu'en présence de C60, les microorganismes ne sont pas tués et gardent leur activité, même pour des concentrations très élevées, jusqu'à 50g de C60 pour 1kg d'eau.

- En leur ajoutant un électron les fullerènes réagissent comme l'hydrogène

Des chercheurs de l'Université de Pittsburgh ont eu l'idée d'introduire un électron dans une molécule de C60.

Etonnamment, la distribution de probabilité donnée par la fonction d'onde d'un tel électron dans du C60 s'est trouvée être proche de celle d'un électron dans un atome d'hydrogène. On a alors ainsi obtenu une sorte d'atome d'hydrogène artificiel, ressemblant même à des atomes dits hydrogénoïdes comme le lithium, le sodium et le potassium, en raison de la présence d'un seul électron sur la couche électronique supérieure de ces atomes.

Lorsque que plusieurs C60 ont été associés pour former un filament dont la section était de la taille d'un buckyball, l'ensemble s'est trouvé être aussi conducteur d'électricité qu'un filament constitué de métal.

On dispose ainsi de nouvelles possibilités pour développer une électronique moléculaire plus miniaturisée et moins coûteuse que l'électronique standard largement basée sur le silicium et le cuivre.

- Le futur des nanotechnologies : nano-usines et scénarios catastrophes

Les sociétés riches seront-elles libérées de leur dépendance envers la main d'oeuvre des pays pauvres grâce aux nano-usines personnelles et “libres” ? Ces dernières accroîtront-t-elles, dans le même temps, la capacité de nuisance des terroristes et des “pays voyous” ? La brevetabilité des molécules entraînera-t-elle des conflits internationaux entre ceux qui possèdent les brevets et ceux qui ont besoin de s'en servir pour tout simplement survivre ? Tout ceci finira-t-il dans une troisième guerre mondiale bien plus dévastatrice que les deux précédentes ?

Ce n'est pas très sérieux, surestimant les capacités des nano-usines (construire des objets atome par atome prend un temps infini), discussions sur des abstractions sans aucune réalité même s'il y a un véritable danger à pouvoir produire n'importe quelle molécule. Si les imprimantes 3D peuvent accélérer le déclin de l'industrie, ce ne sera sûrement pas des nano-usines.

- Les nanosciences : avancées, risques, problèmes sociétaux, éthique

Devant les risques induits, physiologiques, sociétaux et éthiques, il convient d'accompagner, voire de devancer, cette révolution. Une recherche systématique sur les risques toxicologiques des nanoparticules doit être menée, impliquant la protection des personnes et la création de laboratoires ou d'équipes de recherche spécialisés, aussi bien dans le domaine public que privé.

- Des “poussières intelligentes” pour surveiller l'internet des objets... et leurs utilisateurs

Jusqu'ici, ces “poussières intelligentes” n'existaient qu'à l'état de fantasme. Annoncé en novembre dernier, le système “clandestin” de vidéosurveillance RFiD de Nox Defense est probablement le premier à concrétiser -et commercialiser- une telle menace.

Mieux : le système propose également de “saupoudrer” à même le sol des “poussières d'identification” (”ID-Dust“) afin qu'elles se collent aux semelles des “voleurs et intrus (qui) ne voient rien : seul les employés de la sécurité connaissent l'existence du système et le personnel est surveillé sans son consentement“.


- Des communications parfumées

Pourrons-nous bientôt télécharger des odeurs sur notre téléphone mobile ? C'est en tout cas ce que va expérimenter, avec une poignée d'abonnés, l'opérateur japonais NTT Communications.

- Tenori-On, l'instrument de musique du troisième type

Ce cadre de 20 centimètres de côté, pour 32 millimètres d'épaisseur, abrite un séquenceur seize pistes, un générateur de sons (253 types différents) et deux écrans tactiles, l'un pour le musicien et l'autre, au verso, pour les spectateurs (746€).

Présenté à l'automne dernier, cet étrange synthétiseur de Yamaha ne ressemble à rien de connu mais a fait un tabac en Grande-Bretagne, le marché test. Il est aujourd'hui présenté officiellement.

Effleuré du doigt, un cercle s'allume et produit un son, d'autant plus aigu qu'il est situé vers le haut de l'écran et que l'on aura choisi parmi les 253 sons que connaît ce synthétiseur. En prolongeant l'appui, on enregistre le son. On peut ainsi inscrire de nombreuses notes qui seront jouées de façon répétitive. La musique se construit, note par note, à mesure que l'on dessine des motifs lumineux sur l'écran.

- Jouer au ping pong à distance !


- Un robot pompier


- Utiliser des portables pour détecter les séismes

Certains portables, comme les récents modèles d'Apple, comportent un accéléromètre, autant dire un sismomètre. Il n'en fallait pas plus pour donner à un groupe de géologues l'idée d'un projet sur le style de Seti@home pour surveiller les séismes autour de la faille de San Andreas, en Californie.

Pour protéger les ordinateurs portables en cas de chute, certains constructeurs leur ajoutent un accéléromètre, capable de détecter des mouvements brusques selon les trois axes. En cas de choc, la tête du disque dur, un élément très fragile, est mécaniquement bloquée pour éviter une déformation ou un contact avec la surface du disque. Depuis 2005, les modèles portables d'Apple (MacBook, PowerBook et iBook), sont équipés d'un système de ce type, et on en trouve également dans les portables d'Acer, HP et Lenovo (ex IBM).

« Nous n'essayons pas de prévoir les séismes, explique Jesse Lawrence au magazine Technology Review. Nous essayons d'obtenir des informations très rapidement pour pouvoir prévenir les populations. »

- InPhase lance ses disques holographiques

"La capacité de 300 Go par disque, le tranfert à haut débit ainsi que la durabilité des données archivées font du système holographique d'InPhase une solution unique et véritablement puissante pour l'archivage et l'édition de vidéos".

Seuls les tarifs de ces disques holographiques pourraient limiter la clientèle intéressée. Comptez à ce propos la somme de 180 $ pour l'achat d'un seul disque et 18 000 $ pour le graveur compatible.

- Une imprimante 3D auto-réplicatrice !

RepRap, comme Fab@Home, est une imprimante 3D dont les spécifications sont disponibles en open source. Chacun devrait donc être en mesure non seulement de fabriquer cette machine, mais également d'en produire d'autres, ou de la réparer lui même. L'équipe de conception travaille également sur une autre machine, le “RepStrap” : il s'agit d'une imprimante 3D “simplifiée” dont l'unique but est en fait de créer les composants de la RepRap, à savoir mouler les pièces en plastique qui entrent dans sa fabrication.

Si à l'heure actuelle nombre d'éléments de la RepRap sont effectivement susceptibles d'être générés par elle-même, d'autres font encore de la résistance, les circuits électroniques, notamment. Pour l'instant, nous explique Computer World, RepRap est capable de couler deux sortes de plastique. Mais les concepteurs du projet envisagent d'utiliser des têtes “d'impression” capables de déposer du métal, et même de permettre à l'imprimante de produire des objets de métal insérés dans du plastique. Selon Vik Olliver, membre de l'équipe, “cela devrait permettre, en théorie, de bâtir des structures comme des moteurs”.

RepRap, qui apparait comme l'aboutissement du concept d'imprimante 3D, va-t-elle transformer chacun en concepteur d'objets, mettant fin, si l'on en croit certaines prévisions, à l'ère de la production de masse ?

- Les premiers érans 3D

"En 2008, des millions de téléviseurs, compatibles avec les contenus 3D stéréoscopiques, seront achetés par les consommateurs. Les ventes de téléviseurs DLP, PDP, et LCD en 2008, capables d'assurer des performances de qualité HD-3D stéréoscopique, devraient dépasser les 2 milliards de dollars".


- Google Earth en 3D

Impressionnant !

- Virtual Earth de Microsoft concurrence Google Earth

Lancé par Microsoft dans l'optique de contrer Google Earth, Virtual Earth semble en passe de rattraper son concurrent. Le service, dont les images satellite et 3D sont accessibles également dans le portail cartographique Live Maps, propose ainsi depuis deux semaines des vues 3D d'un haut niveau de précision.


- Une carte des liaisons internet

A chaque instant, un certain nombre de routeurs ne répondent plus. Ces trous noirs momentanés sont localisés grâce à un instrument opportunément baptisé Hubble, générant une carte désormais accessible sur le Web et mise à jour tous les quarts d'heure.

On peut jeter un œil sur cette carte lorsque l'on se sent victime d'une perturbation du réseau mais l'interprétation n'est pas vraiment facile. Cette information servira surtout aux professionnels du Web, comme les fournisseurs d'accès.


- Où sont les coopérations fortes ?

Une critique bienvenue du Web 2.0 et des limites des coopérations faibles, contredisant Charles Leadbeater, célèbre chercheur associé à Demos, le think tank britannique, qui vient de publier "We Think : l'innovation de masse, pas la production de masse" :

“Si d'ingénieux concepteurs de jeux peuvent inspirer des milliers de personnes à collaborer pour résoudre un casse-tête en ligne, pourrions-nous faire quelque chose de similaire pour lutter contre le réchauffement de la planète, soutenir les personnes âgées, aider les victimes de catastrophes, prêter ou emprunter de l'argent, discuter de politique et de décisions publiques, enseigner et apprendre, concevoir et fabriquer des produits ?”

- Notre réseau social est bien limité à 150

C'est ce que pensait l'anthropologue britannique Robin Dunbar lorsque, dans L'hypothèse du cerveau social (.pdf) il évaluait à 150 la limite cognitive du nombre de personnes avec lesquels un individu peut entretenir des relations stables. Or, selon le fondateur de Facebook que cite le blog du New Scientist, notre nombre d'amis sur ce site social tourne en moyenne entre 125 et 130 personnes.

On pouvait croire naïvement que “théoriquement, la réduction de la friction avec un réseau social en ligne devrait élargir exponentiellement notre cercle de connaissances sociales”. C'est un peu comme la croyance qu'un pouvoir totalitaire pourrait tout savoir grâce à la technique mais en fait, on ne peut augmenter notre nombre de relations ni le nombre d'informations traitées par chacun (il y a substitution des nouvelles sources d'information aux anciennes plus qu'elles ne s'ajoutent) et contrairement à ce qu'on croit la multiplication des informations est un facteur de liberté qui augmente notre ignorance bien plus qu'il ne complète notre savoir.

Quand à la prépondérance des relations de face à face on peut y voir un besoin de l'espèce mais il me semble qu'une raison essentielle qui distingue un e-mail d'un coup de téléphone et encore plus d'une réunion physique c'est qu'il est trop facile d'éviter la relation électronique alors qu'on est obligé de répondre au téléphone et que dans une réunion il faut être présent aux autres. C'est le caractère "inévitable" de la présence physique, plus que les phéromones, qui en fait une présence pleine que ne remplaceront jamais les relations virtuelles dont les vertus sont inversées par rapport à la proximité des corps car les relations lointaines sont par contre toujours accessibles, en ligne, et souvent d'autant plus complaisantes qu'elles ne connaissent de nous que ce que nous voulons bien en laisser paraître...

- En chair et en bits

Tout indique aujourd'hui que le corps - biologique, charnel, sensible, physique - devient la prochaine frontière du numérique. Le signe le plus visible en est le succès totalement inattendu de la console Wii de Nintendo, utilisée bien au-delà du jeu dans des programmes de remise en forme, des tests psychologiques, des maisons de retraite.

Les sens - tous les sens et la totalité des sens - sont concernés, et les prochaines générations de sex toys seront forcément numériques et en réseau.

Si l'interpénétration du corps et du numérique nous effraie avec raison, reconnaissons qu'elle nous attire tout aussi fort. Et il y a par conséquent de forte chances que, tout en dénonçant avec vigueur l'avènement de l'homme bionique, nous nous affairions avec délice à le devenir un peu, chacun à notre manière.

- Effacer les frontières entre l'homme et l'ordinateur

Microsoft Research a mené depuis 2007 un autre atelier de prospective sur l'évolution des interfaces hommes machines (IHM) et vient de publier une imposante synthèse (.pdf) sur ce que devraient être ces interfaces en 2020.

Selon ArsTechnica, le rapport conclut que, d'ici 2020, la parole et les gestes joueront un rôle capital dans nos relations aux machines. Les influx nerveux commenceront à être utilisés pour contrôler les ordinateurs, notamment pour les handicapés. Le rapport prédit aussi que la connectivité omniprésente permettra aux systèmes informatiques d'agir comme substituts pour la mémoire humaine, et, lorsqu'ils seront combinés avec le renforcement de la puissance de traitement, nous permettront de commencer à compléter le raisonnement humain. La traçabilité de nos déplacements et actions ne vont cesser de s'accélérer et de s'élargir, soulevant de graves problèmes de confidentialités. Dans le domaine médical, la frontière entre l'humain et l'ordinateur, via des dispositifs médicaux implantés, tend à s'effacer.

Se référant aux systèmes de navigation par GPS, les auteurs notent que “si les gens sont prêts à obéir bêtement aux instructions données par de simples ordinateurs, nous devrions nous préoccuper d'autant plus de la relation entre hommes et machines, d'autant plus si celle-ci est appelée à devenir plus fréquente, plus complexe.” Pour cela, les auteurs recommandent instamment d'ajouter une cinquième étape aux processus de conception (qui se caractérise en quatre grandes étapes : étudier, concevoir, construire et évaluer) : comprendre. A une époque où les données sont appelées à être stockées et partagées en permanence, les concepteurs devront prendre en compte les valeurs humaines, telles que la confidentialité, la sécurité, la morale, l'éthique...

Désormais, les espoirs et les objectifs des gens doivent être incorporés dans le processus de développement de la technologie, et ce dès le début, parce que cela fait une grande différence dans ce que les technologies finissent par devenir.

- Pour une écologie informationnelle

Une écologie informationnelle n'est pas une utilisation durable de nos outils numériques - qui est aussi un problème important, mais ce n'est pas le même -, mais une utilisation durable de “notre temps de cerveau disponible”. Car si l'information et notre attention sont une matière première, au même titre que le charbon ou le pétrole, il faut reconnaître la valeur de l'activité qui en résulte et les effets néfastes des abus, des excès, des saturations nés des systèmes et des pratiques, notamment numériques.

- Wikipedia débarque sur papier

Le géant des médias allemand Bertelsmann a annoncé mercredi qu'il allait commercialiser en septembre, pour la première fois au monde, une version imprimée sur papier en allemand de l'encyclopédie par internet Wikipédia. L'ouvrage sera une compilation des 50 000 articles les plus lus (sur les 700 000 consultables en allemand). La version germanophone de l'encyclopédie est l'une des plus riches derrière l'anglais (plus de 2 millions de fiches) et devant le français (600 000 articles).

- Les droits d'auteur baissent pour la première fois

Les 24 sociétés de gestions de droits d'auteur comme la Sacem, la SACD ou la Scam ont perçu en 2006 1,2 milliards d'euros. Pour la première fois de leur histoire ce chiffre est en recul, après avoir connu pendant une décennie un ralentissement de sa croissance. Selon la commission permanente de contrôle des sociétés de perception et de répartition des droits, Internet, et sa culture de la gratuité, serait à l'origine de cette érosion progressive des droits des artistes.


- Le plus haut gratte-ciel du monde pour la Défense ?






- Krach démographique 2010-2015

Les chiffres sont éloquents, en Amérique du Nord 46% de la population active est sur le point de prendre sa retraite. Au Canada cela représente 3,8 Millions de postes de travail libérés. En Europe on constate une baisse de plus de 7 millions de la population en âge de travailler. L'Europe qui représentait 12% de la population mondiale dans les années 70 ne représentera plus que 6 % de celle-ci en 2030. En Chine, le même phénomène arrivera un peu plus tard. Seuls l'Inde, le continent africain et certains pays d'Amérique latine ne seront pas totalement concernés.

Au niveau mondial, 41% des entreprises reconnaissent aujourd'hui avoir des difficultés à recruter de la main d'œuvre qualifiée.

Cette situation va immanquablement amplifier une surenchère des salaires pour les métiers en demande, une augmentation des flux migratoires des personnes et des entreprises entre les nations, pour sauvegarder un taux de croissance minimum à l'équilibre social et économique du pays et des entreprises concernés.

Les départs à la retraite massifs à venir vont s'accompagner d'une perte phénoménale de savoir-faire dans les entreprises, mais aussi d'une chute de la compétitivité et de la croissance dans les nations. Une seule façon de réagir : mettre en place, au plus tôt, une gestion des connaissances.

L'écologie va nous permettre de rentrer dans une économie de développement durable ; la gestion des connaissances est là pour nous permettre de rentrer dans l'économie du savoir. Utilisons cette richesse qui est donnée à l'être humain pour assurer d'une manière durable et équitable l'équilibre social et économique de notre planète.


- La civilisation mésoaméricaine prend un coup de vieux

La découverte au Pérou d'importants vestiges datés de 5 500 ans confirme le degré de développement, à des périodes très anciennes, des cultures préhispaniques. Au point de remettre en question les idées admises sur l'origine des premières grandes civilisations et des villes qui leur sont généralement associées ?

La culture de Sechin, bien mystérieuse en l'absence de toute écriture associée, s'est développée lors d'une période appelée par les spécialistes « précéramique », qui se termine environ un millénaire avant notre ère. Les archéologues pensent que les agglomérations de Sechin constituaient les centres politiques et religieux d'une culture basée sur l'agriculture, et dont l'apogée se serait située entre 2 000 et 1 000 ans avant JC... bien avant, donc, l'avènement de civilisations plus connues comme celle des Moches, au début de l'ère chrétienne, ou les Incas, dont l'apogée se situe à l'arrivée des Conquistadors, en 1532.

Cela signifie que nous sommes, à des périodes reculées, en présence d'une société complexe, capable d'ériger des édifices de grande taille. De plus, la qualité et la solidité des murs, et la maîtrise apportée à la fabrication des briques en argile, prouve que les bâtisseurs de Sechin possédaient des compétences techniques et architecturales très poussées.

- Un paysage extraterrestre sur Terre

Fabuleux...

Dallol, qui signifie désintégré en afar, est à la fois un volcan et une zone géographique située au nord-est de l'Ethiopie. Cet incroyable site est très difficile d'accès ce qui le protège des visiteurs.

Thématiques