Revue des sciences de septembre 2007

3  septembre 2007 | par Jean Zin

  • Le langage (codé) de la mémoire
  • Les premiers pas de la vie
  • La plasticité du cerveau
  • Découverte d’un énorme "trou" dans l’Univers
  • Réchauffement après 2009...
  • Plus de pluies que prévu
  • Le trou dans la couche d’ozone augmente !
  • La vie venue des comètes ?
  • Les mammouths : tués par une comète ?
  • L’échec de la pensée positive
  • Effacer la mémoire...
  • Des piles à combustibles au méthanol pour les portables
  • Un cerveau artificiel pour des robots !
  • etc...

Revues : Pour la Science - La Recherche - Sciences et Avenir
Brèves : Physique - Climat - Biologie - Santé - Technologie

Entre le fonctionnement de la mémoire, le pouvoir de la lire ou de l'effacer, et des théories discutables qui prétendent qu'une vie sans mémoire serait possible ("métabolisme primordial" à l'origine de la vie), le cheminement de la science est encore bien fascinant ce mois passé, malgré les vacances. De quoi stimuler les neurones, ce qui est très bon pour notre hygiène mentale et notre plasticité cérébrale, à ce qu'il paraît, mais je dois faire part de ma tristesse de ne plus pouvoir partager avec Jacques Robin son enthousiasme, enthousiasme dont je me réjouissais d'avance lorsque je tombais sur de tels articles qui pouvaient nourrir pendant des heures nos discussions passionnées, justifiant ainsi à mes yeux un travail obscur et souvent ingrat. L'étonnant, en effet, c'est que tout cela ne semble pas intéresser tellement de monde...

En tout cas, si les progrès dans la compréhension de la mémoire sont assez passionnants, rejoignant la phénoménologie, les perspectives de pouvoir lire la pensée et peut-être "effacer la mémoire" sont bien plus inquiétantes, de l'ordre de la science-fiction la plus effrayante, bien qu'elles aient aussi leurs bons côtés. La discussion à propos de l'origine de la vie est tout autant "primordiale", elle aurait même justifié sans doute un article à soi tout seul pour montrer que "au commencement, il y a l'information", pas seulement un cycle auto-entretenu ! L'énorme trou dans l'Univers pourrait constituer enfin une découverte très importante (le centre de l'Univers ? probablement pas, mais qui sait ?). Par contre, sur le front du climat, les nouvelles sont de plus en plus inquiétantes, comme d'habitude, malgré un léger répit dans le réchauffement jusqu'à 2009. Le Bangladesh a donné un avant-goût cet été de ce qui nous attend ensuite. On ne pourra pas dire qu'on n'aura pas vu venir la catastrophe dont certains s'obstinent à vouloir minimiser les conséquences désastreuses !

Une des plus mauvaises nouvelles, c'est que la disparition des abeilles se confirme hélas, et à très grande échelle, surtout aux USA mais pas seulement. Occasion de rappeler l'article du mois de mai sur la maladie de la disparition qui nous menace effectivement...



Pour la Science no 359, Comment se gravent nos souvenirs ?


Pour la Science

Je trouve assez étonnant que malgré la richesse des nouvelles du mois, une telle profusion qu'il est bien difficile d'en faire le tri, la partie actualité de la revue Pour la Science soit si inintéressante ! Heureusement il y a au moins 2 articles fondamentaux qui rachètent largement l'ensemble, ceux sur la mémoire et l'origine de la vie. On aurait pu parler aussi du projet d'optimiser les réseaux en mélangeant les messages (p74) ou de l'archéologie des ouragans (p82) qui montre qu'il y avait plus d'ouragans dans le golfe du Mexique entre -1800 et +1000 ans (avec un super-ouragan, beaucoup plus catastrophique que ceux que nous avons connus jusqu'ici, tous les 200 ans au moins). La situation se serait améliorée à cause du déplacement de l'anticyclone des Açores.

- La foi dans les grands nombres, p6
Ivar Ekeland

Les articles d'économie d'Ivar Ekeland sont souvent assez intéressants. Nous ne retiendrons ici que la conclusion qui plaide pour une couverture sociale des risques plutôt qu'une diversification individuelle :

Pour diminuer les risques, il est préférable d'augmenter le nombre des personnes qui supportent le risque que le nombre des aléas.

- Le langage (codé) de la mémoire, p26
Joe Tsein

On peut critiquer à la fois la relative cruauté des expériences, basées sur la mémorisation d'événements traumatisants (peur, chute, tremblement de terre), ainsi que la prétention de comprendre vraiment la mémoire désormais, alors qu'il ne s'agit que d'un pas de plus vers une meilleure compréhension qui reste assez grossière, cela n'en reste pas moins passionnant !

L'origine de ces recherches, c'est la création d'une souris "superintelligente" par modification génétique des récepteur NMDA de l'hippocampe, ce qui a amené les chercheurs à la mise au point d'un appareil capable de suivre l'activité de 260 neurones de la région CA1 de l'hippocampe de la souris. Un des premiers résultats est d'avoir constaté que la séquence des neurones activés se reproduisait spontanément de quelques secondes à plusieurs minutes après l'événement ("Ces réactivations sont semblables à la réaction initiale mais moins intenses"), ce qui semble être un processus de consolidation du souvenir. Une autre découverte, c'est que les neurones forment des sous-ensembles appelées "cliques neuronales". "Les neurones d'une même clique ont un profil de décharge similaire et n'appartiennent à aucune autre clique ; ils forment une unité de codage fonctionnel". Le plus intéressant, c'est qu'il semble y avoir une organisation hiérarchique de ces cliques, allant du plus général au plus particulier, le processus de généralisation étant donc une fonction essentielle de la mémoire, avec pour contrepartie un processus de particularisation.

Chaque clique représente un aspect particulier plus ou moins spécifique d'une expérience. cette organisation hiérarchique ressemble à une pyramide où la clique la plus générale formerait la base.

Par exemple on a les séquences :

  1. événement traumatisant (général) - > par mouvement perturbateur -> de type tremblement de terre -> dans une boîte noire
  2. événement traumatisant (général) - > par mouvement perturbateur -> de type chute -> dans une boîte bleue

La séquence ne va pas seulement du général au particulier mais de la zone émotionnelle (reliée à l'amygdale) à la zone reliée aux mouvements, puis la zone reliée aux perceptions, ce qui est de grand enseignement. Cet arbre peut être codé sous forme binaire et a pu permettre de décoder le cheminement de la pensée des souris, d'une certaine façon.

Mémoriser de nouvelles expériences c'est rajouter une nouvelle terminaison à la séquence, spécifier un concept préalable comme celui de "nid où l'on peut dormir". La perception (et la reconnaissance de formes) fonctionnerait de la même façon, ce que la phénoménologie avait déjà établi d'ailleurs : en partant du général pour aboutir au particulier et non par reconstruction globale à partir de perceptions de détail (sauf déclencheur, signal chimique désinhibiteur notamment).

Cette capacité à produire des concepts abstraits et de la connaissance à partir d'expériences quotidiennes est l'essence de notre intelligence : elle nous permet de résoudre de nouveaux problèmes dans un monde en perpétuel changement.

La mémoire est donc un apprentissage cumulatif, consolidé pendant le sommeil mais aussi pendant l'état de veille, sous une forme compressée (une suite de mouvements étant réduite à une séquence de quelques dizaines de millisecondes). Autre découverte, si la mémorisation suit la succession des actions telles qu'elles se sont passées, la remémorisation (pour retrouver sa nourriture par exemple) se fait en sens inverse, par régression rétroactive à partir de l'objectif final associé à une récompense ou une douleur, pour aboutir à l'élément initial qui permettra d'en reconstituer le chemin.

Ces découvertes, encore parcellaires, devraient déjà permettre des progrès significatifs en intelligence artificielle et dans l'interaction entre cerveau et ordinateurs.


- Les premiers pas de la vie, p42


Cet article, du chimiste Robert Shapiro auteur d'un livre intitulé "l'origine de la vie" (Flammarion), voudrait nous démontrer que la vie n'a pas commencé avec l'autocatalyse de l'ARN (hypothèse A), l'ARN étant une molécule trop difficile à synthétiser pour être vraiment originelle, mais qu'elle aurait été précédée par un métabolisme (hypothèse B) à base d'éléments organiques plus simples (des petites molécules), ce qui peut paraître raisonnable mais n'est pas pour autant très convaincant car, sans système reproductif on se demande bien comment ce "métabolisme primordial" aurait pu évoluer et se complexifier jusqu'à intégrer le stockage et la reproduction d'information.

Il y a de fortes raisons de penser au contraire que la vie commence avec la reproduction et donc avec l'information : "au commencement, il y a l'information" à partir de laquelle tout le processus de l'évolution peut se mettre en marche. Certes, on ne peut admettre des sauts de complexité qui tiennent du miracle mais, ce qui devrait rendre prudent dans ces affaires, c'est qu'il y a plusieurs de tels sauts, on ne s'en débarrasse pas si facilement : synthèse de l'ARN, première cellule sans noyau, cellules avec noyaux, organismes pluricellulaires, etc. (voir mon article sur les origines de la vie). Cette multiplicité est plutôt le signe que c'est notre compréhension qui est sans doute en cause, ainsi que notre utilisation des probabilités, trop éloignée des processus effectifs.

L'hypothèse du "métabolisme primordial" ne peut rendre compte de l'unité effective du vivant où l'ARN est partout présent, alors qu'il y a une diversité des membranes notamment. Le petit encadré où Steven Benner critique cet article semble donc tout-à-fait pertinent. En effet il rappelle que la synthèse du ribose, à la base de l'ARN (comme de l'ADN d'ailleurs), était considérée comme impossible jusqu'à ce qu'on découvre que des quantités notables de ribose s'étaient formés dans la vallée de la mort à partir du formaldéhyde en présence d'oxyde de bore qui le stabilise ! Il suffit parfois de peu de choses (sans compter qu'une bonne partie des composants pourrait venir de l'espace, voire les brèves ci-dessous) mais ce n'est pas la seule objection :

D'abord les molécules organiques qui réagissent en présence d'énergie (de la lumière ou de la chaleur) deviennent le plus souvent un goudron plus propre à recouvrir les routes qu'à être le creuset de la vie. Autre difficulté : les molécules assez réactives pour participer à une réaction métabolique sont tout aussi promptes à se décomposer.

C'est la stabilité qui manque à ces réactions chimiques, tout comme aux supposées "régulations" de Gaïa qui se révèlent si fragiles. Il n'y a pas de vie sans mémoire, cette mémoire dont on parle plus haut et qu'on voudrait évacuer des formes primitives de vie. L'article est d'ailleurs basé sur une contre-vérité manifeste "une liste de courses contient les mêmes informations que lesdites courses une fois achetées", ce qui fait fi du caractère de signe de l'information qui n'est pas la chose même, ce pourquoi la liste est reproductible justement et pas le panier de course lui-même ! Tout cela n'empêche pas qu'il est intéressant de faire l'hypothèse d'un métabolisme primordial pour voir ce que cela impliquerait et notamment les faiblesses des définitions de la vie qui ne font pas entrer en ligne de compte la reproduction et l'information pour en rester à la "néguentropie" des structures dissipatives (Prigogine), dont il bien difficile pourtant de prétendre qu'elles sont vivantes :

Ces nouvelles hypothèses sont fondées sur une définition thermodynamique, et non génétique, de la vie, proposée par Carl Sagan : est vivante une région dont l'ordre augmente (son entropie diminue) de façon cyclique grâce à un flux d'énergie.

Au moins 5 conditions doivent être remplies pour qu'une forme de vie (la création d'un ordre local grâce à des réactions chimiques alimentées par un flux d'énergie) émerge de petites molécules. : 1) une frontière sépare la région vivante de l'environnement non vivant. 2) une source d'énergie est disponible qui peut être un minéral qui participe à une réaction produisant de l'énergie. 3) celle-ci alimente une réaction chimique couplée. 4) un réseau de réactions chimiques se forme et se complexifie de façon à s'adapter et à évoluer. 5) enfin, le flux de matière qui alimente le réseau de réactions est supérieur au flux des pertes, de sorte que les compartiments croissent et se divisent. Aucune molécule d'information tels l'ARN ou l'ADN, n'est nécessaire.

L'essentiel ici, ce serait la constitution d'un cycle de réactions : A->B->C->D->A->B->C->D, etc. C'est donc seulement à la fin que le stockage et la reproduction de l'information viendrait, on ne sait pourquoi, assurer la pérennité de ce merveilleux métabolisme ! On voit bien que ce n'est qu'à ce moment pourtant qu'on pourrait parler de vie. Il est bien plus logique de partir de la reproduction elle-même pour aboutir à la reproduction des organismes les plus efficaces et leur complexification, l'information apportant la stabilité indispensable à l'évolution, stabilité assurée par la correction d'erreur qui est le véritable vecteur de la néguentropie du vivant (comme de la reproduction numérique) et qui manque tellement à ces métabolismes spontanés qui sont une version de l'auto-organisation à la mode, très proche d'une simple génération spontanée, alors qu'information et reproduction sont inscrits dans une histoire longue, un apprentissage structurant, une intériorisation de l'extériorité, une mémoire formatrice de contraintes et de régulations, assez éloignés d'un "ordre spontané" néolibéral.

On voit que ces "nouvelles" hypothèses, bien dans l'air du temps, sont loin d'être innocentes, et comme la science n'est pas isolée de la société mais dépend des "paradigmes" dominants. Ce qui n'est pas d'ailleurs condamner ces hypothèses en tant que telles car leur expression est d'autant plus légitime qu'elles s'exposent ainsi à leur réfutation scientifique, ici à la découverte des limites de l'auto-organisation et du rôle irremplaçable de l'information qu'on avait voulu évacuer justement. Ainsi, des simulations informatiques ont déjà montré que, si les premières étapes d'auto-organisation sont prometteuses elles plafonnent rapidement, mais les exemples en sont partout dans les limites des groupes informels. En fait, défendre la conception d'une vie dépourvue d'information, c'est défendre une conception mystique de la vie, inconsistante, insaisissable, mystérieuse comme "la main invisible" des marchés et qu'on peut voir partout alors qu'il n'y a pas de vie qui ne soit constituée de flux de matières et d'énergie contrôlés par un flux d'information et une mémoire évolutive (une organisation apprenante). Ce sont bien ceux qui croient à une émergence spontanée d'un métabolisme qui croient au miracle, pas ceux qui croient à une synthèse d'ARN autocatalytique, certes très improbable mais loin d'être impossible, ainsi qu'à l'irruption de l'information dans le monde, c'est-à-dire de la finalité et de la mémoire dans l'univers des causes et de l'entropie...

De nombreux articles théoriques ont proposé des schémas particuliers de métabolisme primordial, mais peu de travaux expérimentaux les étayent. En outre, ceux dont les résultats ont été publiés montrent seulement que certaines étapes du cycle sont plausibles.


 


La Recherche no 411, La théorie des cordes dit-elle le vrai ?


La Recherche Je ne rendrais pas compte du dossier du mois sur la théorie des cordes car j'avais déjà fait un article sur le dernier livre de Lee Smolin, Rien ne va plus en physique, qui en constitue le coeur et auquel il faudrait joindre Le paysage cosmique de Leonard Susskind, dont ils ne parlent malheureusement pas. On remarquera juste qu'on peut se gausser de ce qui est présenté comme "les 4 succès des cordes" : la déduction de la gravité (car la théorie des cordes comporte un boson de spin 2 identifié au graviton que personne n'a encore vu!), la déduction du nombre de dimensions de notre univers (quoique cela puisse aller de 10 à 12!), la supersymétrie (dont il n'y a encore aucune trace !) et le principe holographique (qui réduit notre univers en 3 dimensions apparentes à ce qui se passerait sur la surface interne d'une sphère). On pourra parler de succès quand il y aura un début de confirmation de ces spéculations...

- Le chat vient du moyen-orient, p18

Une étude génétique établit que le chat a bien été domestiqué au Moyen-Orient (on a d'ailleurs trouvé à Chypre un homme enterré avec son chat il y a 9500 ans).

- L'éradication du virus du sida, p23

Une enzyme mise au point par une équipe allemande a, pour la première fois, permis d'éliminer toute trace du virus du sida dans le génome de cellules infectées.

"Nous sommes partis de l'enzyme Cre, présente chez un virus bactérien. Il s'agit d'une recombinase capable de reconnaître les deux extrémités du génome de ce virus pour l'extraire des séquences ADN environnantes. En réalisant une série de mutations de cette enzyme et en les sélectionnant, nous arrivons à une forme qui est arrivée à reconnaître les extrémités du génome du virus du sida".

"L'idéal serait d'arriver à réduire ainsi le nombre de cellules productrices du virus chez les malades et donc l'impact de la maladie. mais comme tout médicament cela prendra une dizaine d'années, essais cliniques compris".

- Les traces d'un vieil océan très chaud, p54

Il y a 3,5 milliards d'années, la température de surface des océans était proche de 70°. C'est ce qu'indique la composition des silex formés à cette époque.

Elle a baissé graduellement pour se stabiliser à environ 20° il y a 541 millions d'années lors de l'explosion cambrienne.

La vie serait donc apparue dans un océan très chaud. Il semble que cela soit un peu plus compliqué pourtant puisque l'hypothèse d'une Terre boule de neige entre -850 et -544 millions d'années implique un refroidissement bien plus sévère avant de se stabiliser autour des 20°. Cette glaciation presque totale aurait d'ailleurs été provoquée par une production d'oxygène excessive par les cyanobactéries. A noter qu'au tout début l'oxygène aurait été d'abord fortement réduit par le volcanisme marin et n'a commencé à augmenter qu'une fois que ce volcanisme a diminué pour migrer sur la terre ferme.



 


Sciences et Avenir no 727, Nouvelles découvertes sur le cerveau


- Le raisin, p44

Rien de neuf mais après avoir chanté les louanges du vin à cause du resvératrol qu'il contient, il n'est pas mauvais de rappeler, en ces périodes de vendanges précoces (Emmanuel Le Roy Ladurie a écrit une histoire du climat depuis l'an Mil en se basant sur les dates des vendanges), que le raisin en contient aussi et que l'absence d'alcool dans le jus de raisin peut le faire préférer, même si des petites doses d'alcool sont recommandées quand on vieillit.

Rappelons, donc, que les vertus du resvératrol contenu dans le raisin et le vin, sont d'être à la fois un puissant antioxydant, de mimer l'effet de restrictions caloriques, de rendre plus sensible à l'insuline (et donc de réduire le diabète), de réduire aussi le cholestérol et l'inflammation, de dilater les vaisseaux sanguin en favorisant la libération de monoxyde d'azote (NO) et, enfin, de réduire le vieillissement et le déclin cognitif... INDISPENSABLE (sans que ce soit une raison pour en abuser) !

- La Gaule est devenue romaine en moins de 40 ans, p46

Il n'est pas mauvais de rappeler que la Gaule était déjà fortement romanisée avant sa conquête par les Romains et qu'elle commerçait énormément avec Rome, en particulier en lui fournissant des esclaves qui étaient l'enjeu principal des guerres incessantes entre Gaulois. Les Gallo-Romains n'ont jamais existé, c'est une invention du XIXè siècle. Les Gaulois (du moins l'aristocratie) sont devenus très vite des romains à part entière, parlant latin et portant des noms romains.

- La plasticité du cerveau, p52

Rien de très nouveau dans ce dossier, malgré ce qui est annoncé, mais l'occasion de faire le point sur la formidable plasticité du cerveau. Effectivement, il semblait logiquement certain que le cerveau, siège de la mémoire, ne pouvait évoluer, surtout pas créer de nouveaux neurones ! mais depuis les années 1990 surtout, il est devenu de plus en plus évident qu'il y avait malgré tout réorganisation et création permanente de neurones (plus ou moins marginalement selon les zones du cerveau, le cerveau reptilien étant apparemment immuable, ce qui semble d'ailleurs un peu contestable). Les réseaux de neurones sont en constante restructuration en fonction de l'environnement, les astrocytes eux-mêmes participant à ce remodelage du cerveau, pouvant même se transformer en neurones en cas de lésion ! La plus grande partie de la plasticité neuronale se situe malgré tout au niveau des liaisons synaptiques. Elle est maximale dans l'enfance et serait décuplée chez les humains par rapport aux singes.

La plasticité synaptique fait son apparition dans le cerveau limbique (composé de l'amygdale, de l'hippocampe...) présent chez la plupart des mammifères, qui contrôle les émotions et les motivations et participe à la formation des souvenirs. mais surtout, elle explose dans le cortex, cette couche qui recouvre les hémisphères cérébraux siège des fonctions mentales chez les mammifères supérieurs.

Le gènes qui nous différencient des primates sont des gènes de plasticité.

La première zone du cerveau à connaître cette synaptogenèse débridée est le cortex visuel, avec un pic la première année. La dernière est le cortex frontal, siège de la réflexion. Le processus démarre vers un an et s'achève à la puberté.

La plasticité est un processus épigénétique, qui passe au-dessus des gènes. C'est ainsi que l'humanité s'affranchit de son bagage génétique.

La création de neurones dépend des stimulations extérieures et se produit au moins dans 2 sites : l'hippocampe (relié à la mémorisation) et le bulbe olfactif à partir desquels les neuroblastes (précurseurs des neurones) suivraient des "couloirs de migration" enchaînées les unes aux autres et guidées par des molécules attractives, mais le stress bloquerait net cette production de neurones, la dépression se caractérisant par un déficit neuronal au niveau de l'hippocampe.

Un processus de régénération surviendrait sous l'effet de différents facteurs dont l'apprentissage, l'exercice physique ou encore le bien-être.

Les néoneurones olfactifs possèdent des caractéristiques différentes de celles des neurones existants. Jeunes, ils ont une fonction de gomme et effacent certaines connexions des circuits. Plus matures, ils viennent au contraire renforcer les circuits neuronaux lorsqu'il y a nécessité d'une plus grande capacité d'apprentissage.

C'est un peu comme les jeunes dans la société qui bousculent un ordre ancien que les aînés renforcent... On ne sait pas encore comment les neurones se diversifient (il y a 400 types de neurones) mais, si on espère à l'avenir pouvoir compenser les maladies neurodégénératives, les meilleures méthodes pour garder sa plasticité cérébrale restent l'exercice physique (qui stimule la création de neurones dans l'hippocampe), la curiosité (rien de mieux pour cela que de lire des revues scientifiques qui sont pleines de nouveautés, tous les mois ou presque ! En tout cas, il faut sortir des schémas de pensée automatique et de ses habitudes afin de stimuler le cortex préfrontal avec des situations nouvelles et complexes), enfin, c'est le plus étonnant, il serait bénéfique et stimulant de pratiquer la "pensée rapide", voir la "pensée maniaque" : en effet pensée rapide et sentiment de bien-être seraient liées... Il suffirait, par exemple, de lire le plus rapidement possible.

Ces résultats suggèrent une possibilité étonnante. Même lorsque quelqu'un rumine des idées noires, accélérer ces idées-là peut le "rebooster" !

Sinon, le cerveau est un muscle, plus on se sert d'une fonction plus elle est performante mais il n'y a pas de transfert de capacité d'une zone à l'autre :

Les systèmes de mémoires sont cloisonnés. Vous allez acquérir de meilleures performances dans un domaine (mots croisés par exemple), mais sans pouvoir l'appliquer à la vie quotidienne.


A noter, en dehors de ce dossier, que les axones ne transmettraient pas passivement une stimulation qu'ils peuvent arrêter, on ne sait pourquoi, ce qui pourrait provoquer des problèmes cognitifs en altérant la communication entre zones du cerveau.





 



Brèves et liens




 

Physique


cosmologie, astronomie, physique quantique


- Découverte d'un énorme "trou" dans l'Univers

On savait qu'il y avait des trous dans l'univers à grande échelle puisqu'on avait vu le mois dernier que notre galaxie se situait justement au bord d'un de ces vides, et que ces vides avaient même tendance à s'agrandir, mais là, on a découvert, à une distance de 10 milliards d'années lumières, un trou immense d'1 milliard d'années lumières et déjà visible dans le rayonnement micro-onde du fond cosmique, lorsque l'univers n'était âgé que de 380 000 ans. Cela remet partiellement en cause l'homogénéité supposée de l'univers à grande échelle (et donc les théories de l'inflation ?), ou serait-ce le centre de l'univers (supposé ne pas exister) ? Pour Futura-Sciences cela pourrait être une preuve supplémentaire de l'existence de l'énergie noire (ou énergie du vide).

Ceci dit la concordance entre la tâche froide du fond diffus cosmologique et l'absence effective de galaxies dans cette région de l'univers renforce la validité de l'image de l'univers primitif donnée par ce rayonnement micro-ondes. La cosmologie est une science encore en plein développement confrontée à toutes sortes d'énigmes (énergie sombre, matière noire, expansion accélérée, inflation, etc.).

- Matière noire: le mystère s'épaissit !

L'observation d'une gigantesque collision d'amas de galaxies semble montrer une séparation inexplicable de la matière noire et des galaxies.

Gros plan sur la distribution en matière noire dans Abell 520 où les objets de l'amas apparaissent seuls: Les pics de la distribution en matière noire sont cerclés. Le pic n°3 au centre du gaz chaud ne semble pouvoir être mis en correspondance avec aucune galaxie. Quel phénomène a bien pu provoquer cet amoncellement de matière noire en plein milieu de l'amas ?

Les scientifiques ont deux explications au phénomène observé mais qui toutes deux portent atteinte aux théories actuelles. La première est que les galaxies se seraient séparées de la matière noire au travers de complexes "effets de fronde" gravitationnels ; mais aucun modèle informatique n'a jamais permis d'envisager des effets de cette sorte suffisamment intenses pour provoquer une telle séparation. La seconde option est que la matière noire serait soumise, non seulement à la gravitation, mais aussi à une interaction de type encore inconnue entre les particules dont elle est constituée ; cette alternative, bien que passionnante, nécessiterait toutefois une "nouvelle" physique et il serait difficile de lui faire correspondre les observations antérieures réalisées sur d'autres galaxies ou amas de galaxies.

- Une collision de 4 galaxies

Collision exceptionnelle à 5 miliards d'années-lumière.

- Des trous noirs vraiment noirs !

Les trous noirs au coeur des galaxies sont détectés habituellement par leur rayonnement et leur projection de matière mais on vient de découvrir que certains trous noirs sont entourés d'un nuage de gaz assez dense pour bloquer toute détection, sauf certains rayons X très énergétiques qui ont trahi leur présence.

- Une étoile à neutrons à portée de main

Une étoile à neutron (source de rayons X), située dans la Petite Ourse pourrait être à seulement 250 années lumières de la Terre.

- Mira Ceti: une authentique "étoile filante"

Voir aussi sur Futura-Sciences

A l'aide du télescope spatial GALEX (Galaxy Evolution Explorer), des astronomes ont repéré une étonnante queue en forme de comète dans le sillage de la célèbre étoile Mira Ceti, qui fonce à travers l'espace à la vitesse extraordinaire de 130 kilomètres par seconde. L'étoile perd d'énormes quantités de matières chargées de carbone, d'oxygène et d'autres éléments importants, et arbore une queue qui mesure 13 années-lumière de long. Rien de tel n'avait été jamais repéré auparavant autour d'une étoile.

- Google sky

Google ajoute à Google Earth des vues du ciel avec plus d'1 million de photos de Hubble permettant d'explorer l'espace. Techno-science fait d'ailleurs état d'un bug qui apporte une fonctionnalité supplémentaire, permettant le survol du ciel !

- Jupiter ne nous protégerait pas tant que ça !

Une étude de 1994 avait montré que si Jupiter avait été une planète beaucoup plus petite (comme Uranus ou Neptune), la Terre aurait eu à subir 1000 fois plus de collisions avec des comètes de longue périodes que dans la réalité. Ceci avait conduit à supposer que la vie complexe aurait à passer des moments difficiles dans son développement dans des systèmes solaires dépourvus de planète ressemblant à Jupiter en raison d'un bombardement plus intense par des comètes.

Mais la nouvelle étude de Jonathan Horner et Barrie Jones de l'université britannique de Milton Keynes démontre désormais que s'il n'y avait aucune planète dans l'orbite de Jupiter, la Terre serait en réalité plus à l'abri des impacts.

- Une chimie autoréplicative dans les plamas

Prenez garde à votre écran plasma, il y a peut-être un être vivant qui sommeille à l'intérieur ! C'est dans cet état bien particulier de la matière qu'une équipe internationale a soumis un mélange de poussières interstellaires inorganiques. A leur grande surprise, là où ils s'attendaient à rencontrer le chaos, ils ont trouvé des particules formant des configurations bizarres : en hélice ou en tire bouchon et ces structures ont un comportement encore plus étrange puisqu'elles se divisent, se multiplient et interagissent entres elles.

Alors qu'ils s'attendaient à un beau désordre, ils ont découvert de microscopiques brins composés d'électrons se tordant pour former des tire-bouchons ou des hélices. Ces structures électriquement chargées s'attirent entre elles de façon tout à fait surprenante. Encore mieux : elles se divisent pour former deux copies identiques de la structure originale, interagissent et induisent des changements dans leur environnement et peuvent même se transformer : les configurations instables se décomposent de sorte que seules les structures les plus solides « survivent » dans le plasma.


Climat



- Fonte des glaces: nouveau record battu en Arctique

Cette année, la surface totale des glaces de mer de l'Arctique est tombée dès le mois d'août sous la barre du minimum record enregistré il y a deux ans.

- La disparition accélérée du corail

On savait que ce serait une conséquence dramatique d'un réchauffement trop rapide ne permettant pas au corail de s'adapter avec des répercussions sur toute la chaîne biologique. Ce serait encore pire que prévu...

Les récifs de corail disparaissent beaucoup plus rapidement que selon les prévisions les plus pessimistes, annonce une équipe de recherches de l'université de Caroline du Nord à Chapel Hill, et il n'existe actuellement aucun moyen d'endiguer ce déclin.

- Le changement climatique favorise les maladies infectieuses

Il n'y a pas que le corail qui est affecté par le réchauffement climatique, les amphibiens sont aussi décimés et il y aurait une recrudescence pour l'homme de la peste et de la maladie de Lyme (transmise par les tiques) au moins...

- Réchauffement après 2009...

Le temps relativement froid actuel devrait durer jusqu'en 2009 à cause de El Niña avant que le réchauffement ne reprenne de plus bel !

Ce modèle prédit que le réchauffement va se ralentir ces prochaines années pour ensuite s'accélérer, et qu'au moins la moitié des années postérieures à 2009 seront plus chaudes que 1998, l'année la plus chaude jamais enregistrée. En d'autres termes, la planète va connaître un petit répit avant de se mettre à suer pour de bon.

- Il pleut plus que prévu

On savait que les modèles climatiques sont très imparfait surtout concernant la formation des nuages et le régime des pluies, voilà qui est confirmé mais cela jette un doute légitime sur toutes les prévisions qu'on peut faire des changements climatiques...

(21/08/07) - La quantité de précipitations observée depuis vingt ans ne correspond pas aux prévisions. Alors que les modèles prédisent une augmentation de 1 à 3 % par degré, les précipitations se sont accrues de 6% par degré, selon les données satellitaires. Cette valeur correspond au taux d'évaporation entre 1987 et 2006. Est-ce un hasard de la variabilité climatique ? Une erreur systématique des données satellitaires ? L'américain Franck Wentz privilégie plutôt une mauvaise modélisation des nuages et de leur pouvoir radiatif.

- Le trou dans la couche d'ozone augmente !

Le trou dans la couche d'ozone est apparu cette année beaucoup plus tôt que précédemment selon l'Organisation Météorologique Mondiale (OMM), et pourrait atteindre des valeurs record en 2007.

D'après les experts du Programme des Nations unies pour l'Environnement (PNUE), la couche d'ozone au niveau de l'Europe ne retrouvera pas sa valeur de 1980 avant l'an 2049, tout comme en Amérique du Nord, Asie, Océanie, Amérique latine et Afrique, tandis qu'il faudra attendre au moins jusqu'en 2065 pour retrouver une valeur acceptable au-dessus de l'Antarctique.

Les limites du trou peuvent aussi présenter des irrégularités et atteindre des territoires à forte concentration de population, comme le 9 octobre 2000 où les autorités chiliennes ont demandé aux 120 000 habitants de Punta Arenas de s'abriter au maximum. En effet, la couche d'ozone offrait si peu de protection ce jour-là contre les rayons ultraviolets qu'un coup de Soleil était pratiquement garanti en sept minutes d'exposition. L'Australie connaît aussi fréquemment de semblables péripéties, et le nombre de cancers de la peau est en pleine augmentation, même dans nos régions.

Cette année, le trou dans la couche d'ozone devrait atteindre la pointe australe de l'Amérique du Sud.


Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie


- Des bactéries résistent plus de 500 000 ans au gel

La résistance étonnante des bactéries, malgré la décomposition de leur ADN, laisse penser qu'il pourrait y avoir encore de la vie sur Mars dans la calotte glaciaire, ce qu'on soupçonnait depuis que des traces de méthane avaient été détectés, mais au-delà de 700 000 ans il ne semble pourtant pas que la vie résiste à de telles conditions, et cela fait bien plus longtemps que Mars est devenue invivable...

Enfouies dans le sol gelé, des bactéries vieilles de plusieurs centaines de milliers d'années respirent encore et réparent régulièrement leur ADN. Elles attendent patiemment des jours meilleurs dans des conditions qui sont aussi celles de Mars et d'Europa...

- L'adénine du premier ADN : une origine extraterrestre ?

L'adénine qui distingue l'ADN de l'ARN n'est pas aussi fondamentale pour la vie que les constituants de l'ARN mais sa synthèse restait un mystère car très difficile sur Terre. Mystère résolu du fait qu'elle pourrait être venue de l'espace. L'origine de la vie semble donc combiner des éléments extra-terrestres et des éléments synthétisés sur place.

L'adénine serait synthétisée massivement dans l'espace à l'intérieur des nuages moléculaires.

- La vie venue des comètes ?

Selon le professeur Chandra Wickramasinghe de l'université de Cardiff, la vie aurait des milliards de fois plus de chance d'être apparue dans l'espace que sur Terre, c'est du moins ce que confirmerait l'expérience récente "Deep Impact" avec la découverte d'un mélange de molécules organiques et d'argile à l'origine de molécules complexes d'hydrocarbure nécessaires à la vie. Les comètes contiendraient plus d'argile que la Terre primitive et pourraient servir d'incubateurs pendant des millions d'années.

Nous avons maintenant un mécanisme pour la façon dont ça se serait passé. Tous les éléments nécessaires - argile, molécules organiques et eau - sont là. L'échelle de temps plus longue et la masse plus grande des comètes donnent une bien plus grande probabilité au fait que la vie aurait commencé dans l'espace plutôt que sur Terre.

En fait il faut s'entendre, ce sont les composants de la vie qui seraient apparus dans des comètes contenant de l'argile et de l'eau, à peine une vie primitive. C'est bien sur Terre que l'évolution a formé la vie à partir d'ARN autocatalytiques, du moins il me semble... En tout cas cela renforce l'hypothèse non seulement que la vie est disséminée dans tout l'univers mais que les bases de la vie seraient les mêmes partout.

- Les mammouths : tués par une comète ?

C'est un peu difficile à croire mais la fin des mammouths ainsi que d'autres grands mammifères pourrait avoir été causée par une comète de quelques km de diamètre, il y a 12 900 ans, pendant un brusque refroidissement à la fin de la dernière glaciation. En fait c'est surtout en Amérique du Nord que 80% des espèces de grands mammifères ont disparu à cette date (extinction du Pléistocène). Comme cette date correspondait à l'arrivée des hommes dans cette région on pensait qu'ils étaient responsables de l'extinction (en faisant des feux pour précipiter des troupeaux entiers des falaises) mais le climat a dû jouer un rôle ainsi que, peut-être la chute d'une comète, qui aurait précipité une extinction déjà bien entamée ?

Une comète de quelques kilomètres de diamètre serait tombée sur l'Inlandsis de ce qui sera plus tard la région des grands lacs. Elle s'est probablement fragmentée en entrant dans l'atmosphère et il est possible que quelques fragments aient touché le sol du glacier Laurentides recouvrant l'Amérique du nord. D'autres seraient retombés ailleurs sur le continent, provoquant des incendies. Combinés avec un brusque refroidissement, la végétation à la source de la nourriture des grands mammifères se serait alors raréfiée, causant leur disparition en liaison avec une chasse excessive dans certains cas.

Une portion importante de l'Inlandsis laurentidien aurait aussi été déstabilisée entraînant ultérieurement la vidange partielle du réservoir d'eau douce constitué par le lac Agassiz, le plus grand lac glaciaire en Amérique du Nord et qui recouvrait une bonne partie du Manitoba, le nord-ouest de l'Ontario, certaines régions de l'est de la Saskatchewan et du Dakota du Nord, et le nord-ouest du Minnesota. À sa taille maximale, il mesurait environ 1 500 km de long sur plus 1 100 km de large et atteignait une profondeur de 210 m.

Une grande quantité d'eau douce et froide aurait ainsi été injectée dans l'Atlantique nord. Cet énorme afflux aurait perturbé, voire même stoppé complètement, la circulation thermohaline autour du globe, notamment celle du Gulf stream. En conséquence de quoi, une baisse importante des températures sur l'Europe du Nord-Ouest, évaluée à 5 ou 6 degrés s'est alors produite. Cet événement brutal est aujourd'hui plutôt bien attesté par l'analyse des carottes de sédiments marins et de glaces.

- Espèce disparue : le dauphin de Chine a tiré sa révérence

Le dauphin de Chine est le premier grand mammifère à disparaître depuis 50 ans.

Seul représentant connu du genre Lipotes, Lipotes vexillifer faisait partie des très rares espèces de cétacés ayant quitté le milieu marin pour s'adapter à l'eau douce des fleuves.

- Rien ne remplace l'expérience, même chez la fourmi

Une étude sur des fourmis toutes identiques génétiquement montre qu'elles se différencient uniquement par l'expérience, ce qui est assez étonnant et différent des autres fourmis.


- Neandertal aurait disparu à cause d'un cerveau trop gros

Une hypothèse intéressante de Jean Chaline relie la disparition de l'homme de Neandertal à l'augmentation considérable de son cerveau qui avait même dépassé dans les derniers millénaires celui de l'homme de Cro-Magnon, mais, dépourvu d'une évolution de l'homo sapiens qui assure mieux l'ancrage de l'embryon dans l'utérus et l'irrigation du cerveau du foetus, ce cerveau surdimensionné aurait été responsable de la mort des femmes néandertaliennes par eclampsie (hypertension artérielle des femmes enceintes provoquée par le manque d'irrigation du cerveau du foetus et qui provoque la mort de la mère après des crises de convulsions spectaculaires).

Il est difficile de croire que cela puisse être la seule cause, car la taille du cerveau aurait dû s'auto-réguler si elle décimait les populations. Il y a sûrement eu d'autres causes, comme une nourriture moins diversifiée, mais la thèse d'une sorte d'éclatement du cerveau devenu trop gros ne manque pas de vraisemblance et renforcerait la spécificité de notre adaptation à une intelligence supérieure, y compris à l'intérieur du genre homo.

A noter que Homo neandertalensis descendrait de Homo erectus en passant par Homo antecessor (800 000 ans) et Homo heidelbergensis (500 000 ans).

- Homo habilis n'est pas l'ancêtre d'Homo erectus

Voir aussi sur Futura-Sciences.

La découverte de la cohabitation d'homo habilis et d'homo erectus il y a 1,5 millions d'années semble indiquer qu'ils constituaient 2 espèces séparées, homo erectus ne descendant pas d'homo habilis mais sans doute d'un ancêtre commun.


- L'amygdale et la sociabilité

L'amygdale qu'on croyait le centre de la peur serait reliée à la perception des émotions de l'autre et donc à la sociabilité. Son dévelopement, déficient chez les autistes, serait une caractéristique humaine surtout par rapports aux singes solitaires.

- La peur varie en fonction de la distance

Lorsque la distance est encore raisonnable, ce sont des régions du cortex préfrontal qui s'activent.

Plus le danger s'approche, plus l'activité se déplace vers l'amygdale centrale et la substance grise péri-aqueducale, une zone située près du tronc cérébral qui est notamment impliquée dans les circuits de la douleur.

Ce déplacement de l'activité du cerveau traduit l'augmentation de la peur, la montée de la panique, et la stimulation de circuits impliqués dans des réflexes de défense quasi animaux.


- Cellules vivantes en 3D

Un nouveau microscope à tomographie calculée aux rayons X (CT scanner), permet pour la première fois d'avoir une vue 3D d'une cellule vivante. Ici une cellule cancéreuse.

- Injection de nanoparticules dans une cellule à l'aide de nanotubes

Une nouvelle technique de laboratoire pour étudier les cellules in vivo.

Une équipe de scientifiques de Berkeley de l'Université de Californie et du Lawrence Berkeley National Laboratory vient de proposer une méthode permettant d'injecter de manière contrôlée des nanoparticules fluorescentes dans des cellules vivantes.

Le "nanoinjecteur" réalisé par les chercheurs est constitué d'un nanotube de carbone multiparois à la surface duquel ont été accrochés les nano-objets à introduire dans la cellule, ici des complexes steptavidine - "quantum dots". Ces complexes sont greffés sur le nanotube par l'intermédiaire d'une molécule liante portant une extrémité pyrène qui se lie fortement à la surface du nanotube et l'autre moitié biotine qui s'associe à la steptavidine, les deux parties étant séparées par une liaison disulfure.

Le nanotube est fixé à l'extrémité de la pointe d'un microscope à force atomique (AFM), et il est donc possible de le déplacer avec une grande précision: on dispose ainsi d'une nano aiguille qui permet de traverser la membrane cellulaire. Après pénétration du nanotube dans la cellule, l'environnement réducteur du cytosol permet de casser la molécule liante au niveau de la liaison disulfure et de libérer ainsi les quantum dots.

Les expériences réalisées sur des cellules cancéreuses ont permis d'étudier la dynamique de diffusion des quantum dots injectés dans le cytosol. Elles montrent par ailleurs que ni la cellule, ni la membrane ne paraissent endommagées par la pénétration du nanotube. Cette technique est très intéressante car le nanoinjecteur peut également libérer d'autres éléments tels que des ADN, ARN, polymères et bactéries.


Santé


génétique, traitements, nutrition, hygiène


- Une délétion de gène augmenterait la durée de vie

L'inactivation d'un gène chez la souris, produisant un effet proche des beta-bloquants, non seulement réduit les problèmes d'hypertension mais aussi le développement de cancers, ce qui augmenterait la durée de vie des souris de 30% (en réduisant la réponse au stress).

Les souris sont protégées des problèmes cardiaques classiques liés à l'âge (hypertrophie, apoptose, fibrose, réduction de la fonction cardiaque...) mais aussi des affections osseuses (diminution de la densité osseuse, fractures). En utilisant une approche protéomique, les chercheurs ont montré une activation de la voie métabolique Raf/MEK/ERK et constaté une régulation positive des protéines protectrices de la cellule. La synthèse de superoxyde dismutase, protéine fortement impliquée dans la réduction des traumatismes causés par les espèces réactives de l'oxygène serait notamment fortement activée.

Il existe cependant des mystères autour de ce type de souris. Jeunes, ces souris font le même poids que leurs congénères tandis qu'âgées, elle sont plus légères malgré le fait qu'elles se nourrissent plus. Selon Vatner, cela suggère un changement du métabolisme qui mimerait une diminution de l'apport calorique et expliquerait tous les effets observés. Vatner évoque également la possibilité que ces souris soient résistantes aux cancers. Il ajoute que la majorité des souris ne décèdent pas de problèmes cardiaques mais en général à cause d'une "sorte de tumeur". En conclusion, il évoque la possibilité que les souris mutantes vivent plus longtemps en étant capables de freiner la propagation de la tumeur. En ciblant un inhibiteur de 5 adénylyl cyclase, les chercheurs auraient à leur disposition un produit miracle.

Il existe des effets secondaires indésirables. Les souris étudiées se comportent de façon inhabituelle face à la morphine ou à des neuroleptiques tels que l'halopéridol.

- Le gène du gaucher... et de la schizophrénie ?

Le gène LRRTM1, transmis par le père, serait associé à un défaut de symétrie du cerveau ainsi que, dans une très petit nombre de cas, à une prédisposition à la schizophrénie.

Les chercheurs pensent que le LRRTM1 modifie l'asymétrie du cerveau humain et provoque une inversion dans certains cas. Ainsi, si dans un cerveau de droitier l'hémisphère gauche contrôle la parole et la partie droite les émotions, cette symétrie est inversée chez la plupart des gauchers. Suivant Francks, la présence de ce gène n'est pas nécessaire pour obtenir l'état de gaucher, mais sa prédominance peut être un facteur favorisant.

Mais l'expression du LRRTM1 pourrait avoir d'autres conséquences. Dans une étude antérieure, des scientifiques australiens avaient déjà estimé que ce gène pourrait favoriser le développement de certaines maladies psychiques comme la schizophrénie. Cette affection, qui touche environ 1 % de la population mondiale, entraîne des défauts de perception et de graves altérations du comportement chez les personnes atteintes.

Le mode d'action du LRRTM1 dans ce cas n'est pas élucidé, cependant il a été constaté depuis un certain temps déjà qu'un défaut de symétrie du cerveau humain prédispose à ce type de maladie. Cependant, ajoute Francks, seule une très petite minorité de gauchers est concernée par ce problème et l'immense majorité d'entre eux n'en souffrira jamais.

Il est à noter que la plupart des animaux montrent des cerveaux nettement plus symétriques, y compris chez nos parents génétiques plus étroits, comme les singes.

- Un gène impliqué dans le cancer du poumon

Cette découverte va plutôt à l'encontre des théories métaboliques ou environnementales du cancer au profit de l'origine génétique, ces différentes théories n'étant pas exclusives l'une de l'autre d'ailleurs puisque dans chaque cas il s'agit non pas tant de la mutation cancéreuse elle-même, ce qui serait déterminant étant plutôt un défaut dans les processus anti-cancer (à signaler par ailleurs que fumer du tabac altèrerait durablement les gènes impliqués dans le cancer du poumon).

Il a été constaté que les personnes porteuses de versions altérées du gène LKB1 développent fréquemment le syndrome de Peutz-Jeghers, qui se caractérise par une polypose de l'ensemble du tube digestif, qui s'accompagne d'une lentiginose (apparence de petits grains de beauté) de la muqueuse buccale, de la sphère anale et des doigts, et confère un risque accru de cancers du testicule, de l'ovaire, de l'utérus et du pancréas. Seule cette version mutée de ce gène étant observée chez les patients atteints de cancer du poumon, il apparaissait vraisemblable que LKB1 non muté agisse en tant que frein dans le déclenchement de cette affection.

"Nous avons été véritablement surpris de la façon dont les versions mutantes du gène LKB1 joue un rôle dans le déclenchement et le développement d'une tumeur maligne du poumon chez la souris", déclare Wong. "Ceci suggère qu'il peut encore y avoir des gènes filtrants du cancer du poumon à découvrir, et nous nous appliquerons à découvrir si ces résultats peuvent s'appliquer aux cancers du poumon chez les humains, et comment une telle information est susceptible d'améliorer le traitement"

- Une bactérie génétiquement modifiée pour tuer les cellules cancéreuses

A base de bactérie E. coli dont l'ADN a été modifié pour échapper au système immunitaire et infecter les cellules cancéreuses, le principe semble assez proche de ce que pourrait faire un produit aussi simple que le DCA puisque c'est le fonctionnement anaérobie des cellules cancéreuses qui permettrait de les repérer, attirant ainsi la bactérie infectieuse. Rien encore ne dit que les tests cliniques confirmeront les espérances mises dans cette biologie synthétique.


- Un test rapide pour le cancer de la bouche

Un test bon marché pouvant être utilisé par les dentistes permet de détecter un cancer de la bouche en 10 mn. Les cancers de la bouche se manifestent souvent en premier lieu par des problèmes dentaires. Le test pourrait servir aussi pour les cancers du cerveau.

- Cancers : les dangers de l'environnement

Les cancers liés au mode de vie (soleil, alcool, tabac...) connaissent une augmentation inquiétante révèle une enquête de l'Organisation britannique de recherche sur le cancer.

Selon les chercheurs, environ la moitié des cancers pourraient être évités grâce à certaines modifications du mode de vie. Par exemple, la vaste majorité des cas de mélanomes sont dus à une grande exposition au soleil. D'autre part, la grande majorité des cas de cancer de la bouche sont diagnostiqués chez fumeurs ou des alcoolo-tabagiques.

Les médecins insistent donc sur la prévention en préconisant une modification des habitudes de vie des personnes ayant un comportement risqué. A commencer, durant ces périodes de vacance, par éviter l'exposition prolongée au soleil durant les heures les plus chaudes et en profitant pour faire un peu de sport, bonne habitude à conserver à la rentrée. L'amélioration des repas : plus de fruits et de légumes moins de viande, est également toujours recommandé.

- Le pamplemousse favoriserait le cancer du sein ?

Selon une étude américaine, la consommation d'un quart de pamplemousse ou plus par jour pourrait augmenter de 30 % le risque d'être atteint du cancer du sein chez les femmes en postménopause. Mais il faudra attendre des recherches plus poussées avant de condamner ce fruit.

Depuis quelques années, on sait que le jus de pamplemousse a un effet inhibiteur sur un enzyme, le cytochrome P450 3A4 (CYP3A4). Outre le fait que son nom évoque un indicatif téléphonique ou un code postal, cet enzyme contribue, dans l'organisme, à l'élimination d'un certain nombre de substances. Lorsque son action est inhibée, lesdites substances risquent donc de s'accumuler dans le corps.

Des études antérieures ont démontré que le jus de pamplemousse aurait pour effet d'augmenter les concentrations dans l'organisme de 60 % des médicaments d'ordonnance. Les oestrogènes feraient partie de ces substances dont la métabolisation dépend du CYP3A4. Or, on pense que le cancer du sein pourrait être associé à une élévation des taux sanguins d'oestrogènes.

Selon le pharmacien Jean-Yves Dionne, spécialiste des produits de santé naturels, il est assurément trop tôt pour s'alarmer. « L'effet inhibiteur du pamplemousse sur CYP3A4 est bien réel, mais il serait nettement outrancier d'en conclure que ce fruit a des effets cancérogènes », soutient-il.

- L'alcool en cause dans les cancers digestifs

Un peu de vin protège pourtant d'autres maladies et l'alcool peut être bénéfique aussi dans certains cas, mais tout est dans la dose qui doit rester faible...

La consommation quotidienne d'alcool augmente le risque de développer un cancer digestif d'environ 10% selon une étude européenne.

L'union Européenne a mis en place une vaste étude de prospective (EPIC) qui assure le suivi à long terme d'un demi million de personnes à travers dix pays de la Communauté. EPIC a été conçu pour étudier les rapports entre le régime, le statut alimentaire, le style de vie et les facteurs environnementaux et l'incidence du cancer et d'autres maladies chroniques. Les premiers résultats avaient déjà fait état d'un plus grand risque de cancer colorectal chez les grands consommateurs de viande rouge tandis qu'un régime riche en fibres et en poissons protège de cette pathologie.

Cette fois c'est de l'alcool qu'il s'agit. Les analyses statistiques ont montré que la consommation de 15g d'alcool par jour, soit un demi litre de bière ou un grand verre de vin, augmente de 10% le danger d'être affecté par un cancer du tractus digestif. Lorsqu'on double les quantités (30 g/jour) le risque augmente fortement pour se situer autour de 25%. Ce n'est bien sûr pas le seul facteur en cause mais comme le souligne le professeur Tim Key, un épidémiologiste britannique : « les gens doivent comprendre qu'ils peuvent réduire le risque de développer un certain nombre de cancers en limitant leur consommation d'alcool.»

Ces nouvelles données contredisent quelque peu les déclarations d'un certain nombre de médecins qui affirment qu'une consommation modérée d'alcool n'est pas préjudiciable et peut même s‘avérer bénéfique pour la santé. Ces affirmations ne sont bien entendu pas faite à la légère mais repose également sur des études scientifiques valides. En fait la leçon a tiré de ces résultats contradictoires est qu'il est très difficile d'affirmer quel va être l'effet de l'alcool sur un individu, les facteurs personnels sont trop nombreux pour être tous pris en compte. C'est pourquoi il s'avère très complexe de déterminer un niveau de consommation raisonnable.

Une recherche réalisée au début de l'année par l'Agence internationale pour la recherche sur le cancer (International Agency for Research on Cancer) a montré que 297200 cas de cancer colorectal ont été diagnostiqués dans l'Europe des 25 en 2006. Ces résultats en font donc le troisième cancer le plus fréquemment diagnostiqué après le cancer du sein et de la prostate. 139400 personnes sont décédées de cette maladie cette année-là.

- L'alcool contre l'inflammation ?

Ce n'est pas seulement le vin mais une consommation modérée d'alcool qui peut avoir une action protectrice contre l'inflammation et les maladies dégénératrices. D'un autre côté l'alcool favorise les cancers de la gorge et de l'estomac et peut avoir bien d'autres inconvénients à doses plus élevées... Il n'y a pas de bon et de mauvais produits, comme toujours, tout dépend des personnes et de la dose ! Ce qu'on pourrait dire, c'est qu'il vaudrait mieux éviter de boire quand on est jeune alors qu'il serait bien plus recommandé de boire (modérément) quand on est vieux.

Boire de trois à dix consommations d'alcool par semaine pourrait avoir un effet protecteur contre l'arthrite rhumatoïde. C'est ce qu'indiquent les résultats d'une étude de cohorte menée en Suède auprès de plus de 2 000 personnes.

Les sujets qui prenaient au moins trois consommations alcooliques par semaine auraient réduit de moitié leur risque de souffrir d'arthrite rhumatoïde.

Selon les résultats d'autres études, une consommation modérée d'alcool pourrait contribuer à prévenir les maladies associées à un tel processus inflammatoire chronique : les troubles cardiovasculaires, l'accident vasculaire cérébral, certains cancers et possiblement la maladie d'Alzheimer.

- Un nanomédicament contre l'allergie

Les nanomolécules de fullerène seraient d'excellents antioxydants et pourraient réduire la production d'histamine. Pourtant on avait parlé des risques que les nanotubes de carbone soient cancérigènes, un peu comme l'amiante, et que les "buckyballs" (diminutif de "buckminsterfullerene", leur nom scientifique, et une référence humoristique au nom anglais de la chevrotine, "buckshot") seraient toxiques (pour les poissons notamment), mais les études sont contradictoires.

Leurs propriétés (solidité, faible poids, propriétés électriques) leur permettent de capter facilement les électrons et donc de neutraliser les radicaux libres. Les scientifiques ont notamment montré que les buckyballs pouvaient protéger les cellules nerveuses en séquestrant les espèces réactives de l'oxygène.

Des cellules immunitaires humaines (mastocytes) ont été activées par un composé mimant l'activité du pollen en présence ou en absence (contrôle) de buckyballs. Les scientifiques ont constaté une production cinquante fois inférieure d'histamine lors de l'utilisation de ces composés, ainsi qu'une inhibition de 30 à 40 médiateurs impliqués dans la réponse immunitaire (l'histamine est notamment responsable du rétrécissement des voies respiratoires dans le cas de l'asthme). Les résultats obtenus avec des souris présentées à des allergènes vont également dans le même sens. Le mécanisme d'action d'inhibition de la libération d'histamine reste flou mais les chercheurs pensent que les nanoparticules captent les radicaux libres inhibant ainsi la réponse allergique.

Pour Clifford Bassett de l'American Academy of Allergy, Asthma and Immunology de New York, cette approche pour combattre les allergies et les maladies auto-immunes par les nanoparticules est totalement nouvelle. Kepley se déclare confiant sur l'issue de ces recherches, y compris sur des maladies comme l'arthrite. Actuellement, il tente de réunir les fonds nécessaires pour mener une étude clinique. Il voudrait étudier les effets des buckyballs sur un large éventail de maladies (asthme, scléroses, rhinite...).

- Bouger pour prévenir le syndrome métabolique

Ce n'est pas vraiment une découverte mais on se rend compte à quel point la sédentarité est mauvaise pour la santé et qu'une activité minimale est nécessaire pour prévenir de nombreuses maladies (diabète gras, hypertension, maladies dégénératives). Ce serait même, dans certains cas comme le syndrome métabolique, le seul traitement efficace. Ceci dit, c'est comme tout, il ne faut pas abuser : trop de sport peut augmenter l'arthrose par exemple...

Marcher d'un bon pas 30 minutes par jour permettrait de prévenir et même de traiter le syndrome métabolique. C'est ce qui ressort de plusieurs études analysées par un médecin de Clermont-Ferrand, en France.

La pratique d'une activité physique sur une base régulière réduirait les facteurs de risque associés au syndrome métabolique soit l'hypertension, un haut taux d'insuline et de cholestérol, un excès de poids ou de graisse viscérale. L'exercice physique aurait des effets bénéfiques sans égard à l'alimentation ou à la perte de poids, mais leur action conjuguée augmenterait les bénéfices pour la santé.

- Le diabète des jeunes lié à la grippe ?

Il pourrait y avoir un lien entre les épidémies de grippe, ou d'autres virus (comme l'entérovirus coxackie B ou le virus de la rubéole) et le déclenchement du diabète de type 1, ou insulinodépendant, qui est une maladie auto-immune, par suractivation du système immunitaire. C'est du moins ce que semble indiquer la dernière épidémie en Australie.


 

- Transformer des cellules gliales en neurones

Jusqu'à présent les travaux du Professeur Magdalena Götz, titulaire de la chaire de génomique physiologique de l'Université de Munich, avaient conduit à mettre en exergue la capacité de ces cellules gliales à se comporter comme des cellules souches et à se différencier ainsi en neurones. Cependant, ces cellules ne possèdent cette capacité de différentiation que pour une durée limitée à celle du développement du cerveau. Lors des derniers stades du développement cérébral, les cellules gliales perdent, en effet, cette faculté particulière. Réactiver ce processus de génération des neurones en identifiant les leviers moléculaires inhérents à ce mécanisme représente l'un des objectifs de l'équipe du professeur Götz depuis quelques années. Les chercheurs de cette équipe ont ainsi testé l'action de protéines de régulation sur les cellules gliales d'un cerveau ayant achevé sa phase de développement. Même en quantité restreinte, ces protéines de régulation ont pu mener à l'activation des protéines concourrant à la différentiation neuronale. Les neurones obtenus, dont la physiologie a pu être appréciée et la fonctionnalité démontrée, semblent donc constituer une piste encourageante pour une éventuelle application thérapeutique dans le cadre des maladies neurodégénératives.

- Le rôle du sida dans la dégénérescence du cerveau

Voir aussi sur Futura-Sciences

Le virus du sida provoquerait directement des dégâts dans le cerveau à la fois en détruisant certains neurones et en bloquant la fabrication de nouvelles cellules neuronales, selon une nouvelle étude sur les causes de la démence associée au sida. Le VIH -virus de l'immunodéficience humaine- entraîne en effet des problèmes de mémoire ou de motricité chez certains patients qui peuvent déboucher sur une véritable démence.

L'une des protéines situées sur l'enveloppe du virus, la protéine gp120, qui permet au VIH d'entrer dans les cellules humaines, serait directement impliquée dans la neurodégénérescence des malades du sida, selon l'équipe de Stuart Lipton (Burnham Institute/University of California, USA). Ces chercheurs avaient déjà démontré que la gp120 pouvait entraîner la mort de certains neurones adultes.

Grâce à un modèle de souris qui produit cette protéine en grande quantité, Lipton et ses collègues montrent cette fois que la gp120 peut empêcher la division des cellules souches neuronales dans l'hippocampe, région cruciale pour la mémoire et l'apprentissage, et donc bloquer la fabrication de nouveaux neurones. Double coup dur pour le cerveau, incapable de combler les pertes.

En poussant plus loin leurs investigations, les chercheurs ont débusqué une enzyme, la p38 MAPK (mitogen-activated protein kinase), dont on sait qu'elle peut entraver la division des cellules. Manifestement, la présence de la gp120 entraîne une production accrue de p38 MAPK.

Cette découverte constitue un réel espoir thérapeutique. Des molécules réduisant les effets de cette enzyme existent déjà et ont été testées pour d'autres maladies. L'équipe de Stuart Lipton a d'ailleurs pu faire reprendre la division des cellules souches - dans des conditions expérimentales - en inhibant l'action de cette p38 MAPK.

D'autres affections neurodégénératives, comme les maladies d'Alzheimer et de Huntington, pourraient bien être concernées par cette découverte. On pense en effet que la régénération de neurones par les cellules souches est également perturbée par ces maladies.

- L'échec de la pensée positive

Ce qui est présenté un peu stupidement comme la découverte d'une "anomalie du cerveau" chez les dépressifs, n'est que la preuve expérimentale de l'impuissance de la "pensée positive" contre la dépression, voire sa contre-productivité pouvant aggraver les pensées négatives. Il n'y avait pas besoin d'IRM pour le savoir, ni pour savoir que la dépression résulte d'un déséquilibre des neuromédiateurs et d'une perte des neurones dans l'hypothalamus ! On ne retiendra donc que la conclusion :

"Ces résultats démontrent qu'il existe un groupe de patients dépressifs pour qui la thérapie cognitive traditionnelle peut être contre-indiquée".

- Effacer la mémoire...

De quoi faire peur, même si cela pourrait être utile dans certaines situations post-traumatiques et que cela n'a été essayé que chez les rats pour l'instant ! Il suffirait de bloquer l'action d'une protéine (PKM-zeta) pour effacer les souvenirs de la mémoire à long terme. Il faut rappeler cependant qu'on a déjà réussi à reconstituer des souvenirs effacés malgré une perte de neurones, simplement par un environnement stimulant !

Jusqu'à présent, des protéines comme la PKM-zeta étaient connue pour leur rôle dans la création de nouveaux souvenirs. Selon Sacktor et ses coauteurs, la mémoire à long terme n'est pas une inscription définitive mais un processus dynamique que le cerveau doit sans cesse maintenir. La PKM-zeta ferait partie de cette machinerie. Encore faut-il s'assurer que bloquer son action n'empêche pas tout forme d'apprentissage.

D'autres travaux avaient précédemment démontré que les souvenirs anciens étaient vulnérables lorsqu'ils remontaient à la surface et qu'au cours de cette phase dite de reconsolidation des substances chimiques permettaient de les effacer de façon sélective (lire Des souvenirs sans taches). Tous ces résultats, obtenus sur des rats, n'ont jamais été vérifiés sur l'Homme.


 

- Pour vivre vieux, vivons à deux

Enfin, ce n'est pas forcément vrai car ceux qui ont toujours été célibataires sont ceux qui vivent le plus vieux, au-delà de 70 ans (après une surmortalité entre 40 et 60 ans, surtout en cas de difficultés sociales ou de santé). Sinon, ce sont surtout les enfants qui protègent. Cette enquête de l'INSEE est très intéressante car elle montre que c'est le fait d'avoir vécu en couple qui est traumatisant quand on se retrouve seul et que les hommes se remettent en couple tout de suite au contraire des femmes. D'autre part on constate que les femmes choisissent presque toujours des compagnons d'un statut supérieur ce qui expliquerait que les hommes des catégories les plus basses restent célibataires, de même que les femmes des classes supérieures. L'interprétation féministe ne semble pas tenir, qui voudrait y voir l'effet du besoin de l'homme de dominer la femme, car on sait que c'est souvent la femme qui jette son dévolu sur l'homme, plus que le contraire, et il est bien difficile de croire que les femmes riches ne trouvent pas d'hommes qui veulent vivre avec elles ! Il faut se rendre à l'évidence que la domination masculine est soutenue par les femmes (ce qu'une étude sur les femmes de Sicile avait établi), ou plutôt, comme dit Lacan, les femmes cherchent un maître pour le dominer (elles veulent être la femme du chef)...

- Fièvre aphteuse en Grande-Bretagne : contamination accidentelle ?

L'épidémie de fièvre aphteuse en Grande-Bretagne pourrait avoir été causée par des laboratoires de recherches d'où le virus se serait échappé, c'est assez inquiétant pour toutes les autres recherches sur les virus humains...


 
 

Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique, économie


- Les européens se mettent au développement de bactéries programmables

L'Europe ne veut pas être distancée par les USA et se lance sur les traces de Craig Venter qui a une longueur d'avance dans cette biologie synthétique balbutiante...

Des scientifiques du Centre Helmholtz de Recherche en Infectiologie (HZI) en Allemagne débutent un projet européen de développement de minibactéries programmables. A la base de cette idée, un constat: seuls quelques gènes des microorganismes sont utilisés pour des applications biotechnologiques. Les chercheurs de Brunswick lancent donc un projet visant à réduire à l'essentiel le génome de la bactérie Pseudomonas putida tout en lui ajoutant, en contrepartie, un nouveau circuit génétique pour la biotransformation de composés aromatiques chlorés en molécules pharmaceutiques élaborées.

Ce projet intitulé "Probactys" (Programmable Bacterial Catalysts) est soutenu pour une durée 3 ans par l'Union européenne, à hauteur de 1,9 million d'euros.

- Du pétrole synthétique ?

LS9, une société californienne, travaille sur la production de fuel par des bactéries E. coli génétiquement modifiées. C'est un des premiers résultats opérationnels de la biologie synthétique, capable de produire des hydrocarbures de qualité comparable à ce qui sort des raffineries. Quant à, savoir si les quantités produites pourraient être significatives, c'est une autre affaire...

- Des piles à combustibles au méthanol pour les portables

Enfin une bonne solution pour remplacer les batteries de portable au moins puisque cela leur donnerait une autonomie de 50 heures, mais la technique employée a sans doute un potentiel beaucoup plus grand puisque ces piles à combustibles au méthanol se caractérisent par une première phase d'extraction de l'hydrogène avant la production d'électricité par combinaison avec l'oxygène.

En effet, l'utilisation de l'hydrogène se heurte à des difficultés insurmontables de stockage (c'est le gaz le plus léger et donc le plus difficile à stocker, sans compter les fuites), stockage très facile au contraire pour le méthanol qui est un carburant liquide. Par contre, s'il existait déjà des piles à combustible au méthanol, elles se révélaient trop encombrantes. La technique utilisée ici passant par 2 étapes distinctes : extraction de l'hydrogène et production d'électricité, permet de réduire considérablement l'encombrement puisqu'une pile à combustible de ce type pourrait s'intégrer dans un portable, faisant 10 cm de long pour un diamétre de 5 cm, l'ensemble du système pouvant atteindre 30 cm de long mais avec une capacité de 1000 W/h par kg, à comparer avec les performances des batteries actuelles de 150 W/h par kg (300 W pour les plus performantes).

Cela fait quelque temps que nous avions attiré l'attention sur le fait que le méthanol sera une énergie de substitution au pétrole beaucoup plus efficace que l'économie hydrogène dont on nous rabat les oreilles.

- Une batterie écologique en sucre

La batterie se veut entièrement écologique, puisque même sa structure est constituée d'un élément "bio" en plastique végétal, dans des réservoirs cubiques de 39 mm de coté, permettant de délivrer une puissance de 50mW. Le prototype présenté permet d'alimenter un baladeur numérique et une paire d'enceintes, mais l'ensemble batterie est ici constitué de quatre modules (de 39 mm), ce qui reste encore encombrant.

- Des cellules solaires de 3ème génération: 40% de rendement ?

Les annonces se multiplient sur l'énergie solaire de plus en plus performante et rentable.

Ces nouvelles cellules ont des points semi-conducteurs en forme de pyramide, ce qui leur permet d'absorber davantage de radiations infrarouges.

"Grâce à ce nouveau type de cellules, nous pourrons construire des usines à énergie solaire dans les pays en voie de développements les plus ensoleillées. A nos latitudes, l'utilisation la plus réaliste serait de couvrir nos immeubles avec des matériaux qui intégreraient des cellules solaires". A un niveau mondial, l'installation d'usines à cellules solaires croît fortement due à l'implication politique. On prévoit que leur nombre triple d'ici 2010 par rapport à 2004. "En Norvège si l'on couvre 0,3% du pays avec des usines à cellules solaires, nous pourrions supporter la consommation totale d'énergie dans le pays".

- Produire de l'électricité à partir de vibrations

Un peu anecdotique sans doute, mais pourrait avoir son utilité dans certains cas quand même.


Pour lancer l'animation faire "clic droit" et "lire".

- Un générateur d'électricité avec des vagues

Assez anecdotique aussi mais ce nouveau système robuste et bon marché pourrait donner un second souffle à la génération d'électricité par les vagues bien que peu performant (5W par bouée). Le principe est celui d'une sorte de muscle artificiel.


- De l'hydrogène à partir de bois


Un groupe de recherche du Institue of Multidisciplinary Research for Advanced Materials de l'université de Tohoku a découvert un procédé naturel de génération d'hydrogène à partir de la cellulose du bois. L'équipe de professeur Fumio SAITO a mis en évidence qu'un broyage physico-chimique à sec de la cellulose, suivi de sa caléfaction entraîne une synthèse à haut rendement d'hydrogène d'une grande pureté.

L'échantillon utilisé était composé de cellulose et d'un hydroxyde de métal qui servirait d'agent accélérateur de la réaction. Le mélange est broyé à sec puis chauffé dans un four électrique sous atmosphère d'argon.


- Production d'hydrogène par une laser solaire

Le Tokyo Institute of Technology (TIT) a mis en place un modèle expérimental de laser à pompage solaire. Le dispositif est composé d'une lentille de Fresnel de 2 m² pour concentrer le rayon lumineux vers une cavité optique constituée par un cristal de céramique. L'appareil a été réalisé de manière à pouvoir suivre la trajectoire du soleil au cours d'une journée. D'après des calculs, la cavité peut générer un rayon laser allant jusqu'à une puissance de 400 W.

Ce laser fait partie d'un projet global du TIT visant à utiliser l'énergie solaire d'une manière totalement différente de ce qui est fait actuellement afin de produire une nouvelle source d'énergie. Le processus est basé sur l'utilisation cyclique de magnésium - Mg. L'oxyde de magnésium - MgO - est réduit par le rayon laser en Mg, qui peut ensuite réagir avec de l'eau pour donner du MgO et de l'hydrogène. L'hydrogène pourra alors être utilisé dans des générateurs à H2 et fournir de l'énergie électrique mais aussi thermique (cogénération). Ce cycle du magnésium permet de produire de l'hydrogène à partir d'une source d'énergie gratuite et inépuisable.

Pour qu'un tel dispositif soit exploitable, il faut garantir un ensoleillement suffisamment fort et constant, ce qui n'est le cas que dans les déserts chauds.

- Réduire la consommation d'essence de 25%

Un système simple de réutilisation des gaz, appelé HCCI (homogeneous charge compression ignition), pourrait économiser 25% de consommation à bas régime. Voir aussi techno-science.

En résumé, il s'agit de faire fonctionner un moteur essence par auto-allumage, comme un diesel, en optimisant la répartition du mélange air-essence dans la chambre pour une combustion uniforme, d'où le nom: Homogeneous Charge Combustion Ignition.

Le problème est de contrôler le phénomène d'auto-allumage, qui est sensible aux conditions de température et ne peut être mis en oeuvre efficacement lorsque la température est trop faible, lors des démarrages, ou trop élevée, lors de la pleine charge. D'où l'idée de mettre en oeuvre une solution hybride, où la bougie est utilisée lors des phases extrêmes, et l'auto-allumage lorsque le moteur tourne de façon régulière. L'utilisation de l'allumage et des mouvements de soupapes asservis à l'électronique rendent le principe réalisable.

- Economiser du carburant en réduisant les frottements

L'acide Borique, produit commun à la fois insecticide, antiseptique et anti-transpirant, aurait des propriétés lubrifiantes supérieures à celles du Téflon et serait encore plus efficace mélangé directement à l'essence que dans l'huile, remplaçant ainsi les additifs habituels (on pourrait même se passer des pots catalytiques). Qu'en serait-il de l'impact sur les insectes ?

L'acide borique (H3BO3) est plutôt connu comme un insecticide assez commun. De façon surprenante, des scientifiques du U.S. Department of Energy's Argonne National Laboratory ont trouvé le moyen de s'en servir pour limiter les frottements dans les moteurs et ainsi réduire la consommation de carburant. La clé pour faire de ce produit un « supralubrifiant » est d'en réduire la taille jusqu'à l'échelle nanométrique.

L'énergie dissipée sous forme de chaleur par friction a été diminuée d'un facteur 2/3 par ce moyen. En terme de consommation de carburant pour un pays, c'est une économie de 4 à 5 %, ce qui n'est pas rien. Un autre facteur avantageux en ce qui concerne l'emploi de l'acide borique est le fait qu'on peut le produire à partir d'un minéral abondant et facile à extraire.

- La voiture la moins poluante

Cela ne veut pas dire du tout qu'elle ne pollue pas du tout...

Si, parmi les dix voitures les moins polluantes on trouve deux moteurs hybrides, le véhicule arrivant en tête du classement fonctionne au diesel. Il s'agit de la Polo Blue Motion de Volkswagen (1,4 TDI 80PS sans climatisation), suivie de la Prius de Toyota à moteur hybride, et ensuite d'un autre diesel, la Mini Cooper D avec filtre à particules.

Un autre véhicule de la firme allemande, la Passat Blue Motion, avait déjà remporté le prix Auto Environnement 2007 organisé par MAAF Assurances dans la catégorie "familiales", ainsi que le Grand Prix toutes catégories. Cette distinction vise à désigner les voitures dont les émissions en gaz à effet de serre et les rejets de particules sont les plus faibles.

- Hydrogenius: le premier avion biplace à hydrogène

Ce modèle allemand de biplace devrait voler en 2010.

Les annonces se multiplient d'avions solaires ou équipés d'une PAC (Pile à Combustible) pour sauver l'aviation menacée par le manque de pétrole. En attendant, si les nouveaux avions sont un peu moins gourmands en kérosène, car un peu allégés, l'augmentation du trafic continue à augmenter la part de l'aviation dans le réchauffement climatique...

- AeroQuad, un tout petit hélicoptère

Voulez-vous faire une balade dans les airs ? Vous déplacer sans tenir compte des obstacles ? Voici l'AeroQuad, un engin volant individuel aussi facile à piloter qu'un vélo jusqu'à une trentaine de mètres de hauteur.

Il y a d'autres projets d'hélicoptère personnel (vidéo) pas si loin de celui imaginé dans Spirou ("Les héritiers").

- Projet fou : un million d'habitants dans une tour de 4 km de hauteur !

Ce qui semble le plus irréaliste dans ce projet japonais vraiment délirant, c'est la résistance aux tremblements de Terre mais le plus intéressant, c'est la supposée autonomie énergétique.

En forme de pyramide à quatre côtés incurvés vers le sommet, la X-Seed 400, puisque tel est son nom, serait bâtie sur une superficie de 6,5 kilomètres de base et culminerait à 4000 mètres de hauteur, 224 mètres de plus que le Mont Fuji, dont il évoque irrésistiblement la forme !

L'ensemble de la structure qui comprendra environ 800 étages devra bien entendu être climatisé, mais surtout pressurisé afin d'éviter les désagréments et le danger représenté par les déplacements verticaux de ses habitants, dont on estime le nombre entre 500 000 et 1,6 million. Les bureaux d'études affirment détenir la solution au problème de l'énorme dépense énergétique nécessaire en équipant la construction de centrales solaires et éoliennes.


- Des membranes nanométrique pour purifier l'eau

De simples membranes possédant des pores inférieurs à 10nm suffiraient à rendre une eau potable, ce qui peut se révéler vital dans un contexte de pénurie d'eau.


 

- Des filtres sur le modèle des membranes biologiques

Imiter la nature pour faire des filtres, des pompes et tout autre système anti-entropique...

L'idée est d'imiter le fonctionnement des cellules nerveuses à l'aide de deux couches de silicium dopées différemment et épaisses de 12 nanomètres chacune. On perce ensuite des nanopores, afin de constituer la base analogue des canaux et des pompes ioniques, et l'on soumet le tout à une différence de potentiel électrostatique. Les deux couches se chargent alors, l'une positivement et l'autre négativement tout comme dans le cas de la polarisation des membranes cellulaires.

Les nanopores eux-mêmes ont une forme de sablier d'un diamètre de 1 nanomètre au milieu et de 6 nanomètres pour les parties débouchant sur les deux côtés de la membrane artificielle. De façon intéressante, la taille de ces ouvertures est modulable à l'aide de la différence de potentiel.

Dans la nature, les membranes semi-perméables permettent de contrôler le flux et les types d'ions qui pénètrent dans une cellule et donc les échanges entre les milieux intra et extra cellulaires.

On peut même imaginer séquencer l'ADN plus rapidement et à moindre coût en utilisant ce procédé, et pas seulement filtrer des protéines ou détecter des molécules spécifiques. On peut citer aussi des applications très variées, comme dessaler l'eau de mer ou filtrer les rejets CO2 pour lutter contre l'effet de serre.

- La première nano-machine-outil

Un microscope à force atomique (AFM) couplé à un logiciel de conception assistée par ordinateur (CAD-CAM) a montré pour la première fois la possibilité d'une fabrication bottom-up, atome par atome, constituant la véritable révolution annoncée depuis longtemps des nanotechnologies... sauf que le facteur temps rend cette convergence entre informatique et physique inexploitable à grande échelle, semble-t-il, pouvant tout au plus venir en complément de la nano-lithographie utilisée habituellement ?

- Matériaux à croissance de forme programmée

En utilisant un cocktail de polymères approprié, variant en densité et composition dans le disque, on peut pré-programmer à l'avance toutes sortes de figures, comme des hémisphères, des sombreros et même la structure ondulée faisant penser à une véritable méduse que l'on peut voir sur la photo ci-dessous.

Comme l'expliquent les auteurs, de tels matériaux programmables et auto-ajustables en fonction de la température pourraient avoir des applications intéressantes en optique, en médecine et selon les conditions climatiques.


- Le papier électronique devient réalité

Epson, en particulier, a développé un papier électronique (effaçable et reprogrammable) qui semble assez convaincant, de l'épaisseur d'un papier fort de 250g, et qui devrait être disponible vers 2010 (voir vidéos).

- Mémoire holographique réinscriptible

Grâce à une protéine de bactérie (Halobacterium salinarum) génétiquement modifiée, on peut obtenir une mémoire holographique réinscriptible 10 millions de fois et bon marché. Jusqu'à maintenant les hologrammes n'étaient pas réinscriptibles.

- Demain des ordinateurs au graphène ?

Décidément, on fait tout avec le carbone à l'échelle nanométrique ! Il pourrait ainsi remplacer avantageusement le cuivre dans les circuits électroniques miniaturisés et peut-être même le silicium dans les nano-transistors !

Le problème avec les connexions en cuivre, lorsqu'on cherche à réduire leur taille, est que la conductivité baisse et la chaleur dissipée augmente. Cela compromet le bon fonctionnement des puces associées, et surtout, fait baisser la vitesse de calcul de celles-ci. Avec le graphène, les électrons continuent à se déplacer avec peu de résistance pour des systèmes de taille nanométrique.

- Des ordinateurs quantiques en céramique bientôt ?

Une équipe internationale travaillant au London Centre for Nanotechnology vient de publier dans Science un article faisant état de la découverte d'un ordre quantique inattendu dans une céramique. Un ordre magnétique s'étendant sur une chaîne de 100 atomes a ainsi été mis en évidence, juste ce qu'il faudrait pour pouvoir réaliser un ordinateur quantique vraiment performant et dans des conditions physiques aisées.

L'équipe du LCN s'est aperçu qu'une cohérence quantique responsable d'un ordre magnétique microscopique et local existait bien dans un matériau classiquement désordonné et sans propriétés magnétiques.

Les résultats obtenus sont encourageant étant donné le nombre d'atomes présentant une cohérence quantique découverts. Comme on l'a dit, il s'agit de près de 100 atomes, réalisant une sorte de chaîne sur laquelle des ondes de spins avec basculement se sont propagées, qui ont pu être observés. Il reste encore beaucoup à faire mais, là aussi, une voie vers de véritables ordinateurs quantiques performants a été ouverte.


- Plus fort que le P2P

Non seulement ThePirateBay.org veut ressusciter Suprnova.org, mais encore veut-il en rendre l'utilisation encore plus simple et conviviale. Selon Peter Sunde, un des co-fondateurs de ThePirateBay, l'utilisation d'un logiciel de P2P est devenue obsolète. Avec le nouveau site, il suffira de cliquer sur une référence et un applet Java intégré au serveur s'activera, mettant directement l'ordinateur client en réseau avec les machines cibles hébergeant le fichier demandé.

- Spock un moteur de recherche sur les personnes

Vous êtes fichés (peut-être...) !

Actuellement, Spock.com recense environ 100 millions de personnes et en ajoute environ un million par jour.

Mais cela risque de ne pas plaire à tout le monde. Car si Spock.com fonctionne sur la base du volontariat, tout un chacun pouvant enrichir la base de données en fournissant ses indications personnelles et même sa photo, le moteur de recherche scrute aussi en permanence différents réseaux communautaires du web, comme Friendster, Bebo ou MySpace.

"Nous sommes un moteur de recherche organisant l'information à propos des individus. De la même manière que Google vous permet de taper n'importe quelle expression et vous donne une liste de résultats, nous vous donnons des résultats sur les gens".

- Carte Wi-Fi : trouver un hot-spot gratuit

Où se connecter avec son portable à Paris ?


- Un cerveau artificiel pour des robots

Un projet européen (SENSOPAC) d'implémentation dans les robots d'un cerveau artificiel calqué sur notre cerveau moteur devrait permettre de meilleures performances et une interaction plus naturelle avec les robots.

- Un robot autonome s'adaptant au terrain

On peut voir une simulation ici du comportement du robot.

- Un petit robot qui danse sur la musique !

Amusant...


- Contrôler les foules en copiant les fourmis

Des chercheurs de l'université de monash (Australie) se sont penchés sur le comportement des fourmis d'argentine (Linepithema humile) pour tenter de modéliser les mouvements de foule. Selon Martin Burd, spécialisé en écologie et évolution, plus les individus présents dans une foule se déplacent lentement et plus celle-ci sera évacuée rapidement.

Ainsi, Burd propose par exemple de disposer des obstacles devant les sorties de secours. Selon lui, mettre un pilier devant une porte permet d'accélérer la vitesse d'évacuation. Il soumet aussi l'idée de diviser les longs couloirs par des rails ou des séparations afin de canaliser et de ralentir les foules en reproduisant ainsi les lignes des fourmis.


- La pauvreté reculerait...

La pauvreté en France avait atteint un minimum en 1990 et en 2002, années où elle avait recommencé à croître, mais devrait baisser à nouveau en 2007.

Selon la définition de la pauvreté en vigueur, la France comptait en 2005 entre 3,7 et 7,1 millions de personnes pauvres. Entre 1,7 million et 3 millions de ménages étaient dans cette situation. La part de personnes pauvres serait comprise entre 6,3 et 12,1 %.


- Les premières villes

On pouvait s'en douter mais les premières villes ne se sont pas formées uniquement à Sumer mais jusqu'en Inde et au Pakistan. La civilisation d'Harappa était effectivement bien connue pour ses liens avec Sumer.

De nouveaux résultats, publiés aujourd'hui dans la revue science, suggèrent qu'un vaste réseau de sociétés primitives s'étendant des steppes russes à la péninsule Arabe, ait été à l'origine des premières civilisations humaines, apparues il y a près de 5000 ans.

La Mésopotamie, qui occupait une grande partie de l'Irak actuel ; garde tout de même une place à part et reste le berceau de la civilisation car c'est la que l'évolution urbaine a commencé mais une foule de villes et de cultures sont également apparues entre la Mésopotamie et l'Inde entre 3000 et 2000 avant JC.

- Une immense "cité hydraulique" autour du temple d'Angkor

Après des années de recherches et avec des moyens lourds, une équipe internationale a dressé la carte d'un territoire urbanisé de trois mille kilomètres carrés autour du temple d'Angkor, au Cambodge. Le système d'irrigation mis en place il y un millier d'années apparaît encore plus sophistiqué que ce que l'on pensait. Mais les habitants ont peut-être épuisé leur milieu...

Un millier d'étangs artificiels, des centaines de kilomètres de canaux, des digues et même 74 temples, le tout étalé sur trois mille kilomètres carrés et désormais minutieusement cartographié : c'est le bilan d'un immense travail international qui réunit depuis sept ans des chercheurs cambodgiens, australiens et français. Couronnant cet ambitieux projet baptisé GAP (Greater Angkor Project), la carte de cette cité inconnue vient d'être publiée dans la revue scientifique PNAS (Proceeding of the National Academy of Sciences of United States). Elle éclaire d'un jour nouveau la civilisation khmère et l'histoire qui s'est jouée ici entre le 9ème et le 16ème siècle.

Thématiques