Thématiques > Revue des sciences

Revue des sciences du mois d’août 2007

Le 1er  août 2007 par Jean Zin


Revues : Pour la Science - Le Monde de l'intelligence

Brèves : Physique - Climat - Biologie - Santé - Technologie

- Pour une physique pluraliste
Compte-rendu du livre de Lee Smolin Rien ne va plus en physique ! L'échec de la théorie des cordes.

Il y a plusieurs livres en un seul : 1) une histoire limpide de la physique depuis Galilée et de ses révolutions théoriques tendues vers l'unification des phénomènes. 2) une évaluation critique de la théorie des cordes et de son hégémonie malgré les déceptions qu'elle a provoquées et son incompatibilité avec la relativité générale. 3) une revue des théories alternatives : MOND (Modified Newtonian Dynamics), DSR-II (relativité doublement restreinte), gravitation quantique à boucles, géométries non-commutatives, triangulations dynamiques... 4) une critique de l'état de la science et de ses pesanteurs sociologiques ou de ses effets de mode.

En fait, je ne pensais pas faire une revue des sciences si importante ce mois-ci mais si "La Recherche" ne paraît pas, ni quelques autres revues scientifiques grand public, la science ne part pas en vacances pour autant ! On le verra, il y a quelques découvertes de taille sur la naissance du néolithique en Afrique, la similitude de notre génome avec celui de l'anémone de mer, le rôle des ARN non codants, sans compter l'homme au cerveau invisible et bien d'autres choses étonnantes (ou inquiétantes pour le climat et la biodiversité)...



Pour la Science no 358, Afrique de l'ouest


Pour la Science

- Subventionner la bulle immobilière !, p6
Ivar Ekeland

La possibilité de déduire de ses impôts les intérêts des emprunts pourrait faire monter les prix et favoriser ceux qui ont déjà un logis.

C'est bien ce qui m'a semblé évident lorsque l'annonce en a été faite : dans le contexte d'une bulle immobilière résultant d'une concurrence entre riches, toute aide fiscale ne peut que faire monter encore plus les prix !

L'effet de la subvention est double : elle aide ceux qui n'ont pas de logement à en acquérir un, ce qui est son but affiché, mais elle permet aussi à ceux qui en ont déjà un d'en trouver un meilleur. Quel sera l'effet prédominant ? Cela dépend de l'état du marché et de la nature de la subvention. Comme il s'agit d'une incitation fiscale, elle favorise les hauts revenus, et on peut donc penser qu'elle servira surtout à mieux loger ceux qui le sont déjà. C'est pour cela que cette disposition fiscale, qui existait en Grande-Bretagne, a été abolie dans les années 1990 : les Anglais ont jugé qu'il s'agissait d'un transfert des revenus moyens vers les revenus élevés. Je voudrais laisser le mot de la fin à un économiste de mes amis : "Pourquoi favoriser l'accession à la propriété quand on cherche à augmenter la flexibilité du travail ?".

- Champ gravitationnel entre Brans-Dicke et Higgs !, p17

Je ne m'appesantirais pas sur le fond de l'article concernant les champs de Higgs et de Brans-Dicke sensés rendre compte de la gravitation par une "brisure de symétrie", l'un au niveau des particules (pour rendre compte de la masse), l'autre au niveau cosmologique (pour rendre compte de l'inflation), et qui pourraient être identiques. Certes, il n'est pas sans intérêt de voir la séparation étanche entre cosmologie et physique des particules, surtout aux USA, ce qui a empêché le rapprochement des deux théories depuis 1961, mais je dois dire que je n'arrive pas à croire à ces hypothèses ad hoc qui ne sont basées sur rien, le champ de Brans-Dicke étant d'ailleurs une pure spéculation au départ, même si tous les physiciens ou presque sont persuadés de l'existence du fameux "boson de Higgs". Bien sûr, c'est l'expérience qui décidera (l'année prochaine peut-être). Ce qui m'a amusé, par contre, c'est de voir comment l'édition américaine a été adaptée pour ne pas déplaire au lecteur français. En effet, le rapprochement des deux champs a été fait presque simultanément en 1979 par Anthony Zee et Lee Smolin. Voyons comment on rend compte du cheminement du premier dans la version française :

En 1974, A. Zee, alors en année sabbatique à Paris, tomba sur des articles de théoriciens européens qui utilisaient des outils de la physique des particules pour tenter d'éclairer certaines questions cosmologiques. Cette rencontre fortuite ranima son intérêt pour la gravitation et, de retour aux Etats-Unis, à nouveau au contact de J. Wheeler, il réorienta ses recherches vers la cosmologie primordiale, et publia un article avec le physicien français Bernard Julia sur les dyons, des objets prédits dans les théories de grande unification et susceptibles d'apparaître dans l'Univers primordial. 21

Et la version anglaise :

He rented an appartment from a French physicist while on sabbatical in Paris in 1974, and in his borrowed quarters he stumbled on a stack of papers by European théorists that tried to use ideas from particle theory to explain various cosmological features (such as why the observable universe contains more matter than antimatter). Althouh he found the particular ideas in the papers unconvincing, the chance encouter reignited Zee's earlier interrest in gravitation. Returning from his sabbatical and back in touch with Wheeler, Zee began to redirect his research interest toward particle cosmology. 46

On voit qu'on a cru devoir retirer l'allusion au fait que les théories des Français n'étaient pas convaincantes et qu'on a rajouté au contraire un article écrit en collaboration avec un Français, ce qui tend à prouver le contraire...

- La voie lactée, un espace de tranquillité au bord du vide, p23 et p30

On avait déjà signalé le mois dernier la découverte, reprise ici, du caractère exceptionnellement calme de notre galaxie, n'ayant pas subi de collisions majeures avec d'autres galaxies depuis 10 milliards d'années au moins (ces collisions d'amas de galaxie étant généralement cataclysmiques). Une autre information très intéressante vient compléter la singularité de notre histoire : la voie lactée se situerait au bord d'un vide sidéral (en cliquant sur l'image ci-contre de l'univers à grande échelle, on peut voir comment ces vides se forment entre les "filaments" de galaxies, et vont en s'agrandissant). En effet sous l'effet de la gravitation (et de la constante cosmologique ou pression du vide) les zones désertiques semblent repousser les galaxies qui ont tendance à se concentrer. Ainsi, l'ensemble de galaxies formant notre "feuillet local" s'éloignerait de ce vide local à 259 km par seconde.

Sous l'influence de la gravitation, les galaxies sont en effet attirées vers les zones densément peuplées ; elles semblent donc fuir les régions de faible densité, et ce d'autant plus vite que ce vide est vaste. Les chercheurs ont ainsi déduit de la vitesse d'éloignement du feuillet local que le diamètre du vide local est d'environ 150 millions d'années-lumière.

Voilà qui nous protège sans doute, assurant à la vie une longue évolution sans catastrophe cosmique. Il faudrait ajouter que cela ne fait pas si longtemps que les trous noirs se sont assez calmés pour laisser une chance à la vie d'apparaître (voir les brèves) et que donc il n'est pas sûr que d'autres galaxies ont pu abriter une vie évoluée depuis beaucoup plus longtemps que nous, on pourrait même être parmi les premiers (à quelques centaines de millions d'années près!).

- L'altruisme des singes, p23

On le savait déjà de mille façons (par exemple on avait vu des chimpanzés ou des gorilles prendre soin de petits oiseaux ou s'occuper de chats) mais il semble qu'on a du mal à s'en persuader dans notre société de compétition généralisée, l'humanité n'est pas la seule à se caractériser par un altruisme qui n'est pas toujours si évident ! Il y a une grande solidarité du vivant, une sorte de pulsion à s'opposer à l'entropie qui déborde notre petite personne, une sympathie naturelle, l'agressivité n'est pas la seule pulsion naturelle ! étonnant, non ? Je trouve que ces expériences en disent autant sur notre propre débilité que sur le comportement animal. En tout cas, on a cru bon de faire le même test avec des chimpanzés (non élevés par l'homme) et des bébés de 18 mois, en mettant un bâton un peu hors de portée d'un homme qui tentait de l'attraper.

Les résultats sont éloquents : lorsque l'expérimentateur essayait d'attraper l'objet en tendant la main, 12 des 18 singes et 16 des 18 bébés testés l'ont aidé au moins une fois. Les bébés avaient juste une réaction plus rapide. L'aide était apportée même en l'absence de récompense ou malgré la présence d'obstacles. Dans d'autres expériences, les singes aidaient aussi un congénère non parent à récupérer de la nourriture.

- L'Afrique précurseur du néolithique, p44

Les choses sont toujours plus compliquées qu'on ne croit de loin et ne viennent pas miraculeusement d'un seul coup mais par petites avancées (que ce soit le vol des oiseaux, la découverte de la loi de la gravitation ou même l'invention du rock!). Ainsi, on s'imaginait que le néolithique était né au moyen-orient comme conséquence de la sédentarisation, menant progressivement à la culture des céréales, à la production de céramique, puis à l'élevage. Il semble que le processus commence plutôt au sud du Sahara qui reverdit vers 11 000 ans avant notre ère à la faveur du réchauffement climatique, à la fin de la dernière glaciation. Cette période très humide (connaissant de véritables déluges), forme "de grandes surfaces marécageuses, et des zones jusqu'alors désertiques se couvrent de vastes plaines de graminées sauvages". Cette abondance ne favorise pas l'agriculture ni même une véritable sédentarisation mais l'invention de la céramique d'abord pour conserver et cuire ces graminées dès 10 500 ans, suivi dès le IXè millénaire de la domestication de l'auroch (plus d'un millénaire avant les chèvres et moutons au Proche-Orient!), puis des premières cultures de sorgho au VIIIè millénaire à la frontière de l'Egypte et du Soudan, précédant de peu les premiers véritables agriculteurs du croissant fertile. Contrairement à ce qui va se passer en Palestine, ces éléments sont dispersés, ce qu'on va appeler le néolithique se caractérisant par le regroupement de l'ensemble de ces éléments qui préexistaient donc auparavant. Le plus surprenant sans doute, c'est que l'agriculture n'en constitue pas l'origine mais l'aboutissement. Ce n'est qu'à partir d'une nouvelle période aride, à partir de -2800, que l'agriculture s'imposera dans le sahel, mais plutôt sous forme itinérante, obligeant rapidement ces précurseurs du néolithiques à refluer vers des zones plus favorables : la vallée du Nil, les littoraux maritimes ou l'Afrique des savanes, amenant avec eux leur savoir-faire.

Nous voyons que, très tôt en Afrique, apparaissent des sociétés au mode de vie néolithique, mais sur la base de graminées sauvages. Ces sociétés ont maîtrisé la poterie et sans doute d'autres techniques néolithiques. Elles peuvent être considérées comme néolithiques, pourvu que l'on accepte d'appliquer une définition moins restrictive de la néolithisation.

Les attributs du système néolithique africain sont les mêmes que ceux de l'européen - agriculture, élevage, poterie, sédentarisation -, mais au lieu d'être présents simultanément au sein d'une même population, ils ont pu être répartis au sein de plusieurs groupes contemporains (...) se spécialisant dans l'un ou l'autre des domaines de production des biens vivriers, et comptant sur les voisins pour les productions complémentaires. Ainsi naît une situation complexe de rapports d'interdépendance entre différentes populations aux activités variées.

- L'homme artisan des paysages de savane,p56

Un autre article insiste sur le fait que le paysage africain est loin d'être resté naturel mais qu'il a été façonné par l'homme depuis le néolithique, la pratique d'une agriculture itinérante impliquant l'usage des feux de savane, feux qui ont été dénoncés à tort comme responsables de la désertification alors que les zones les plus dégradées sont celles qui sont épargnées par le feu. La pratique de l'écobuage et de la culture sur brûlis montre effectivement que le feu peut être fertilisant (outre qu'il protège d'incendies naturels à la période sèche). En tout cas, ce n'est pas d'aujourd'hui qu'il n'y a plus aucune forme de "forêt primaire" en Afrique de l'Ouest.

Les discours parfois simplificateurs sur la dégradation des ressources ou la désertification stigmatisent souvent les pratiques paysannes,mais ignorent leur rôle ancien. Il ne s'agit pas pour autant de dire que ce qui a été efficace pendant des millénaires le reste indéfiniment (...) les systèmes traditionnels - d'une réelle efficacité à faible densité de population - connaissent depuis quelques décennies de graves dysfonctionnements : dans les terroirs aujourd'hui saturés, le principe essentiel du système, la jachère, est en cours de disparition.

- Océans plus chauds, cyclones plus violents, p78

Il est bon d'être sceptique envers les sciences et les vérités officielles, le dogmatisme scientifique est bien réel et les innovateurs ont toujours du mal à se faire entendre surtout lorsqu'ils remettent en cause le paradigme dominant, seulement les sceptiques sont rarement aussi sceptiques envers leurs propres théories et sont souvent assez délirants, persuadés de détenir la vérité ! On a certes bien besoin de scientifiques qui remettent en cause les rapports officiels, comme celui du GIEC sur le réchauffement climatique, ou qui critiquent les modèles climatiques certes bien imparfaits. Ainsi, on peut trouver assez fou de prétendre prévoir le temps qu'il fera en 2100 comme prétend le faire l'Atlas du réchauffement climatique (Autrement, 2007) alors qu'on modélise encore si mal l'évaporation. Cependant il semble tout aussi fou de prétendre soit qu'il n'y a pas de réchauffement climatique, soit qu'il n'est pas en bonne partie d'origine humaine et que notre production de gaz à effet de serre resterait marginale, soit que l'augmentation des températures globales ne provoquerait pas plus d'ouragans ou autres événements extrêmes... C'est cette dernière objection que cet article tente de réfuter. Il faut dire que la saison 2006-2007 a semblé contredire les prévisions avec beaucoup moins d'ouragans que dans la période 2004-2005 qui a tant frappé les imaginations avec les ouragans catastrophiques Katrina et Rita.

L'explication est, comme toujours, assez complexe puisqu'il faut tenir compte qu'une "oscillation atlantique pluridécennale" expliquant une augmentation de température de surface de 0,5° depuis 1990, après une période plus froide de 1970 à 1990, ainsi que l'incidence du phénomène El Nino (réchauffement périodique de l'océan Pacifique tropical) qui s'y est ajouté en 2005 (paradoxalement le fait qu'il soit plutôt faible a eu des conséquences plus catastrophiques en réduisant les vents et donc le refroidissement), c'est en plus de tout cela qu'il faut compter le réchauffement climatique de 0,6° depuis 1970. En 2005-2006, par contre, le phénomène El Nina marquant un refroidissement du Pacifique tropical, cela explique une saison beaucoup plus calme mais qui n'a rien pour nous rassurer la teneur en vapeur d'eau atmosphérique ayant augmenté de 4% au cours des 37 dernières années et la température continuant de grimper, il faut se préparer à une augmentation de la violence des cyclones à l'avenir...

Nul ne peut affirmer qu'un cyclone donné a été "causé" par le réchauffement global, mais le réchauffement de la planète influe clairement sur la puissance des cyclones et sur les précipitations associées.

Ainsi, tant les observations que la théorie suggèrent que les cyclones deviennent plus intenses à mesure que la Terre se réchauffe. mais il est difficile de dire si le nombre absolu de cyclones augmentera, car les tempêtes tropicales extraient la chaleur des océans beaucoup plus efficacement que les orages moyens. De ce point de vue, une grosse tempête peut également être plus efficace que deux petites, et il est donc possible, voire vraisemblable, qu'il naisse moins de cyclones, mais que ceux formés soient plus gros et plus violents.

Quoi qu'il en soit, les mesures sans cesse améliorées indiquent que le réchauffement global est en train d'augmenter les températures de surface des mers. Cette augmentation va probablement, à son tour, stimuler l'activité des cyclones.

- Science et enseignement, p100

Un livre sur "L'exemple de la grande réforme des programmes du lycée au début du XXè siècle" (1902), sous la direction de Hélène Gispert, Nicole Hulin et Marie-Claire Robic (Vuibert, 2006) montre que de nombreux problèmes restent d'actualité, insistant sur la primauté de la méthode inductive expérimentale :

Cette méthode, centrée sur l'observation et l'expérience, s'oppose à la méthode déductive pour laquelle les lois sont directement formulées, puis vérifiées lors d'expériences de démonstration. Comme un leitmotiv, les débats soulignent la nécessaire mise en activité des éléves et la référence permanente à des faits concrets afin de lutter contre le verbalisme et le dogmatisme.




Le Monde de l'intelligence no 10, Les dangers du WiFi sur le cerveau


- Hyperactivité et troubles de l'attention chez l'adulte, p20

Le Trouble de l'Attention et d'Hyperactivité chez l'enfant est déjà bien reconnu (TDAH) surtout depuis qu'un traitement existe (Ritaline) mais il y a une forte résistance en France où les déficits hormonaux sont déniés et leur traitement considéré comme une médicalisation de troubles psychiques ou affectifs, voire une simple drogue. C'est pourtant un fait qu'il y a des déséquilibres biologiques, des variations plus ou moins génétiques entre les individus et dont les enfants souffrent, pas seulement les adultes qui doivent les supporter, alors que la Ritaline régularise spectaculairement le déficit lorsqu'il est bien diagnostiqué. Il y a quelques raisons de penser que cette variabilité n'est pas sans raisons et peut avoir une fonction positive dans certaines sociétés (tout comme l'autisme) mais ce n'est pas une raison pour "laisser faire la nature", pas plus que pour la souffrance ou toute autre maladie. Certes il y a des abus manifestes, comme toujours, mais cela ne doit pas mener à nier un problème bien réel qu'on commence d'ailleurs à reconnaître désormais chez l'adulte aussi et qui toucherait au moins 4% de la population. Evidemment, il ne faut pas prendre une période difficile pour un déficit de constitution, les arguments de ceux qui sont opposés à la Ritaline ne sont pas tous infondés, et s'il se vérifie que l'origine serait un déficit en fer, c'est à ce niveau qu'il vaudrait mieux agir, mais il faut agir, tout le monde n'est pas en bonne santé et le fonctionnement du cerveau n'est pas optimal par principe ! Si un certain nombre de techniques non médicamenteuses peuvent être utiles quelque fois (psychothérapie, biofeedback), il ne faut pas en faire une règle absolue. Vouloir faire de la Ritaline une drogue de la soumission est par contre absolument ridicule (ce qu'on pourrait dire de calmants ou de neuroleptiques). Les positions simplistes ou idéologiques sont toujours à proscrire...

D'après les estimations, essentiellement nord-américaines, 50% à 60% des enfants concernés par le TDAH le restent une fois adultes.

En cause, deux des plus importants neurotransmetteurs du cerveau : la dopamine et la noradrénaline, impliquées dans l'attention et l'éveil, ne sont pas assez présentes dans les régions clef, comme le cortex cingulaire antérieur (impliqué dans la planification de l'activité) et le cortex préfrontal dorso-latéral (qui ajuste les actions en fonction des buts). dans une récente étude menée par Eric Konofal et Michel Lecendreux, 84% des enfants TDAH observés avaient une carence en fer.

- Le Wifi, un danger pour le cerveau ?, p41

Alors que la diffusion des téléphones Wifi et de l'internet sans fil est en plein essor, les premiers témoignages et avertissements sanitaires résonnent outre-Manche.

On avait déjà signalé le mois dernier les premiers avertissements contre l'utilisation des téléphones WiFi. Il semble que c'est un remake de la contestation des téléphones mobiles accusés de tous les maux, mais il ne faut pas aller trop vite en besogne car, ce qu'on a appris, c'est que tout dépendait des ondes et de la puissance. C'est un peu comme les OGM, il faut juger au cas par cas, ni condamner la technologie par principe, ni lui faire une confiance aveugle. Or, il semble que la technologie WiFi, utilisant des hautes fréquences situées dans la gamme des "micro-ondes", puisse être plus nocive que le GSM. Rien de sûr encore, mais de quoi appliquer le principe de précaution tout de même. Très courtes, ces "micro-ondes" pénètrent peu dans l'organisme (jusqu'à 2,5 cm de profondeur) et ne sont pas assez puissantes pour provoquer un réchauffement, mais suffisamment tout de même pour altérer l'activité hormonale (mélatonine en tête) et la perméabilité du cerveau.

On sait depuis environ 30 ans que les champs électromagnétiques de basse intensité à très haute fréquence peuvent avoir une influence directe sur les ions calcium en réduisant leur concentration intracellulaire.

Le changement de perméabilité membranaire des cellules nerveuses occasionne des potentiels d'action erronés, qui dérèglent la qualité du signal nerveux reçu par le cerveau. cela réduit son aptitude à accomplir des tâches complexes et entraîne chez certaines personnes (à peu près 3% de la population), l'apparition de symptômes variés, plus ou moins douloureux.

Sans vouloir gonfler le problème on peut donner quelques conseils comme éviter de toucher une antenne WiFi de façon prolonger, de mettre un portable WiFi sur ses genoux, de téléphoner avec un téléphone WiFi sans oreillette, de ne pas dormir près d'un boîtier ADSL ni le mettre sur son bureau mais de l'éteindre chaque soir et de le mettre en hauteur (plus de 2m) ce qui améliore d'ailleurs le rayon de couverture.





Brèves et liens




Physique


cosmologie, astronomie, physique quantique


- Avant le Big Bang ?

Ce n'est qu'une confirmation des théories de Lee Smolin dont je viens de rendre compte. Je dois dire que cela me laisse tout de même un peu sceptique car ces Big Bangs devraient se produire à chaque trou noir et semblent impliquer une fuite de matière dans d'autres dimensions.

L'Univers pourrait passer périodiquement par des phases d'oscillations avec « rebonds », avec une série sans commencement ni fin de Big Bang et de Big Crunch.

Si l'on représente le facteur d'expansion de l'Univers au cours du temps celui-ci effectue un mouvement rappelant celui d'une balle rebondissant éternellement de façon élastique, on parle d'ailleurs en anglais de « bouncing Univers » pour des théories de ce genre. On pourrait croire que chaque cycle d'expansion-contraction reproduit l'Univers à l'identique mais Bojowald fait remarquer que ses équations quantiques rendent en partie indéterminés les paramètres décrivant chaque nouveau cycle qui perdrait donc à chaque fois une partie des informations caractérisant l'état précédant.

- Avant le Big Bang: l'amnésie de l'Univers...

Tous les physiciens ne pensent pas que le temps a commencé avec le Big Bang, qui pourrait n'avoir été qu'une transition entre un univers en contraction et le nôtre, en expansion. Martin Bojowald de l'université de Pennsylvanie a étudié le modèle de la "gravitation quantique à boucles" pour démontrer que même si un tel univers "pré-Big Bang" avait existé, il nous serait impossible d'en saisir certains aspects (Etude à paraître dans Nature Physics).

Cette disparition de la singularité, cependant, autorise d'envisager que l'univers ait pu exister avant le Big Bang dans un état "opposé" à l'expansion actuelle. Ceci signifierait que le Big Bang n'ait pas marqué le début de l'univers, mais qu'il ait été une transition, un "rebond" de celui-ci, passant d'un état en effondrement à un état en expansion.

Nous vivions dans une ère de post Big Bang, et bénéficions d'un espace-temps assez lisse. Mais avant le Big Bang, si un tel moment a jamais existé, il est possible que l'univers se soit trouvé dans un état de fluctuation quantique dans lequel le concept même de temps pourrait n'avoir eu que peu de signification. Bojowald a constaté que la propre taille de notre univers actuel provoquait une incertitude fondamentale dans ses équations qui nous empêcherait à jamais d'apprendre quoique que ce soit sur l'importance des fluctuations quantiques d'avant le Big Bang. Ceci signifie que nous ne pourrions, par exemple, pas effectuer de calculs "inversés" pour remonter tous les aspects de l'univers avant le Big Bang - ce que Bojowald appelle "l'amnésie cosmique".

- Théorie: l'énergie sombre dissimulée dans des dimensions cachées ?

La théorie des cordes n'est pas morte ! Une nouvelle hypothèse sur l'énergie sombre tente d'expliquer pourquoi les supposées "dimensions cachées" restent si petites et ne deviennent pas visibles. Ce serait le fait d'être confinées dans une petite dimension, de l'ordre de 10 microns qui maintiendrait ces dimensions à cette taille par un phénomène de résonance qui serait relié à l'effet Casimir (qui provoque l'attirance de deux plaques métalliques très proches) ! C'est un peu tiré par les cheveux mais au moins c'est une hypothèse testable puisqu'elle impliquerait une augmentation de la gravitation à des distances inférieurs à 0,01 millimètres et cela répond à la principale objection, soulignée par Lee Smolin mais qui était déjà celle d'Einstein, aux dimensions supplémentaires qu'il faut figer artificiellement pour qu'elles restent invisibles. Futura-Sciences essaie d'expliquer un peu plus à fond la question mais c'est loin d'être très clair...

Brian Greene et Janna Levin de l'université Colombia de New York, pensent que, dans un espace confiné, les fréquences de résonance naturelles persisteraient, empêchant ainsi les vibrations de s'annuler complètement. C'est un peu comme les notes résonnantes produites par un instrument de musique, sauf qu'en lieu et place d'ondes sonores, les vibrations seraient des champs de force quantiques fluctuants, et que l'instrument serait un ensemble de dimensions perpendiculaires à nos trois dimensions familières.

Brian Greene et Janna Levine se sont alors rappelé de l'effet Casimir. Une modification de l'énergie du vide dans une portion finie de l'espace se produit lorsqu'on confine une partie des champs de particules, comme c'est le cas avec l'exemple bien connu de deux plaques conductrices avec l'effet Casimir. Or, les champs sont aussi confinés lorsqu'ils se trouvent piégés dans les dimensions compactes des théories de Kaluza-Klein. La modification de la densité d'énergie y est alors très forte.

Dans le modèle jouet que les deux physiciens ont considéré on trouve qu'effectivement, de manière presque automatique, les n dimensions compactes sont stabilisées pour certaines classes de topologie aussi bien des dimensions supplémentaires que de l'Univers en 3D, alors que les 3 autres entrent en expansion puis en expansion accélérée. De plus, l'ordre de grandeur de l'énergie du vide produit par la prise en compte de l'effet Casimir dans les dimensions supplémentaires est bien celui de l'énergie noire.

Greene et Levin prévoient que les dimensions supplémentaires devraient être de l'ordre de 0,01 millimètre. L'énergie sombre se cacherait à quelques microns de nous.

Jusqu'ici, les deux physiciens n'ont fait qu'ébaucher leur théorie, mais ils peuvent déjà l'utiliser pour résoudre un autre problème, plus ardu. La théorie des cordes, théorie prometteuse en ce qui concerne l'unification des quatre forces de l'univers, exige sept dimensions supplémentaires minuscules, enroulées sur elles-mêmes. Malheureusement, celles-ci s'avèrent être instables, prêtes à "exploser".

Avec la nouvelle théorie, ces dimensions supplémentaires pourraient avoir un comportement forcé. Le juste équilibre des champs de force quantiques agirait comme un ressort tendu dans les dimensions supplémentaires, les maintenant à une certaine taille.

- Une nouvelle population de galaxies au fin fond de l'Univers

Une équipe internationale d'astronomes, à laquelle participe un chercheur du Laboratoire d'Astrophysique de Marseille, semble avoir trouvé une nouvelle population de galaxies dont la lumière aurait mis plus de 13 milliards d'années à nous parvenir. Cette découverte, utilisant l'effet de mirage gravitationnel, mettrait en évidence l'existence de galaxies alors que l'Univers n'était âgé que de 500 millions d'années.

Le grand nombre de galaxies trouvées semble indiquer qu'il existait à cette époque une grande population de galaxies intrinsèquement peu brillantes. Le flux ultraviolet ionisant de cette nouvelle population de galaxies serait suffisant pour expliquer le phénomène de ré-ionisation de l'Univers (ionisation des atomes d'hydrogène neutre du milieu intergalactique) qui marqua la fin des "Ages Sombres".

- Le fond cosmique infrarouge

Après le fond cosmique micro-onde (380 000 ans), voici le fond cosmique infrarouge (6 milliards d'années) donnant l'image de l'univers il y a 8 miliards d'années (puisquil serait âgé de 13,7 milliards d'années).

- 4 soleils pour un système planétaire

C'est surtout pour l'image : 2 fois 2 étoiles doubles en gravitation les unes avec les autres :

- Le déclin des trous noirs

Ce n'est pas vraiment une nouveauté mais la confirmation que les trous noirs sont de moins en moins actifs étant donné qu'ils font le vide autour d'eux me semble impliquer que la vie ne pouvait guère apparaître plus tôt car l'univers était trop violent jusqu'à la formation de notre galaxie.

L'équipe a recensé les AGN (noyaux galactiques rendus actifs par la présence d'un trou noir supermassif) de deux amas de galaxies situés à 5,7 milliards d'années-lumière (...). Ceux-ci sont observés tels qu'ils étaient alors que l'univers n'avait que 58 % de son âge actuel.

Comparant ce taux d'AGN avec celui observé dans d'autres amas bien plus proches de nous, donc plus anciens et correspondant à 82 % de l'âge de l'Univers, les scientifiques ont constaté que les jeunes amas contenaient environ vingt fois plus de noyaux actifs.

- En vidéo : les trous noirs régulent l'évolution des galaxies !

La vidéo du millénaire (pas trouvé si intéressante que ça !).


La vidéo ci-dessus est celle de la Simulation du Millénaire

- En vidéo : les traces d'eau liquide sur Mars

Les missions d'explorations martiennes nous ont révélé des images intrigantes de la surface de la planète rouge depuis presque 40 ans maintenant. Nombre d'entre elles suggèrent clairement que de l'eau liquide a autrefois coulé sur Mars. Une vidéo rassemblant certaines de ces images et les comparant avec les paysages que l'on peut trouver sur Terre a été réalisée.

Cette vidéo remarquable a été développée par Andrew Shaner, un étudiant en thèse, actuellement membre de l'équipe chargée de la mission Phoenix de la NASA qui sera bientôt lancée en Août  2007. La sonde explorera le sol glacé de l'arctique martien. Peter Smith, l'un des responsables principaux de la mission, a supervisé le contenu de cette vidéo produit par John Stoke et le informal education group of NASA's Hubble Space Telescope's Education and Public Outreach program.

- DUSEL : le futur grand laboratoire souterrain

Le futur grand laboratoire souterrain de recherche américain, le DUSEL (Deep Underground Science and Engineering Laboratory) serait construit dans l'ancienne mine d'or de Homestake, dans le Dakota du sud.

Ce laboratoire est destiné à accueillir des expériences dans divers domaines de la recherche de pointe, tels la physique des particules, la microbiologie, la biologie ou l'ingénierie. Etabli dans plusieurs strates jusqu'à une profondeur de 2250 mètres sous la surface, il permettra d'éviter toute interaction avec les particules omniprésentes en surface, provenant aussi bien du Soleil que de l'Univers, et qui peuvent fausser les résultats.

Plusieurs projets de recherche établis par de nombreux pays, y compris le Canada, l'Italie et le Japon existent déjà pour le DUSEL, dont certains visent à une meilleure compréhension de la nature de l'antimatière ou des neutrinos. Les scientifiques pensent que ce laboratoire unique pourra les aider à mieux comprendre la nature de la matière noire, qui compose 95% de la masse de l'Univers, ou de certaines particules "fantômes" qui infiltrent le cosmos sans interférer avec la matière. Mais l'emplacement du DUSEL permettra aussi d'étudier la séismicité de la Terre et de mieux modéliser le mécanisme de certaines secousses telluriques, dans le but d'arriver un jour à les prévoir, ou encore d'étudier les caractéristiques des microorganismes vivant à grande profondeur.



Climat



- Un voyage de 800 000 ans dans les glaces de l'Antarctique

Surtout une confirmation de ce qu'on savait...

Jusqu'à présent, l'étude des 3140m de glace extraits du site du Dôme C révélait l'histoire du climat de l'Antarctique au cours des 740 000 dernières années. D'autre part, l'analyse des bulles d'air piégées dans cette glace permettait d'étendre les enregistrements de la composition de l'atmosphère en dioxyde de carbone et méthane jusqu'à -650 000 ans.

La période de 10 °C plus froide qu'aujourd'hui, correspond au dernier maximum glaciaire il y a 20 000 ans, et celle de 4,5°C plus chaude, au dernier interglaciaire, il y a 130 000 ans. La corrélation entre la température en Antarctique et les variations du niveau de la mer telles qu'elles sont enregistrées dans les sédiments marins est remarquable, sur l'ensemble des 800 000 dernières années ;

La comparaison entre les variations de la température en Antarctique et celles de l'insolation, suggère que l'intensité des périodes interglaciaires est influencée par l'interaction entre les paramètres d'obliquité et de précession.

- Groenland et réchauffement climatique : l'ADN fossile parle !

Etonnant mais à confirmer, les glaces du Groenland n'auraient pas fondu depuis 450 000 ans !

D'après les analyses d'ADN fossiles conservés sous la glace du Groenland, celui-ci n'avait pas perdu une partie importante de sa couverture glacière il y a 125 000 ans environ, alors que la température globale de la Terre devait être de 5° C plus élevée qu'aujourd'hui. Cette date correspond à la période interglaciaire nommée l'Eémien et, à ce moment là, le niveau des océans était plus élevé de 5 à 6 mètres

La question qui s'est naturellement posée aux chercheurs a bien évidemment été de dater à quel moment dans l'histoire récente du Groenland celui-ci avait été en grande partie occupé par des forêts. La stupéfaction des chercheurs a dû être grande, car les datations fournies à partir des horloges biologiques provenant de l'ADN mitochondriale des insectes, qui change en fonction du temps, pointent en direction d'un âge supérieur à 450 000 ans ! Ce qui veut dire qu'au moment où la Terre était plus chaude de 5° C par rapport à aujourd'hui, les glaciers Groenlandais n'avaient pratiquement pas fondu et ne pouvaient donc pas être responsables de l'élévation de plusieurs mètres de la surface des océans à l'interglaciaire de l'Eémien.

- Montée des eaux : le danger vient des petits glaciers

La fonte des petits glaciers et non des glaces polaires sera la principale responsable de la montée des eaux due au réchauffement climatique annoncent des chercheurs.

Dans un article paru dans l'édition courante de la revue science, ils estiment que les glaciers pouvaient représenter 60 pour cent, ou une hauteur de 10 à 25 centimètres, de la contribution totale de la fonte des glaces à la montée des eaux. Les grandes structures glaciaires n'ont qu'une contribution très relative en comparaison : 28% pour le Groenland et 12% pour l'Antarctique.

Si les glaciers fondaient complètement, le niveau des mers augmenterait de près d'un mètre. Leur part n'est donc pas à négliger d'autant que leur relative petite taille les rend plus vulnérables que les deux calottes de glace aux pôles. Selon les auteurs, la plupart des petits glaciers repérés, par satellite, autour du monde auront disparu avant la fin du siècle.

- Prévoir les inondations au Bengladesh

Le Bengladesh est l'un des pays les plus peuplés et les plus exposés à la montée des eaux. Des cartes tentent de prévoir l'extension des zones inondables pour limiter les catastrophes humaines. Cela reste aléatoire et me paraît encore bien optimiste malgré tout...

- La pollution à l'ozone aggrave le réchauffement climatique

La pollution par l'ozone au niveau du sol résulte elle aussi d'un mécanisme relativement compliqué puisque l'homme n'émet pas directement de l'ozone, mais qu'il se forme à partir de l'effet des rayonnement du soleil sur d'autres polluants comme le dioxyde d'azote émis par les véhicules et des composés organiques volatiles.

Dans un article à paraître demain dans la revue Nature, des scientifiques estiment qu'en 2100 les niveaux d'ozone seront suffisamment élevés pour avoir un impact significatif sur la croissance des plantes qui sera fortement ralentie, réduisant d'autant leur capacité à absorber le dioxyde de carbone (CO2) atmosphérique.

- Manger de la viande réchauffe la planète

La consommation d'une grosse pièce de bœuf représente le même impact écologique qu'un trajet de 250 km en voiture et brûle assez d'énergie pour allumer une ampoule de 100 watts pendant près de vingt jours.

Déjà auparavant un travail suédois avait démontré que le bœuf élevé en plein air, sans méthodes intensives, émettait 40% de gaz en moins et consommait 85% moins d'énergie. Les auteurs suggèrent eux une meilleure gestion des déchets et une transformation de l'alimentation qui permettrait une diminution du volume des flatulences du bétail. Quoique le meilleur moyen soit encore de devenir végétarien...

- Réchauffement climatique: la fertilisation des océans par le fer

Le vaisseau de recherche de la compagnie, le Weatherbird II, devrait partir prochainement pour le Pacifique tropical, à environ 300 miles à l'ouest des îles Galápagos. Cent tonnes de fer devraient être injectées sous forme d'hématite et de sulfate de fer pour stimuler la croissance du phytoplancton sur une surface d'environ 10.000 km2. Le navire sera présent pour étudier le phénomène du début à la fin soit environ 4 à 6 mois. Afin de rendre ce procédé économiquement viable, l'objectif de Planktos est de le faire certifier comme moyen de séquestration du CO2 ce qui lui permettrait ensuite de vendre des crédits de carbone. Cette initiative est controversée et plusieurs associations environnementales telles que WWF, ainsi que plusieurs scientifiques s'y sont opposés.

Pourtant, des études ont montré que c'était peu efficace :

Cette fertilisation artificielle serait en fait dix fois moins efficace que le processus naturel. Au large des îles Kerguelen, le phytoplancton croît en effet vite, à condition qu'il puise le fer lentement et continûment dans l'océan austral. L'observation de la floraison du phytoplancton austral a montré que la quantité de fer nécessaire est très faible et absorbe deux fois plus de CO2 que dans les expériences de fertilisation artificielle. Selon Stéphane Blain, du Laboratoire d'océanographie et de biogéochimie de Marseille, la forme du fer utilisé et le mode d'addition, continue et lente, rend le processus naturel inimitable.

- Comment les villes assèchent le climat local

Dans le Journal of Climate, les auteurs de l'étude détaillent les changements observés durant la même période par seize stations météorologiques. La corrélation est nette : à mesure que la zone urbaine s'étendait, les précipitations hivernales se réduisaient.

« Essentiellement, cet effet est dû à la transformation d'un couvert végétal en surfaces asphaltées et en bâtiments, explique Karen Seto. Les sols ont alors une moindre capacité à absorber l'eau. Durant les mois d'hiver, l'humidité est moins élevée ce qui conduit à une réduction des précipitations. On n'observe pas le même impact en été, en partie à cause de la mousson, qui masque l'effet de l'urbanisation. »

Depuis 1988 un accord international pour la préservation des zones humides a été signé en 1971 (dans la ville iranienne de Ramsar).

Cette protection est-elle efficace ? Pour le savoir, Karen Seto et ses collègues ont simplement comparé les images prises par satellite de la réserve de Xuan Thuy et d'une autre réserve, non concernée par la convention Ramsar. Résultat cruel : les berges colonisées par les exploitations aquacoles, avec bien sûr destruction de la mangrove, se développent plus rapidement dans le secteur censément protégé par la convention...

- Des bancs de méduses se répandent en Méditerranée

Bonnes vacances...

Des essaims de méduses mauves de Stinger, répondant au doux nom de Pelagia noctiluca, se répandent en hordes impressionnantes dans le bassin méditerranéen.

Généralement, ces méduses affectionnent les océans dont la teneur en sel est assez importante. Mais les faibles précipitations du printemps dernier dans le sud de l'Europe ont considérablement réduit l'apport en eau douce et la salinité a augmenté dans d'importantes proportions en Méditerranée, tandis que la température de la mer s'élevait. Conditions de vie auxquelles sont très bien adaptées les méduses, qui se sont mises à y proliférer. Mais elles ont aussi été avantagées par la pêche intensive de certains prédateurs, comme le poisson-lune, le baliste et aussi certaines tortues de mer.

Une autre espèce se prépare à arriver, qui est passée par le Canal de Suez et commence déjà à s'introduire dans l'est de la Méditerranée. Les côtes libanaises, syriennes et égyptiennes sont déjà envahies et rien ne l'empêchera d'atteindre la France. Cette espèce est beaucoup plus grande et plus urticante que la Pelagia...

La piqûre de la Pelagia noctiluca provoque souvent de sévères réactions cutanées, très douloureuses mais généralement sans conséquence à long terme. Elle peut toutefois s'avérer mortelle pour une personne allergique, et une piqûre à la gorge peut être fatale.



Biologie


évolution, génétique


- Supervolcans, pas si catastrophiques que ça ?

C'est peut-être simplement que les populations humaines les plus évoluées, maîtrisant le feu et l'habitat ont mieux survécus que les autres...

L'une des plus fortes éruptions volcaniques de l'histoire, l'explosion de Toba qui s'est produite il y a environ 75 000 ans, n'aurait apparemment pas eu les effets catastrophiques, sur le climat et l'évolution humaine, prévus par certaines théories.

Il y a environ 75 000 ans, le volcan où se trouve actuellement la caldeira du lac Toba dans l'île de Sumatra, entra en éruption avec une force trois mille fois supérieure à celle de l'éruption du Mont Saint Helens aux Etats-Unis, en 1980. De nombreux scientifiques pensent que cet évènement a causé une chute importante des températures sur la surface du globe qui a affecté la population humaine, provoquant une réduction importante de ses effectifs.

Pourtant, une étude, publiée jeudi dans la revue Science, laisse entendre que ce scénario est pour le moins inexact et que l'impact de l'éruption a été bien moindre.

- Evolution accélérée en cas de danger

Rien d'étonnant là-dedans, une forte mortalité sélectionne les mutations favorables accélérant une évolution qui n'est donc pas régulière comme le suppose l'hypothèse des "horloges génétiques" qui ne peuvent avoir de validité qu'à s'appliquer à "l'ADN poubelle", et encore, à condition qu'il ne serve vraiment à rien !

Quasi décimés par une bactérie qui tue les rejetons mâles chez les invertébrés qu'elle infecte, les papillons mâles de l'espèce Hypolimnas bolina ont regonflé leurs troupes en seulement 10 générations, ont constaté des chercheurs partis sur les îles Savaii et Upolu de l'Etat des Samoa, dans l'océan Pacifique.

- L'habit ne fait pas le moine

Certaines nouvelles espèces échappent à toute tentative de détection tant elles sont, en apparence, similaires à leurs ascendants.

La nature adore faire du neuf avec du vieux. Le vieil adage évolutionnaire suggère d'ailleurs que les mêmes contraintes environnementales aboutissent aux mêmes solutions. Ce qui explique, par exemple, que les dauphins et les requins pourtant très éloignés d'un point de vue génétique soient tellement semblables. Selon M. Ppfenninger et K. Schwenk de l'université de Goethe, beaucoup de nouvelles espèces revêtent les atours de leurs cousins et ne sont pas visuellement distinctes. Seule une analyse du génome révèle des différences.

Les chercheurs ont ainsi scruté une base de données regroupant des informations collectées entre 1978 et 2006 et repéré un peu plus de 2200 espèces « cachées ». C'est-à-dire un groupe d'individus interféconds entre eux mais pas avec leurs parents pourtant extérieurement identiques. Ces résultats chamboulent quelque peu la vision des naturalistes. Par exemple, concernant la biodiversité cet aspect n'était pas pris en compte jusque là.

- Réduction de moitié de la population de certains oiseaux

Les chercheurs ont pu déterminer les tendances d'évolution des populations pour 550 espèces. Selon leur résultats, sur l'ensemble du territoire américain, une vingtaine d'espèces, qui ne sont pas considérées comme des espèces menacées, auraient vu leur population diminuer de plus de 50% (entre 54 et 82% selon les espèces) en quarante ans.

Ce déclin des populations est dû à tous les phénomènes traditionnels détériorant l'habitat et les ressources de ces oiseaux : agriculture intensive, usage d'insecticide, développement urbain, forage, présences d'espèces invasives... auxquels s'ajoutent de nouvelles menaces telles que le changement climatique.

- Découverte d'un bébé mammouth congelé en Sibérie

Un bébé mammouth congelé, qui se trouve dans un remarquable état de conservation, a été découvert en Sibérie par un gardien de troupeau de rennes en mai dernier.

Le spécimen, qui serait mort il y a environ 10 000 ans, affleurait du sol gelé de la péninsule de Yamal. Il s'agit d'une petite femelle âgée de 6 mois, qui pèse 65 kg pour une taille de 85 cm et une longueur de 130 cm.

Certains scientifiques espéraient arriver à extraire suffisamment de matériel génétique du spécimen découvert à Yukagir en 2002, afin de recréer l'animal préhistorique. Malheureusement, les cellules étaient trop dégradées par le froid pour permettre cette manipulation. Mais la nouvelle dépouille de bébé mammouth exhumée dans la péninsule de Yamal, beaucoup plus récente (10 000 contre 18 560 ans) fait renaître l'espoir.


- L'Homme moderne a bien une origine Africaine unique

Plus on s'éloigne du berceau africain supposé et moins la diversité génétique est grande. Ce qui figure bien l'image d'une population migrante partant d'Afrique et qui à travers ses pérégrinations perd une partie de ses individus, c'est-à-dire une part de sa diversité génétique. L'étude des crânes confirment cette hypothèse : le plus haut taux de variations morphologique est retrouvé parmi l'échantillon provenant d'Afrique du sud-est. Et il diminue au même taux que les données génétiques en fonction de l'éloignement d'Afrique.

C'est donc l'hypothèse de l'origine unique ou « out of africa » qui se trouve ainsi validée. L'Homo sapiens serait donc apparu en Afrique sub-saharienne il y a 150 000 ans environ pour partir à la conquête de l'Asie et de l'Europe. C'est lors de cette troisième grande migration humaine que l'Homme moderne supplante les populations archaïques restantes.

- L'agriculture aussi ancienne au nouveau monde qu'à l'ancien

C'est assez étonnant de voir qu'il y a presque concomitance entre les débuts de l'agriculture au moyen-orient (blé, -12 000 ans), au Mexique (maïs, -10 000 ans) et au Pérou (courges, -9 200 ans au moins) suggérant une sorte de maturation cognitive en fonction du temps (bien que d'autres populations n'ont pas évolué). Cependant, l'agriculture ne s'est pas autant développé dans le "nouveau monde". Il est vrai qu'il n'y a rien de plus facile à cultiver que les courges et il semble bien qu'elles servaient aussi de gourdes et de récipients pour amener l'eau sur les hauteurs.

Les premières traces de cultures dans le Nouveau Monde étaient rares, bien que des recherches antérieures aient déjà montré que les fermiers andins cultivaient la courge, le coton et quelques autres plantes il y a environ 5 000 ans. De nouveaux fossiles et de nouvelles datations au radiocarbone dans un site du nord du Pérou indiquent maintenant que la culture de la courge a commencé il y a environ 10 000 ans, suivie par celle de la cacahuète il y a près de 8 500 ans et celle du coton il y a 6 000 ans environ. Ces découvertes montrent que l'agriculture a débuté dans les Andes il y a environ 10 000 ans, à peu près au même moment que dans l'Ancien Monde.

- Les femmes plus bavardes que les hommes ? Pas si sûr !

Difficile à croire tout de même :-)

Le premier enregistrement systématique des conversations naturelles de centaines de personnes sur plusieurs jours révèle que les femmes prononcent environ 16 215 mots par jour et les hommes 15 669.

Les psychologues ont mesuré six groupes pour des périodes qui allaient de 2 à 10 jours et les enregistrements ont été faits entre 1998 et 2004. Les sujets portaient des enregistreurs numériques de la voix appelés EAR (Electronically Activated Recorder) qui enregistraient discrètement les conversations des étudiants pendant 17 heures de la journée. La petite différence de nombre de mots constatée entre les sexes n'est pas considérée comme statistiquement significative.


- Le génome de l'anémone de mer si proche du notre !

Très étonnant, l'anémone étant un organisme très primitif cette découverte implique que, conformément à la thèse de François Jacob, l'évolution s'est faite plus par la réutilisation de l'existant que par l'invention de nouveaux gènes. On avait vu le mois dernier que les éponges possédaient déjà la plupart des gènes des neurones...

De façon surprenante, l'équipe a découvert que le génome de l'anémone, qui appartient à la même catégorie que les coraux et les méduses, la première branche divergente des eumetazoaires, ressemble plus à celui des humains et autres vertébrés que ceux des modèles classiques de laboratoires tels que la drosophile et le ver nématode. Ces derniers auraient perdu un certain nombre de gènes provenant d'ancêtres communs que l'anémone et les vertébrés auraient gardé. Le génome de l'anémone ayant apparemment moins changé, il constitue une bonne référence pour la comparaison avec le génome humain dans le but de découvrir les gènes de notre ancêtre commun et leur organisation sur les chromosomes.

Les premiers eumetazoaires avaient beaucoup de caractéristiques associées aujourd'hui aux animaux : un système nerveux, des muscles, des sens, des intestins et même du sperme.

Cette étude conduit à penser que la complexité d'un génome n'est pas directement liée à la complexité de l'organisme. Une grande partie de cette complexité peut être attribuée à la régulation de gènes préexistant plutôt qu'à l'addition de nouveaux gènes.

- La vérité sur "l'ADN poubelle"

On savait déjà que l'ADN "non codant" (ne produisant pas de protéines) était constitué en partie de gènes désactivés. On découvre qu'une bonne partie code des ARN fonctionnels. Il reste de vastes zones de l'ADN qui n'ont aucune fonction et dont les mutations aléatoires peuvent servir d'horloge génétique mais c'est bien une nouvelle époque qui s'ouvre pour la génétique...

L'ADN humain est composé de 3,3 milliards de paires de bases mais seul 1,5% de ce potentiel serait utilisé pour la synthèse des protéines de l'organisme tout entier. Le reste du génome, soit 3,25 milliards de paires de bases, était considéré jusqu'alors comme de "l'ADN poubelle", sans fonction significative. Désormais ces chercheurs viennent de montrer, sur une partie représentative du génome, que même les ADN non-codants sont presque tous transcrits en ARN, qui ont en outre des fonctions non négligeables: les ARN non-codants régulent très spécifiquement l'expression protéique. Ainsi, si une protéine est trop ou trop peu produite dans une cellule, l'équilibre est déplacé et des maladies peuvent survenir.

Ces "ARN poubelles" ne sont en aucun cas insignifiants puisqu'ils semblent participer à l'apparition de cancers ou d'infarctus.

Ces conclusions ouvrent de nouvelles perspectives diagnostiques et thérapeutiques: le génome tout entier s'offre désormais au diagnostic génétique, laissant présager une détection encore plus précoce des maladies.

- Les ARN architectes

Ce sont des ARN dits non codants (ne fabriquant pas de protéines) qui moduleraient l'expression des gènes architectes (gènes Hox ou "homéotiques") et de nombreux autres gènes selon la position des cellules dans le corps, assurant la différenciation des organes.

Au sein de ces mécanismes de régulation, la surprise est venue d'un des gènes des régions Hox, baptisé Hoxair. Installé sur le chromosome numéro 12 au milieu de l'ensemble Hox C, il réprime l'action des gènes inclus du groupe Hox D, installés, eux, sur le chromosome 2. Du jamais vu pour des généticiens...

Les ARN-nc peuvent empêcher l'expression d'un grand nombre de gènes, peut-être dans l'ensemble de tous les chromosomes de la cellule. Selon l'endroit où elle se situe, cette cellule utilisera des gènes différents.



Santé


génétique, traitements, nutrition, hygiène


- Fumer altère l'ADN des spermatozoïdes

Ce n'est pas vraiment une surprise puisqu'on sait que le tabac fragilise la protéine p53, dite "suppresseur de tumeur", chargée de maintenir l'intégrité de l'ADN (le Benzo-a-pyrène contenu dans la fumée des cigarettes, réagit avec le gène TP53 favorisant la production d'une protéine p53 mutée et inactive et ainsi la formation de tumeurs.). Il ne faut pas non plus exagérer : si les spermatozoïdes étaient si dégradés, on en verrait les conséquences (perte de fertilité sans doute plus que transmission d'un ADN dégénéré). Il faut noter d'ailleurs que les mutation étudiées concernent une zone d'ADN non-codant, plus susceptible de mutations car sans conséquences vitales.

Selon des chercheurs de l'université de McMaster, fumer peut causer des changements dans la séquence d'ADN des cellules spermatiques, et ces graves altérations peuvent être génétiquement transmises aux enfants. L'étude, publiée dans l'American Association for Cancer Research, a porté sur les cellules spermatiques de deux groupes de souris exposés à la fumée de cigarette pendant respectivement 6 et 12 semaines.

Les chercheurs ont ensuite comparé la séquence ADN appelée Ms6-hm, qui ne contient aucun gène connu. Les chercheurs ont exposé les rongeurs à la fumée de deux cigarettes par jour, ce qui représente chez ces animaux l'équivalent de l'exposition d'un fumeur moyen.

Les résultats de cette expérience ont montré un taux de mutations élevé de la séquence Ms6-hm chez les souris exposées à la fumée par rapport à celles non exposées. La fréquence des mutations était de 1,4 chez le groupe exposé pendant six semaines et de 1,7 chez le deuxième groupe exposé pendant 12 semaines. Ceci suggère que le niveau d'altération est lié à la durée d'exposition. Ainsi, plus longtemps une personne fumera, plus grand sera le nombre de mutations cumulées et plus grands seront les risques que ces dommages génétiques soient transmis, indique l'étude.

- Une mutation génétique augmente la longévité et la survie au cancer

Un des gènes qui agit contre le cancer est le gène TP53, car il code la protéine p53, protéine suppresseur de tumeur. Quand l'ADN cellulaire est endommagé, la protéine p53 empêche la cellule endommagée de se répliquer ou la fait mourir. Alors que ces deux mécanismes protègent contre le cancer, trop de morts cellulaires ou trop peu de blocage du cycle cellulaire pourraient mener à la longue à une panne globale du système cellulaire.

L'équilibre entre ces deux stratégies est contrôlé par une mutation génétique, qui altère un seul acide aminé dans la protéine p53 et qu'on trouve en double dose chez 7% des individus. Cette mutation augmente les capacités de la protéine p53 à arrêter la division cellulaire et diminue sa capacité à provoquer la mort cellulaire. Ainsi Nordestgaard et ses collègues se sont demandés, le cas échéant, quels étaient les avantages à long terme d'avoir cette mutation.

Dans une étude faite sur plus de 9000 citoyens danois, les auteurs ont trouvé que les personnes qui possédaient cette mutation vivaient en moyenne 3 ans de plus que ceux qui ne la possédaient pas. Cette augmentation de 3 ans de la durée de vie, contrôlée par un simple facteur génétique, est significative au regard des facteurs à risques liés au style de vie, comme le tabagisme, où les non-fumeurs vivent en moyenne 12 ans de plus que les fumeurs.

Cette mutation améliore également les chances de survie au cancer. Les personnes qui possédaient la mutation avaient 13% de chances en plus de survivre 5 ans après le diagnostique, en comparaison avec ceux qui ne la possédaient pas. Alors que la raison de ces effets est encore peu claire, les auteurs de l'étude ont postulé que la mutation favoriserait au final la longévité car elle réduit l'apoptose (ou suicide cellulaire).

- Dépister le cancer du poumon en analysant l'haleine

A noter que certains chiens (ou chats) peuvent effectivement détecter les personnes cancéreuses à l'odeur.

Les chercheurs de la Cleveland Clinic (Ohio, Etats-Unis) vont bientôt pouvoir détecter le cancer du poumon grâce à un appareil qui analyse le souffle.

Les scientifiques savent depuis longtemps que les cellules cancéreuses produisent des composés organiques volatils qui passent dans le flux respiratoire.

Il s'agit ici d'un morceau de papier jetable comportant 36 points colorés de composition et de sensibilité chimiques différentes.

Ces points changent de couleur quand ils sont exposés au souffle d'un malade. Un ordinateur analyse ensuite les changements et repère les variations révélatrices,

Après des expériences menées sur 145 personnes, cancéreuses et non cancéreuses, l'appareil a mis en évidence une signature colorée caractéristique chez trois quarts des malades atteints d'un cancer du poumon. Les chercheurs s'efforcent désormais d'identifier les composants exhalés pour affiner le système.

- Des nanoparticules magnétiques contre le cancer

L'idée consiste à injecter des nanoparticules magnétiques qui s'attacheraient seulement aux cellules cancéreuses caractérisées par des composés chimiques spécifiques. Ensuite une aiguille magnétique (ci-dessus) permettait d'attirer les cellules cancéreuses pour les extraire.


- L'homme "sans cerveau" !

Une des nouvelles les plus extraordinaires, un homme apparemment normal et dont le cerveau est pourtant réduit à presque rien jusqu'à être à peine visible au scanner, réduit à une mince couche sur le bord de la boîte crânienne !

Un Français de 44 ans a réussi à vivre de manière parfaitement normale malgré un cerveau extrêmement petit en raison d'une importante poche de liquide dans la boîte crânienne.

Des scanners ont montré qu'un énorme ventricule cérébral occupait quasiment tout l'espace de la boîte crânienne, laissant à peine plus qu'une fine couche de tissu cérébral, rapportent des chercheurs français dans la revue spécialisée The Lancet.

"Il était marié, père de deux enfants et travaillait dans la fonction publique", écrivent le docteur Lionel Feuillet et ses confrères de l'Université de la Méditerranée, à Marseille, dans The Lancet.

Cet homme s'est rendu à l'hôpital en raison d'un léger problème à la jambe gauche. Lorsque l'équipe de Lionel Feuillet a examiné son dossier médical, elle a appris qu'on lui avait posé un drain dans son enfance pour traiter une hydrocéphalie, c'est-à-dire une accumulation de liquide dans le cerveau. Ce drain lui a été retiré à l'âge de 14 ans.

Les médecins ont donc décidé de procéder à divers examens radiologiques, notamment une imagerie par résonance magnétique (IRM). Ils ont alors constaté avec stupéfaction une "énorme hypertrophie" des ventricules latéraux - des poches habituellement petites contenant le liquide cérébro-spinal.

Des tests ont permis d'estimer le QI de cet homme à 75, soit un niveau inférieur à la moyenne mais n'impliquant pas non plus un quelconque retard mental.

- Les régions du cerveau préservées au cours du vieillissement, identiques à celles endommagées lors de la maladie d'Alzheimer

L'équipe, coordonnée par le Dr Béatrice Desgranges de l'unité Inserm 218 (Neuropsychologie cognitive et neuroanatomie fonctionnelle de la mémoire humaine, dirigée par Francis Eustache à Caen), est partie du constat que de nombreux travaux ont montré que le cortex frontal était la région la plus atteinte au cours du vieillissement normal (atrophie des lobes frontaux). En revanche, dans la maladie d'Alzheimer, l'hippocampe subit une perte massive de neurones dès les stades les plus précoces et le cortex cingulaire postérieur voit son métabolisme grandement diminué. Ainsi, l'altération de ces deux structures, l'hippocampe et le cortex cingulaire postérieur, caractérise la maladie d'Alzheimer.

La réponse, comme d'habitude, est venue des expérimentations et analyses : en identifiant les régions du cerveau les plus atteintes et celles les mieux préservées, les scientifiques ont montré une nette différence, au niveau du cerveau, entre le vieillissement normal et la maladie d'Alzheimer. D'après eux, les zones cérébrales altérées dans la maladie d'Alzheimer correspondent aux zones préservées au cours du vieillissement cérébral normal !

Or, bien connaître le vieillissement normal permet de mieux dissocier une évolution « normale » d'une évolution pathologique, et donc de diagnostiquer de façon très précoce les pathologies neurodégénératives telles que la maladie d'Alzheimer.

- Le vin contre le vieillissement du cerveau

Les bienfaits du vin sont inépuisables, ou plutôt du resveratrol qu'il contient (tout comme le raisin), puisque ses vertus ne se limitent pas à être un antioxydant puissant mais, du moins chez les vers, les poissons et les souris, il arrête la dégénérescence du cerveau, surtout associé à l'activation du gène SIRT1, et non seulement il réduit la mort neuronale mais il restaure les fonctions cognitives et pourrait même protéger de l'Alzheimer (ce que les études épidémiologiques laissaient déjà présager).

- Être actif: une des clés du bonheur

L'activité physique rendrait heureux, selon les récentes données sur l'indice relatif de bonheur (IRB).

Ceux qui font de l'exercice de quatre à sept fois par semaine (17 % des répondants) obtiennent un IRB moyen de 80,4. Ceux qui en font d'une à deux fois par semaine (29 % des répondants) ont un IRB de 77,7 et ceux qui ne font rien du tout (4 % des répondants), 72,6.

Plus les gens sont scolarisés, plus ils ont de l'intérêt pour l'activité physique. La majorité des personnes (55 %) qui pratiquent un sport deux fois et plus par semaine sont âgées de 55 ans et plus.

- Statistiques Sanitaires Mondiales 2007



Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique, économie


- La carte du maïs OGM en France

Il convient aussi de relativiser l'importance de la culture OGM, en gardant à l'esprit que les quelque 20.000 parcelles cultivées représentent peu de chose en rapport aux 3 millions d'hectares de maïs non transgénique. Il faut cependant noter que le maïs OGM prend de plus en plus d'importance, et que la surface cultivée est passée de 3000 à 5000 hectares en un an, de 2005 à 2006. Car sa culture s'avère doublement rentable, grâce à un prix de revente supérieur, il faut aussi ajouter une économie non négligeable en insecticides.

- Des biocarburants à base d'algues de mer

A l'Institut National de Recherche Environnementale (université d'Aarhus, sur la côte Est), Michael Bo Rasmussen est déjà passé aux tests. La laitue de mer (Ulva lactuca), une belle et grande algue d'un vert cru, pousse vite et bien, nettement mieux que le blé, qui sert justement à fabriquer du bioéthanol. Pour les Danois, l'intérêt est évident. Les surfaces agricoles manquent un peu d'espace (le pays produit environ 5 millions de tonnes de blé contre, bon an mal an, 35 millions pour la France) et l'idée d'utiliser la côte paraît intéressante.

Facile à cultiver, la laitue de mer a même tendance à proliférer naturellement sur les milieux côtiers pollués par des rejets organiques (elle adore les composés soufrés et nitrés résultant de leur décomposition). Sa simple récolte pourrait donc servir à atténuer ses mauvaises odeurs, relancer l'oxygénation des zones polluées et fournir du biocarburant.

- Nouveaux panneaux solaires en couches minces

Les nouveaux panneaux à base de cadmium/tellure de First Solar sont beaucoup moins chers que les panneaux en silicium au point de devenir réellement compétitifs avec les énergies fossiles (mais le cadmium est un dangereux polluant, déjà présent dans les batteries).

- Projet de façade active grâce à des capteurs solaires à tubes sous vide

La façade "active" doit intégrer des capteurs solaires sous vide (du fabricant Schott-Rohrglas). Composés de série de tubes transparents en verre, ces capteurs, disposés en peigne, sont multifonctionnels : source de chaleur (pour le chauffage des pièces et de l'eau sanitaire) ou de froid (refroidissement solaire), ils offrent une protection partielle contre le soleil (grâce aux propriétés réfléchissantes des tubes et l'évacuation de la chaleur), tout en laissant pénétrer la lumière du jour et tout en permettant à l'habitant de voir à travers.

Selon des mesures réalisées sur un prototype et des calculs de simulation, le rendement énergétique annuel de la façade active pourrait alors atteindre une valeur nette de 500 kWh par mètre carré (surface de la façade effectivement recouverte par des tubes absorbants) et une valeur brute de 340 kWh par mètre carré (surface totale de la façade), améliorant ainsi d'environ 35% les performances des façades recouvertes de collecteurs plans.

- Une voiture hybride branchée sur le réseau électrique

C'est intéressant car ce qui s'oppose aux voitures électriques, c'est leur autonomie limitée alors qu'avec ce système on peut bénéficier des avantages de la voiture électrique pour les petits déplacements quotidiens sans être empêché de faire de grands voyages, l'essence prenant le relais. Du coup l'électricité peut se substituer partiellement au pétrole.

- Bientôt des avions solaires ?

L'appareil, dont la masse représente un peu moins de 32 kg, consiste en un mât central intégrant l'électronique de bord et des batteries rechargeables, ainsi qu'une aile couverte de cellules solaires qui produisent 1 kW. De quoi alimenter deux micro-propulseurs électriques, une charge utile faite de senseurs optiques, un équipement de localisation GPS , ainsi qu'un système de communications et de transmission des données en bande S. Le principal défi de la version définitive sera de se maintenir stable à de hautes altitudes (16 000 à 20 000 m).

La journée, les panneaux solaires convertiront 9 % de la lumière reçue en énergie électrique et alimenteront les moteurs, tout en rechargeant les batteries. L'appareil volant constamment au-dessus des nuages, cette recharge est donc continue. La nuit, ces mêmes batteries prendront le relais et assureront la continuité du vol. Celles-ci pouvant être rechargées plusieurs centaines de fois, Zephyr pourra rester en vol au minimum trois mois.

- Des avions à pile à combustible

Les choses vont vite. Alors qu'on parlait au mois de mai du premier modèle réduit d'avion à pile à combustible voilà qu'on prévoit le premier vol d'un véritable avion pour dans 3 ans !

Le Politecnico de Turin coordonne ce projet européen en collaboration avec 10 universités et centres de recherche de différents pays. C'est l'unique projet de ce type au niveau européen. L'ingénieur Giulio Romeo explique: "Il existe deux phases. D'une part, nous visons à la réalisation d'un avion sans pilote, un UAV de 70 mètres alimenté par énergie solaire et pile à combustible. D'autre part, des études plus théoriques sont développées". Le prototype nommé "Heliplat" aurait beaucoup d'avantages environnementaux, mais aussi de nombreuses applications pratiques. Ses caractéristiques techniques (une autonomie de vol de 3 à 4 mois sans escale, un coût de 800 à 1000 euro l'heure - contre 5000 à 6000 pour les avions standards) le rendraient idéal pour les tâches de surveillance de l'aire méditerranéenne. Alimenté grâce à des panneaux solaires pendant le jour et par des piles à combustible durant la nuit, cet avion pourrait voler à près de 20.000 mètres d'altitude. Ce système pourrait alimenter, dans 15 ans, des petits avions biplaces pour des vols courts.

- L'échelle d'évaluation des risques des évènements nucléaires

Pas rassurant, c'est le moins qu'on puisse dire. C'est la possibilité d'accident majeur, même très rare, qui condamne la technologie nucléaire actuelle.


- La puce qui fait du froid

Futura Sciences est bien plus optimiste que Techno-science sur cette version du démon de Maxwell.

Un transistor microscopique de quelques micromètres carrés fait chuter la température à seulement un dixième de degré au-dessus du zéro absolu ! Le procédé est innovant et ce réfrigérateur miniature pourrait être utilisé pour améliorer les détecteurs à rayons X.

La puce glaçante fonctionne comme un transistor à effet de champ, utilisé en électronique de façon banale, dans lequel une charge électrique est retenue dans un condensateur jusqu'à ce qu'une tension du bon voltage la libère par effet tunnel. Cette méthode a déjà été exploitée, du moins au laboratoire, pour réaliser un système réfrigérant. L'idée est d'extraire ainsi les électrons dits chauds, c'est-à-dire ceux dont l'énergie est supérieure à l'énergie de Fermi (la plus élevée). Ce faisant, on retire de la chaleur d'un côté.

- Des nano-objets de 10 nanomètres : un record

Ce n'est pas encore la construction bottom-up atome par atome mais c'est déjà un exploit (5 fois plus petit qu'actuellement) ! Il faudra voir si ces structures sont assez stables.

Les dimensions des plus petites structures descendent à une dizaine de nanomètres (un nanomètre vaut 10-9 mètre, soit un millionième de millimètre). C'est cinq fois mieux que ce que l'on sait faire aujourd'hui avec la technique désormais classique de la lithographie électronique à balayage (ou TEB, transmission electron beams). Elle consiste en une succession de gravures de la surface à l'aide d'un faisceau d'électrons et de phases d'évaporation du métal.

On parvient facilement à dessiner des formes jusqu'à 50 nanomètres, mais rarement plus petites. Cette voie consistant à tailler un objet de grande dimension initiale paraît plus prometteuse que le sens inverse, c'est-à-dire l'assemblage de composants encore plus petits (méthode dite bottom-up).

L'équipe a utilisé une variante de cette technique TEB qui évite les phases d'évaporation du métal. C'est donc une gravure directe par électrons, que les auteurs ont appelée Tebal (pour TEB-based ablation lithography).

De telles nanostructures métalliques ont déjà de nombreuses applications potentielles, pour fabriquer des capteurs ou toutes sortes de MEMS (Micro-Electro-Mechanical Systems).

- Un ordinateur électromécanique... à l'échelle nanométrique ?

Selon un article paru dans le New Journal of Physics, il serait aujourd'hui possible de construire un nouveau type d'ordinateur électromécanique composé d'éléments un million de fois plus petits qu'un cheveu et capable de réaliser des calculs à très grande vitesse.

Le fait que la taille de ces unités serait un millier de fois plus faible que la taille moyenne des transistors d'aujourd'hui permettrait d'en incorporer beaucoup dans un même espace. Les distances plus petites entre les portes logiques impliqueraient également qu'un ordinateur élaboré sur de telles bases serait beaucoup plus rapide que ceux basés sur les circuits de silicium conventionnels.

Les chercheurs précisent également que les éléments électromécaniques possèdent d'autres avantages par rapport aux technologies actuelles. Ils consommeront moins de puissance et produiront infiniment moins de chaleur inutile. Ils pourront ainsi être utilisés à des températures beaucoup plus élevées sans nécessiter de systèmes de refroidissement onéreux et bruyants. Ils seront également en mesure de supporter les sautes de tension capables de griller les puces actuelles. Ces avantages signifient que la technologie pourrait être utilisée dans des environnements bien plus extrêmes que ceux supportés par les ordinateurs d'aujourd'hui, tels que des températures très élevées (supérieures à 200 degrés Celsius), dans des installations électriques à haute tension, ou dans l'environnement spatial.

- Un supercalculateur dans un ordinateur de bureau

Ce n'est pas si extraordinaire que cela (ne prend pas en charge les calculs en virgule flottante) mais l'enjeu est surtout la simplification et la montée en puissance de la programmation parallèle qui peine à se développer.

Le professeur Uzi Vishkin de la Clark School of Engineering de l'Université du Maryland vient de rendre public un prototype de supercalculateur qui pourrait révolutionner l'informatique grand public. Lui et son équipe ont réussi à installer 64 processeurs à 75 MHz fonctionnant en parallèle sur un même circuit imprimé de la taille d'une carte vidéo.

Outre la miniaturisation, une des grandes avancées de ce supercalculateur est sa facilité de programmation. Le langage XMT-C utilisé est une variante du langage C auquel deux commandes ont été ajoutées: Join et Spawn. Ces deux nouvelles instructions agissent directement sur le MTCU pour alterner entre les modes en parallèle et en série. La complexité du code à produire est largement simplifiée par rapport aux supercalculateurs classiques, ce qui ouvre des perspectives nouvelles sur les applications qui peuvent être développées pour ce système.

- Lancement du réseau Wi-Fi gratuit de Paris

Les 105 premiers sites (soit environ 160 bornes Wi-Fi) du réseau Wi-Fi à Paris ont été officiellement ouverts ce lundi 16 juillet. Les 260 sites qui doivent au final être mis en place, rassemblant 400 bornes au total, seront disponibles dès septembre 2007.

Pas moins de 35 parcs ou jardins et 70 services municipaux proposent dès aujourd'hui du Wi-Fi gratuit. Pour les sites plein air, on peut dès à présent se connecter sur le Parvis de l'Hôtel de Ville, les Buttes Chaumont, le parc Monceau, le jardin des Halles, la place des Vosges, le parc Georges Brassens, le parc Montsouris, etc... Sur les grands sites comme les Buttes Chaumont, malgré les 8 bornes Wi-Fi installées, la couverture n'est pas totale. L'accès est signalé par des logos Paris Wi-Fi sur le mobilier urbain. En ce qui concerne les sites municipaux, l'accès est disponible au niveau de 44 bibliothèques, l'antenne jeune Davout, l'espace des Blancs Manteaux, le Musée d'Art moderne, la maison de l'emploi du 13e arrondissement, etc...

Le service Paris Wi-Fi est accessible à tous de 7h à 23h et dans la limite des horaires d'ouverture au public des sites municipaux équipés (parcs, bibliothèques, ...). La loi L1425-1 du CGCT autorise une Collectivité locale à proposer un service directement aux usagers uniquement lorsqu'une insuffisance de l'initiative privée est constatée. Est-ce le cas à Paris ? Il semblerait que France Télécom ne le pense pas, puisqu'elle a attaqué en justice la mairie de Paris.


 

- Un téléphone sous Linux

Déjà présenté à l'occasion de l'Open Source Mobile Conference d'Amsterdam en novembre 2006, le Neo1973 évoque irrésistiblement l'iPhone par son aspect. Mais toute ressemblance s'arrête là. Car il est animé d'un logiciel Open Source de la famille Linux, OpenMoko.

Dans le futur, les applications logicielles s'achèteront ou se distribueront par internet aussi facilement et couramment que les sonneries aujourd'hui, mais que pour cela, le passage par l'Open Source s'avère indispensable.


 

- Hyperlocal : nos réseaux dans la rue, nos rues dans l'écran

Ce qui est intéressant, c'est que les techniques de communication qui favorisent les contacts au loin et la déterritorialisation reviennent au local de même que la globalisation marchande exige une relocalisation de l'économie.

“Combien de temps nous faudra-t-il avant que nous puissions naviguer dans les rues d'un monde virtuel identique aux nôtres ?”, se demande Michael Arringhton en égrainant les innovations dans le domaine. De Street Side et Virtual Earth de Microsoft à Google Maps Street View, en passant par le Photosynth Project de Microsoft, le remarquable EveryScape ou encore Fotowoosh qui permet de transformer des images 2D en 3D.

Des innovations qui montrent combien l'avenir sera hyperlocal, avance Bruce Sterling dans un reportage depuis le futur qu'il signe pour Wired. “La carte anticipe et agrège la ville”, précise Chronos : la carte est capable de traduire l'interprétation continue de la ville. Les réseaux sociaux façonnent les cartes et les cartes relient les réseaux sociaux. “La révolution de la localisation, c'est replacer l'individu à chaque fois dans son contexte local, voire temporel, de mettre les lieux à sa disposition dans leur contexte”. Plus besoin de demander : où es-tu ? Bientôt chacun le saura, et pourra, selon votre position, vous inviter, vous recommander, vous solliciter différemment... “L'hyperlocalisation transforme nos rapport à l'espace à toutes les échelles, depuis notre sphère personnelle immédiate jusqu'à notre rapport au monde... tout simplement !”

Une transformation que préfigure bien par exemple MeetMoi, une espèce de Meetic mobile, c'est-à-dire un service qui transforme vos téléphones mobiles en outils de rencontre. Après avoir rempli votre profil, il vous suffit d'indiquer votre localisation pour vous rendre disponibles aux autres utilisateurs présents aux alentours. Si vos centres d'intérêts se rapprochent, les téléphones échangent les profils et, s'ils vous agréent, vous mettent en contact (via SmartMobs).

- Microsoft accepte d'être cloné pour mieux pouvoir nous identifier

“Dans environ 18 mois, 60% des PC de la planète devraient disposer de logiciels CardSpace“, l'interface de gestion des identités et accès de Microsoft. Le propos, émanant de Kim Cameron, “architecte de l'identité” de Microsoft, a de quoi étonner, cette technologie étant largement ignorée du grand public : le moteur de recherche Live Search de Microsoft ne recense ainsi que 241 mentions de CardSpace en français. Mais il se pourrait fort que la prédiction de Cameron se réalise bel et bien. Il promulgue les 7 lois de l'identité :

  1. Consentement et contrôle de l'utilisateur, qui doit pouvoir décider quelles informations divulguer à qui.
  2. Divulgation a minima et usage restreint des données : les systèmes d'identité ne divulguent pas plus d'informations que nécessaire, en fonction du contexte donné.
  3. Parties légitimes : les informations ne peuvent être divulguées qu'aux parties ayant un motif nécessaire et légitime à y accéder, dans un temps donné.
  4. Identité dirigée : on ne doit pas utiliser des identifiants publics (tels que le n° de sécurité sociale) pour tout et tout le monde, les systèmes d'identité doivent donc prendre en charge des identifiants “omnidirectionnels” (par ex. des URL) lors des transactions publiques, et “unidirectionnels” pour ce qui doit rester privé, afin d'éviter les fuites.
  5. Pluralisme d'opérateurs et de technologies : il ne peut y avoir de système d'identité unique quel que soit le contexte; par conséquent il faut plusieurs opérateurs, et plusieurs technologies, qui permettent de préserver la séparation de contextes, et qui répondent aux différents cas d'usage.
  6. Intégration des humains : toute solution d'identité numérique doit permettre à ses utilisateurs d'effectuer des choix compréhensibles et corrects en leur propre nom. Comme le résume Cameron, “La sécurité de la connexion technique peut être parfaite, mais celle de la connexion entre la machine et son utilisateur ne l'est, du coup, pas du tout ! Nous avons oublié d'inclure l'utilisateur comme l'un des acteurs des transactions à sécuriser ; nous savons parler à la fréquence des machines, mais pas à celle des utilisateurs”.
  7. Une expérience homogène quel que soit le contexte : “il s'agit de “réifier” l'identité numérique, comme nous y sommes parvenus, par exemple, pour les concepts de fichier et de dossier. L'identité numérique ne doit plus être virtuelle, elle est tout à fait réelle“, et doit donc présenter une interface facile à comprendre pour l'utilisateur et cohérente quelle que soit la technologie sous-jacente ou le fournisseur d'identité impliqué.


- Un robot volant qui imite l'aile des oiseaux

C'est supposé être un espion, doté de caméras de surveillance, mais l'intérêt ce sont les ailes à géométrie variable imitant le vol des oiseaux et permettant un vol lent ou rapide et une plus grande agilité. Voir vidéo (10 MB)

- Animal-like 'instinct' keeps robot marching

Le robot le plus rapide sur 2 jambes et qui peut s'adapter à tout terrain par essais-erreur, c'est le cas de le dire car il tombe souvent ! Très amusant à voir.

- Des robots sauteurs

Des robots sauteurs, beaucoup plus primitifs, pourraient se révéler plus efficaces pour explorer des terrains accidentés sur d'autres planètes (Center for Biomimetic and Natural Technologies). Voir vidéos.

- RobuDOG, un robot-chien français champion de foot

C'est le successeur, par la société basque Robosoft du Aïbo dont Sony a arrêté la commercialisation. Il est bien plus perfectionné que ce dernier et sera commercialisé dans 6 mois pour 3200 €.

Le centre nerveux de Robudog est constitué d'un micro-ordinateur complet destiné à animer l'ensemble de façon optimale, on serait tenté de dire "vivante", en fonction des données fournies en permanence par un ensemble de capteurs. Le principal d'entre eux est bien sûr la caméra incorporée à la tête, elle-même animée par trois articulations finement motorisées. Elle fournit une vision du champ situé devant la machine non seulement à l'ordinateur embarqué, mais aussi à une console par liaison Wi-Fi (dont l'antenne constitue la queue) et qui permet de prendre le contrôle du chien à distance. Les déplacements de l'"animal" sont aussi optimisés par des senseurs de contact et de friction fixés sous chaque patte, afin de procurer une meilleure adhérence en empêchant tout glissement.

Le corps du robot renferme aussi toute une panoplie d'éléments plus classiques, mais que l'on n'a pas forcément l'habitude de rencontrer dans un automate aussi léger, tels 2 gyroscopes, 2 capteurs infrarouges, un micro et un haut-parleur, et bien évidemment une batterie rechargeable (4800 mAh). Cette merveille de technologie occupe une place de 33 x 25 x 25 cm, et son poids annoncé est de 3 kg.

- Heliodisplay, écran 3D pour image "flottante"

Assez curieux, ce n'est pas un hologramme mais une projection sur de l'air sous pression ! Ce produit d'Heliodisplay est cher (18 000$) et l'image est un peu fluctuante mais c'est tout de même assez spectaculaire (ça fait un peu génie qui sort de la boîte) et on peut interagir avec elle. Voir la vidéo :

- Commander la télé avec les mains

Amusant, une caméra interprête les signes de la main...

- Les paiements au doigt et à l'œil grâce aux données biométriques

Plus besoin de carte de crédit, des systèmes de biométrie devraient être suffisants pour retirer de l'argent, etc. C'est du mons le projet d'Hitachi en partenariat avec la société de crédit JCB.

Le groupe nippon a annoncé l'introduction dès le mois de septembre, pour un groupe de "privilégiés" de l'entreprise, d'un système de paiement totalement inviolable basé sur la biométrie. En partenariat avec la société de crédit JCB, elle a imaginé et mis au point un terminal de lecture fonctionnant sans contact direct, capable de reconnaître le schéma de vascularisation d'un doigt humain.

Aujourd'hui déjà, le même procédé, qui n'a aucun rapport avec la reconnaissance de l'empreinte digitale, est utilisé par certaines banques japonaises telles Mitsubishi UFJ et Sumitomo Mitsui, mais uniquement dans le cadre de retraits ou de transferts d'argent ou de distributeurs de billets.


- Mer d'Aral : comment inverser une catastrophe écologique

- Le module gonflable Genesis 2 mis sur orbite

Pour le futur tourisme spatial...

Autre amélioration notable, la peau de Genesis 2 constituée de plusieurs couches très résistantes aux impacts de micrométéorites. D'après Bigelow Aerospace, des essais au sol ont montré que le revêtement de Genesis 2 était plus résistant aux impacts que les modules de la Station Spatiale Internationale (ISS).

- La seconde vie de Biosphere 2 : écosystème incontrôlé ?

L'échec de cette expérience de biosphère artificielle est sa réussite car elle est pleine d'enseignement pour les futures implantations extra-terrestres, exigeant d'être poursuivie pour parvenir à un meilleur équilibre.

A la fin des années 1980, une société privée, Space Biosphere Ventures, s'est lancée dans un projet un peu fou : réaliser une immense serre pyramidale de 1,3 hectare totalement isolée de l'environnement extérieur et dans laquelle vivrait un écosystème complet. Bactéries, insectes et plantes avaient ainsi pris place dans ce terrarium géant qui devait se suffire à lui-même, pour les aliments mais aussi pour l'eau et le recyclage de l'atmosphère. Le seul apport venu de l'extérieur était la lumière solaire. L'expérience avait été baptisée Biosphere 2 pour souligner le fait que son écosystème était indépendant de celui de la Terre entière, qui devenait pour l'occasion Biosphere 1...

Mais bien vite, il a fallu injecter de l'oxygène, dont le niveau descendait irrémédiablement. Pas du tout en équilibre, l'écosystème voyait proliférer bactéries et insectes.

- "Oubliez la Lune, occupez-vous de Mars !"

Un des directeurs les plus respectés du programme Apollo, Joseph P. Gavin, qui a dirigé le développement du module lunaire il y a près de quarante ans, s'oppose fortement au projet actuel de l'Administration Bush et de la NASA qui considèrent le retour de missions habitées sur la Lune comme une étape obligée à la conquête de Mars.

Gavin affirme que la nouvelle "vision lunaire" de la NASA devrait immédiatement se détourner vers Mars. "Nous sommes déjà allés sur la Lune, et je ne vois pas d'urgence à y retourner. Les études ont bien montré la complexité et les dépenses énormes qu'impliquera la réalisation d'une base lunaire", indique-t-il.

Gavin indique que "la première priorité des Etats-Unis" doit être d'exploiter complètement les capacités de la Station spatiale internationale... mais que la seconde "devrait être d'entreprendre une exploration robotisée étendue de Mars afin de se rendre compte si son exploration humaine est réellement justifiée".

"Plus nous recevons de données sur Mars depuis les sondes et les robots d'explorations actuels, plus cette planète devient intéressante. Nous devons répondre à la question cruciale de l'existence de la vie (présente ou passée) sur Mars", conclut Gavin.

- Libérer l'innovation : pourquoi les citoyens sont-ils la clé de la réforme des services publics

Libérer l'innovation : pourquoi les citoyens sont la clé de la réforme des services publics est le titre de la dernière publication du think tank britannique Demos.

Ils invitent les gouvernements et entreprises privées à cesser d'enrayer la créativité des utilisateurs à coups de secrets, brevets, menaces et procès, clarifier le droit de modifier les produits que l'on a acheté et soutenir l'adoption de standards ouverts. Pour “démocratiser l'innovation“, il faudrait aussi cesser de subventionner les projets qui “discriminent” les utilisateurs, et, au contraire, leur confier encore plus de pouvoirs, et les rendre plus autonomes.