Thématiques > Revue des sciences

Nouvelles des sciences 07/08

Le 1er  juillet 2008 par Jean Zin


Brèves : Physique - Climat - Biologie - Santé - Technologie



Physique


cosmologie, astronomie, physique quantique


- Le LHC ce n'est pas la fin du monde !

Le démarrage du LHC est prévu en août. Malgré les craintes exprimées par certains, l'étude publiée démontre qu'il n'y a aucun danger car les énergies en jeu sont bien inférieures aux collisions qui ont lieu dans la haute atmosphère. Il est très peu probable que le LHC produise des trous noirs qui de toutes façons ne seront pas comparables aux trous noirs massifs résultant de l'effondrement d'une étoile, et devraient donc s'évaporer immédiatement sans pouvoir attirer de la matière. D'autres risques sont examinés, celui de produire des particules étranges (strangelets, un hypothétique bloc microscopique de "matière étrange", contenant à parts presque égales les particules appelées quarks up, down et étranges) ou des monopôles magnétiques. Le plus amusant étant le risque de déstabiliser l'univers ! A chaque fois, la réfutation vient du fait que de tels événements ne se sont jamais produits dans l'univers malgré la violence des collisions qui y ont lieu.

Le LHC pourra parvenir à une énergie jamais atteinte à ce jour dans un accélérateur de particules. Cependant, cette énergie restera inférieure à celle que produit couramment la Nature dans les collisions de rayons cosmiques. Des études sont menées depuis de nombreuses années pour répondre aux inquiétudes sur ce que pourraient engendrer des collisions de particules à des énergies aussi élevées. À la lumière de nouvelles données expérimentales et des connaissances théoriques actuelles, le LHC Safety Assessment Group (le LSAG - le Groupe d'évaluation de la sécurité des collisions du LHC) a réactualisé l'analyse menée en 2003 par le LHC Safety Study Group (Groupe d'étude sur la sécurité du LHC), un groupe de scientifiques indépendants.

Selon certaines conjectures, l`Univers ne se trouverait pas dans sa configuration la plus stable et des perturbations causées par le LHC pourraient le faire basculer dans un état plus stable, appelé "bulle de vide" où nous ne pourrions pas exister. Si le LHC peut produire cet effet, les rayons cosmiques le peuvent aussi. Comme aucune de ces bulles de vide n'a été produite dans l'univers visible, elles ne seront pas produites au LHC.


- La structure de notre Voie Lactée revue et corrigée

La figure ci-dessus dépeint la Voie Lactée telle que nous devons dorénavant l'imaginer. En utilisant les images infrarouges du télescope spatial Spitzer, des scientifiques ont découvert que l'élégante structure en spirale de notre galaxie n'est en fait dominée que par deux bras principaux qui s'enroulent à partir des extrémités d'une barre centrale d'étoiles. On pensait précédemment que la Voie Lactée possédait quatre bras principaux.

Notre soleil se trouve à proximité d'un petit bras partiel appelé le bras d'Orion, situé entre les bras du Sagittaire et celui de Persée.

- La Voie Lactée vient de perdre la moitié de sa masse !

Mille milliards de masses solaires en moins, c'est ce que vient de perdre le halo de matière noire de la Voie Lactée.

Le large nombre d'étoiles pris en compte a permis d'établir des statistiques plus précises et le résultat a surpris les chercheurs. La masse de la Voie Lactée a été diminuée d'un facteur deux par rapport aux estimations actuelles. Elle ne serait donc plus que de mille milliards de masses solaires ! Les temps sont durs pour notre Galaxie en ce moment, après avoir vu son nombre de bras principaux diminué par deux, c'est maintenant au tour de sa masse de fondre comme neige au soleil.

On ne sait décidément pas grand chose...

- Mars percuté par un astéroïde, il y a 4 milliards d'années

Des chercheurs annoncent l'identification d'un immense cratère sur la planète Mars. Il résulte de l'impact d'un astéroïde ou d'une comète qui serait à l'origine de l'asymétrie existante entre les deux hémisphères.

C'est sans doute le plus grand cratère du système solaire, il fait plus de 10 000 Km de long, et il se serait formé à une époque où un phénomène similaire sur la Terre aurait donné naissance à la Lune, soit environ quatre milliards d'années.

- Un cratère témoin d'un fort impact vieux de 35 millions d'années

Il y a 35 millions d'années, un grand astéroïde s'est écrasé sur la Terre près de la baie de Chesapeake (côte Est des Etats-Unis), formant alors un cratère de presque 90 kilomètres de diamètre.

On avait vu le mois dernier que la terre est exposée à des chutes de météorite tous les 35 à 40 millions d'années. Il y a 65 millions d'années cela avait provoqué la disparition des dinosaures car une météorite était tombée sur un gisement de pétrole. Il y a 35 millions d'années cela a été moins catastrophique mais, tout de même, il y a eu de gros dégâts et nous arrivons dans cette zone dangereuse...


- Les excitons ou quasi-particules

Des physiciens viennent de créer un nouveau type de circuit intégré, destiné à l'optronique. Il devrait permettre, entre autres, de coupler plus efficacement les systèmes de communications optiques avec les circuits électroniques. La clé pour cette performance : des excitons.

Les excitons font partie de ce qu'on appelle en mécanique quantique des quasi-particules. Sans être des particules élémentaires, comme les photons ou les électrons, elles se comportent à peu près comme elles en raison des règles de la théorie quantique. Un exemple bien connu de quasi-particule est celui des phonons, les quanta d'excitation sonores des réseaux cristallin dans un solide.

Les excitons, eux, sont constitués d'une paire liée formée d'un électron arraché à sa localisation initiale dans un solide et du trou chargé positivement qu'il a laissé. Cette paire électron-trou se forme dans un semi-conducteur sous l'action d'un photon absorbé. La situation est représentée par le schéma ci-dessus. Comme un exciton se compose de deux particules chargées, il peut être facilement manipulé par des différences de potentiel. Lors d'une recombinaison du trou et de l'électron un photon est à nouveau produit. On est donc bien en présence d'un système qui réalise naturellement une interface commode entre systèmes de communication optique et systèmes électroniques de traitement de l'information.

- Intrication quantique d'images

On savait déjà réaliser une intrication quantique de particules, grâce à l'effet EPR, et domestiquer les fluctuations quantiques avec la lumière comprimée. Des physiciens viennent de combiner les deux pour produire des paires d'images intriquées. Des perspectives s'ouvrent en traitement de l'image et pour les ordinateurs quantiques.

Pour réaliser l'intrication des images les chercheurs ont utilisé une technique d'optique non linéaire connue sous le nom de « mélange à quatre ondes ».

A partir d'images uniques, ces chercheurs sont parvenus à produire des paires de copies intriquées, en travaillant pixel par pixel. Deux pixels d'une même image ne sont pas quantiquement intriqués mais chacun, en revanche, est intriqué avec le pixel correspondant de l'autre image. Ainsi, la mesure de l'un d'entre eux influence instantanément l'état de l'autre sur l'image associée.

En pratique, on devrait donc pouvoir exploiter de l'information qui était jusqu'à présent inaccessible dans des images, en particulier pour des objets peu brillants.

Les images étant un moyen de communication excellent, cette découverte devrait trouver des applications pour le transfert d'informations cryptées et pour le stockage d'images dans de futurs ordinateurs quantiques.

- Un réfrigérateur quantique

L'article est un peu obscur et parle d'un "second principe" ébranlé (comme si son caractère statistique n'avait pas été démontré depuis longtemps) sous prétexte que "l'effet Zénon" (observer un objet quantique aurait pour effet de le figer) permettrait des échanges de chaleur inversées au niveau quantique, ce qui est sans doute une découverte très importante même si l'entropie n'est pas du tout remise en cause...

Un système quantique, comme un atome couplé à un champ électromagnétique ou une particule élémentaire couplée aux interactions faibles, peut dans le premier cas se désexciter pour émettre des photons ou, dans le second, d'autres particules, comme des muons et des neutrinos s'il s'agit d'un pion. Le couplage à un champ joue d'une certaine façon le rôle d'une mesure et force le système à évoluer.

L'effet Zénon est un effet inverse où l'observation répétée d'un système quantique par un appareil de mesure bloque son évolution ! Dans les deux exemples précédents, à force de regarder un atome ou un pion pour en détecter les émissions de particules, on les empêche de le faire ! Dans le cas examiné par les quatre chercheurs, on considère un système quantique échangeant de la chaleur avec un réservoir d'énergie. Il se trouve que d'après leurs équations obéissant aux lois de la mécanique quantique, selon la fréquence des observations effectuées pour déterminer si oui ou non il y a échange de chaleur, celui-ci peut effectivement se produire mais dans un sens violant le second principe !

Le procédé théorisé par les chercheurs devrait permettre de contrôler à volonté des échanges très rapides de chaleur entre des systèmes atomiques et moléculaires, une possibilité qui certainement aura des applications en nanotechnologie.


Climat



- La dernière glaciation s'est arrêtée en moins d'un an !

C'est une nouvelle incroyable et qui bascule toutes nos certitudes sur le climat. Le principal argument des "sceptiques" accusant de catastrophisme les écologistes et même le GIEC, c'est l'inertie du climat qui semblait considérable au vu des masses en jeu et décrédibiliser toutes les prévisions extrêmes malgré l'existence avéré de telles catastrophes dans le passé. On avait déjà constaté qu'un basculement climatique pouvait se produire en une dizaine d'année mais là, on parle d'un basculement en une seule année, illustrant le caractère non linéaire des phénomènes chaotiques. Il faut tout de même être prudent. Le changement a pu être relativement local, du moins accentué sur le Groenland. Un changement aussi rapide ne peut être dû qu'à un changement du régime des vents, pas à un brusque dégagement de gaz à effet de serre, mais le fait que ce changement soit durable, constituant la fin de la dernière glaciation, est imputable au réchauffement global, d'origine solaire cette fois. Les épisodes catastrophiques par dégagement du méthane, comme au PETM, sont moins durables, revenant aux niveaux précédents après dissipation des gaz. C'est peut-être ce qui s'est produit lors du premier réchauffement suivi d'un refroidissement sévère à l'époque de Lascaux.

Un premier réchauffement rapide s'est produit il y a 14.700 ans, la température du Groenland augmentant alors de 10°C. Cette période particulièrement douce est appelée par les scientifiques le Bølling, et correspond à l'époque où les premiers humains de l'âge de pierre se sont installés en Europe et en Scandinavie. Mais 1.800 ans plus tard, soit vers 12.900 ans, le climat refroidit soudain et un nouvel épisode glaciaire s'engage, soumettant les peuples à des conditions très sévères. Celles-ci durent peu et 1.200 ans plus tard, soit vers 11.700 ans, un nouveau réchauffement rapide intervient. Celui-là marquera définitivement la fin de la période glaciaire en cours.

Il semble à présent établi que le basculement de l'âge glaciaire au climat interglaciaire tempéré que nous connaissons actuellement s'est produit en une seule année ! « Nous avons analysé la transition entre la dernière période glaciaire et notre période interglaciaire chaude actuelle. Les renversements climatiques se produisent aussi abruptement que si quelqu'un avait soudain appuyé sur un bouton » résume dans Science Dorthe Dahl-Jensen, coordinatrice du projet NorthGrip et professeur au Centre d'étude de la glace et du climat à l'institut Niels Bohr de l'Université de Copenhague. Cette précision est rendue possible par l'étude spécifique de chaque couche annuelle de la glace, qui apporte des informations spécifiques sur sa période.

La première modification concerne le taux de poussières, qui se réduit d'un facteur 10 en quelques décennies. Celles-ci provenant des déserts d'Asie, la cause de ce changement doit donc se situer dans cette région. « Le résultat le plus spectaculaire est la modification de l'origine des précipitations du Groenland. Quelques années après la modification du contenu en poussières, l'excès en deutérium de la glace bascule d'un niveau glaciaire à un niveau interglaciaire quasiment d'une année à l'autre, ce qui témoigne d'une réorganisation extrêmement rapide de la circulation atmosphérique tropicale puis polaire ».

- Arctique : la fonte de la banquise pourrait dépasser le record de 2007

Les glaces de l'océan Arctique sont en train de fondre encore plus rapidement que l'an dernier, malgré un hiver froid.

Il y a quelques années, les scientifiques prévoyaient que l'Arctique serait libre de glace durant l'été aux alentours de 2080.

À la fin de l'année dernière, un groupe de scientifiques a estimé que l'Arctique serait libre de glace en été d'ici 2013.

Sur le plan climatique, la fonte de la banquise Arctique pourrait accélérer le rythme global du réchauffement et influer sur l'élévation du niveau des mers. « Il s'agit d'un processus de rétroaction positive ».

Il serait même possible, ce qui était inimaginable il y a 5 ans, que le pôle Nord soit libre de glace cet été...

- Le réchauffement des océans est supérieur de 50% aux estimations du GIEC

Une équipe pluridisciplinaire de chercheurs australiens publie une étude montrant que le réchauffement des océans a été supérieur de 50% aux chiffres utilisés par le GIEC pour la période 1960-2000

- Recrudescence d'épisodes extrêmes

Les épisodes météorologiques extrêmes auxquels nous assistons sont-ils liés au réchauffement climatique ? Oui, sans aucun doute, répond la National Oceanic and Atmospheric Administration. Et cela ne va pas aller s'arrangeant, prévient-elle.

Publié au moment où des inondations record ravagent le Midwest, cette nouvelle étude dépeint un scénario sombre dans lequel les phénomènes météorologiques violents seront lourds de conséquences. Il avertit que les phénomènes météorologiques extrêmes « sont parmi les plus sérieux défis auxquels la société aura à faire face avec le changement climatique. »

Ce rapport, qui synthétise les résultats de plus de 100 universitaires, "conclut que nous observons déjà, et verrons de plus en plus dans le futur, des conditions météorologiques et des évènements climatiques extrêmes".

- Sécheresse en Afrique

Chaque année, l'Afrique perd quatre millions d'hectares de forêt, une régression plus de deux fois supérieure à celle connue en Amazonie, plus médiatisée. L'aridité, elle, progresse.

- Taches solaires : le Soleil est en retard sur son cycle

C'est une des raison du caractère assez frais du temps cette année, cela ne devrait pas durer...

En 2001, le maximum de l'activité solaire a été atteint et un nouveau cycle aurait donc dû démarrer vers 2006. Or, comme le montre en particulier clairement les observations du satellite solaire Hinode, le Soleil est anormalement calme depuis cette époque et aucune tache solaire n'y a été décelée.

Il y a peut-être une explication à ce calme anormal. En 2006, trois physiciens solaires du NCAR, Mausumi Dikpati, Peter Gilman et Giuliana Toma, ont utilisé un modèle informatique de l'activité du Soleil pour reproduire assez correctement les observations. Or, extrapolée à l'avenir, la simulation a effectivement prévu un retard d'au moins un an sur le cycle normal du Soleil avec un pic en 2012.

- Le retour de l'ozone va-t-il changer le climat ?

Avec une couche d'ozone stratosphérique revenant à la normale jusqu'en 2050, des changements climatiques inattendus pourraient se produire dans l'hémisphère sud. En effet, ce retour va peut-être freiner un courant aérien rapide, au moins durant l'été, qui ceinture le globe.

Le retour de l'ozone stratosphérique pourrait ralentir un jet stream crucial situé près de la surface de la Terre en réchauffant la basse stratosphère et la haute troposphère, affectant ainsi les vents et les pressions. En ralentissant près du pôle Sud, ce jet stream subtropical augmenterait aussi d'intensité près de l'équateur. Dans l'hémisphère sud, ce changement pourrait affecter les températures de surface des océans, la banquise, le parcours des tempêtes, l'emplacement des régions arides, la force de la circulation océanique influencée par les vents et les échanges naturels en dioxyde de carbone.

- CO2 : la Chine responsable de 24% des émissions

L'Agence d'Evaluation de l'Environnement des Pays Bas analyse les tendances, quantités et répartitions dans l'émission des 27,6 milliards de tonnes de CO2 libérés annuellement dans l'atmosphère. En 2007, cette quantité a augmenté de 800 megatonnes, dont 500 dues au charbon et 200 au gaz. La Chine arrive en tête de liste des pays émetteurs de CO2 avec 24%, suivie par les États-Unis (21%), l'UE-15 (12%), l'Inde (8%) et la Fédération Russe (6%). Ensemble, ces pays représentent 71% des émissions mondiales.

Parmi tous les procédés industriels, non compris la combustion de carburant fossiles, la production de ciment est la principale source de CO2. Elle contribue à environ 5% du total des émissions mondiales provenant de l'utilisation des combustibles et des autres activités industrielles. Avec une hausse de production de 10% en 2007, la part de la Chine dans la production mondiale de ciment est d'environ 50% aujourd'hui. La fabrication du ciment est responsable de près de 20% des émissions de CO2 de la Chine.

L'exemple de la Chine montre que lorsque d'autres pays commenceront à connaître un processus semblable d'urbanisation rapide et d'industrialisation, les émissions de CO2 de l'industrie du bâtiment seront également renforcées en raison d'une forte augmentation de la fabrication de ciment.

- AIE : Les 10 prochaines années sont critiques

« L'énorme défi énergétique auquel la Chine et l'Inde sont confrontées est aussi un défi énergétique mondial qui appelle une réponse mondiale. » En présentant l'édition 2007 du rapport annuel de l'AIE, le directeur de l'Agence mettait en garde contre les difficultés auxquelles nous devons faire face. La demande énergétique des deux géants asiatiques en développement accéléré provoquera un stress considérable sur le marché mondial des combustibles et sur l'environnement. Selon les prévisions de l'AIE, la Chine et l'Inde consommeront en 2030 plus de pétrole que les USA et le Japon réunis aujourd'hui, la part du charbon va aller croissante, et les émissions de carbone vont monter en flèche, passant de 27 gigatonnes aujourd'hui à 47 en 2030, rendant fort peu vraisemblable l'objectif - déjà bien trop élevé, nous dit Hansen - d'un plafonnement du CO2 à 450ppm. Considérant les années qui viennent comme « critiques » M. Tanaka appelait alors à une « action politique exceptionnellement rapide et résolue de tous les pays. » et soulignait que des « progrès technologiques sans précédents, entraînant des coûts importants » étaient nécessaires. Depuis lors, 9 mois se sont écoulés, le baril frôle les 140 dollars, mais l' « action rapide et résolue », elle, se fait toujours attendre.

« Le rapport WEO-2007 démontre plus clairement que jamais que si les gouvernements ne changent pas leurs politiques, les importations de pétrole et de gaz, l'utilisation du charbon et les émissions de gaz à effet de serre, vont croître inexorablement à l'horizon 2030 - de façon encore plus rapide que ce qui était estimé dans la dernière édition du rapport. Ces tendances menacent la sécurité énergétique et accélèrent le changement climatique. Mais le rapport 2007 montre également comment de nouvelles politiques peuvent ouvrir la voie à un autre avenir énergétique ».

- L'AIE appelle à une "révolution technologique" immédiate

Une "révolution technologique" est nécessaire pour diviser par deux les émissions de gaz à effet de serre d'ici 2050, et le monde doit être prêt à y consacrer sans délai 1 % de son revenu chaque année, a estimé le 6 juin l'Agence internationale de l'énergie (AIE). Si aucune mesure immédiate n'est prise, les émissions de dioxyde de carbone (CO2), un des principaux gaz à effet de serre, bondiront de 130 % d'ici le milieu du siècle, tandis que la demande de pétrole augmentera de 70 %, a prédit l'AIE dans un rapport publié à Tokyo.

Selon le rapport de l'AIE, ce scénario suppose que 35 centrales thermiques au charbon et 20 centrales au gaz soient équipées chaque année de technologies pour capter et stocker le CO2 qu'elles émettent. Un total de 32 centrales nucléaires et 17.500 éoliennes devraient, en outre, être bâties chaque année. Aucune forme d'énergie ou de technologie ne peut à elle seule résoudre le problème du réchauffement, a souligné l'AIE.

On ne comprend pas l'absence du solaire...

- Le réchauffement dépassera largement les 2°C !

Mark Lynas et plusieurs spécialistes du climat ont élaboré 3 scénarios prospectifs, prenant pour hypothèses différentes modalités d'action de la communauté internationale visant à réduire les émissions de carbone. Réalisée sous l'égide d'un think tank dont la vocation est de promouvoir le marché, il ne faut sans doute pas s'étonner que cette étude mette en avant une solution basée sur une bourse des droits à polluer. Mais à la différence de Kyoto, au lieu de monétiser des droits d'émissions de carbone, la méthode proposée consiste à instaurer un plafonnement et des droits en amont, portant sur l'extraction et la vente des combustibles fossiles. Un pic réglementaire, en quelque sorte. La mauvaise nouvelle, c'est que quelle que soit la méthode adoptée, les objectifs actuels ne sont pas tenables. Selon les scénarios, le réchauffement atteindrait de 2,9 à 4,8°, largement au delà des 2° considérés jusqu'à présent comme la limite à ne pas dépasser.

A noter aussi que Science&Vie fait un dossier sur la montée des eaux qui pourrait atteindre 3 mètres ! "La montée des eaux est de loin la conséquence la plus grave du réchauffement". "L'incertitude a explosé. Il y a 3 ou 4 ans, j'aurais dit que 60 cm de hausse était une hypothèse pessimiste. Aujourd'hui on ne sait plus. Certains articles envisagent plus d'1 mètre de hausse. Nous-mêmes avons d'ailleurs commencé à travailler sur des valeurs supérieures". Jame Hansen avertit qu'on ne peut exclure 5 mètres de hausse en un siècle !


Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie

- Confirmation de l'origine extraterrestre de la vie ?

La confirmation de l'origine extraterrestre des bases de l'ARN et de l'ADN signifie à la fois que la vie devrait être à peu près la même partout (notamment sur Mars) mais cela renforce aussi l'hypothèse de l'origine informationnelle de la vie (par reproduction et sélection) plutôt que l'hypothèse métabolique par "auto-organisation".

En analysant des molécules d'uracile et de xanthine (éléments présents dans l'ARN) extraites de la météorite de Murchinson qui s'est écrasée en Australie en 1969, les auteurs apportent la preuve d'une origine exogène. Les résultats démontrent en effet que les nucléotides contiennent une forme de carbone lourd qui ne peut être synthétisée que dans l'espace.

Au début de l'histoire de la Terre, entre 3,8 et 4,5 milliards d'années, notre planète a connu un bombardement météorique intense. Cet apport massif de matériel, estimé à 10e9 Kg, a sans doute contribué à l'émergence de la vie. Une explication d'autant plus plausible qu'à l'époque, où sont apparues les premières formes de vie, les conditions terrestres n'étaient pas favorables à une synthèse « locale » de nucléotides.


On a appris aussi que les premiers continents subissaient des pluies acides provoquant une érosion très forte faisant disparaître toute trace de cette époque bien plus favorable à la vie que ce qu'on croyait il y a 20 ans.

- De la glace sur Mars

Il y a quelques jours, les scientifiques hésitaient encore entre la présence de sel ou de glace pour expliquer l'aspect blanc brillant des tranchées creusées dans le sol martien. La seconde hypothèse tend à se confirmer.

Deux hypothèses étaient retenues par les chercheurs. Cette substance blanche pourrait être du sel, autrefois abondant dans les océans martiens, ou bien de l'eau sous forme de glace.

Il existe cependant un moyen simple de trancher : attendre, pour voir si ce dépôt blanchâtre va se sublimer au soleil et dans ce cas il s'agirait de glace, ou s'il restera en place, confirmant sa composition saline. Les images ont tranché.

- Mars propice à la vie

La NASA révèle que le premier échantillon de sol prélevé par le bras robotisé de la sonde Phœnix contient des éléments nutritifs non organiques : magnésium, potassium, sodium et chlorure.

Ces données, affirment les experts de la NASA, indiquent que le sol de Mars est un milieu dépourvu de toxicité et qu'il contient ce qui paraît être nécessaire pour que la vie puisse exister dans le passé, le présent et le futur.

Voir aussi Futura-Sciences

- Les sondes martiennes ont-elles fécondé la planète Mars?

Il est aujourd'hui démontré, grâce aux missions américaines et européennes (Mars Odyssey, Mars Global surveyor, Mars Express entre autres), que le sous-sol martien renferme d'énormes quantités d'eau et vraisemblablement d'eau liquide à une certaine profondeur. Ces conditions sont très favorable à certaines formes de vie, même terrestres. Des découvertes récentes ont même montré que des organismes prolifèrent dans les sédiments terrestres ou sous la glace, dans un milieu ressemblant au sous-sol martien.

A force de chercher la vie sur Mars, les sondes spatiales risquent surtout de la lui apporter... Ce qui était un doute il y a quelques années est devenu une certitude. La stérilisation des engins spatiaux ne peut pas être parfaite, comme l'ont démontré des tests effectués dans les salles stériles de la Nasa. Environ un milliard d'organismes vivants ont probablement déjà fait le voyage jusqu'à Mars ! Et les conditions, certes difficiles, ne sont pas mortelles pour les plus résistantes des bactéries...

Si la plupart des bactéries périssent sous l'effet des radiations, le JPL en a isolé une, Bacillus pumilus, une espèce très répandue capable de résister là où toutes les autres disparaissent. Une véritable petite martienne d'adoption...

- Des "nanobactéries" vivent depuis 120 000 ans sous la glace !

A plus de trois kilomètres de profondeur, une équipe américaine a découvert au Groenland une population de bactéries minuscules vivant là depuis cent vingt millénaires...

A cette profondeur, les conditions sont tout sauf hospitalières. La température descend à -9°C, l'oxygène disponible est rare (moins de 3%)...

La flore récupérée par les chercheurs contient au moins une dizaines d'espèces, qui présentent une caractéristique commune : les micro-organismes sont minuscules. Pour la plupart, leur taille est inférieure au micron, alors que les bactéries mesurent en général entre 1 et 10 microns. Beaucoup, même, traversent les filtres dont les pores n'atteignent que 0,2 micron.

Beaucoup soulignent que ces organismes vivent très bien dans un milieu qui est très similaire au sous-sol martien.


- Le secret des cellules souches

Ce qui permettrait aux cellules souches d'être pluripotentes, c'est une suractivation de leurs gènes, surtout les facteurs de transcription et les protéines responsables de l'ouverture des 2 brins d'ADN, cette forme relâchée permettant l'accès à l'ensemble du génome alors que c'est le repliement de l'ADN qui rend inaccessible certains gènes dans les autres cellules et sélectionne ceux qui seront exprimés.


- "Cerveau" droit et gauche chez les abeilles

Les résultats de cette expérience suggèrent que l'antenne droite et les structures cérébrales dédiées constituent la base de la mémoire temporaire à court terme alors que la gauche est dévolue à l'apprentissage à long terme. Selon les auteurs, cette division cérébrale, retrouvée chez une grande partie des animaux, serait essentielle au bon fonctionnement de la mémoire.



Santé


génétique, traitements, nutrition, hygiène

- La variabilité épigénétique avec l'âge

Des chercheurs de l'Université de Johns Hopkins ont analysé des échantillons d'ADN provenant de 600 personnes: une première fois en 1991, puis de nouveau entre 2002 et 2005. L'équipe a mesuré les variations totales de méthylation, qui est la principale modification épigénétique de l'ADN, dans 111 de ces échantillons. Ils ont découvert que dans quasiment un tiers des cas, la méthylation avait changé pendant cette période de onze ans.

Ces changements peuvent se produire spontanément, en réponse à l'environnement, à l'alimentation et à d'autres facteurs externes. La méthylation de l'ADN est une modification de l'une des quatre bases azotées par l'ajout d'un groupement méthyle (CH3) à la place d'un atome d'hydrogène. Quand elle se produit, la séquence d'ADN concernée devient muette et n'est plus traduite en protéines.

Les changements constatés par les chercheurs prouvent que les variations dans l'expression des gènes induites par des mécanismes épigénétiques varient durant la vie d'un individu sans doute sous l'effet de facteurs environnementaux ou alimentaires. Cette réalité expliquerait l'émergence de maladies comme le cancer, plus fréquentes en vieillissant.

- Une molécule anti-cancer

Mise au point en 1998, dans le cadre de la recherche antisida, la molécule HB-19 va peut-être connaître une nouvelle carrière comme thérapie anticancéreuse. Une équipe française vient en effet de démontrer son efficacité contre une protéine présente à la surface des cellules : la nucléoline.

"Pour qu'un cancer se développe, il faut deux choses : des cellules tumorales et des vaisseaux nourriciers. C'est ce que favorise la nucléoline de surface, en réussissant à la neutraliser nous disposons pour la première fois d'une molécule qui agit sur ces deux axes en même temps".

HB-19 se lie, en effet, spécifiquement à la nucléoline et la neutralise en la faisant « rentrer » à l'intérieur du cytoplasme où elle est dégradée. Les chercheurs ont testé son efficacité in-vitro sur différents types de cellules tumorales et in-vivo sur des souris greffées avec cellules tumorales humaines. Résultats : l'administration d'HB-19 par voie sous-cutanée ou intrapéritonéale a entraîné une inhibition significative de la progression des tumeurs, voire même dans plusieurs cas l'éradication des cellules tumorales.

Et ce n'est pas tout contrairement aux chimiothérapies anticancéreuses : « HB-19 ne pénètre pas à l'intérieur du noyau cellulaire. C'est donc à la fois une molécule dénuée de toxicité tissulaire et une molécule qui a une action spécifique »

Voir aussi Futura-Sciences.

- Mélanome malin avancé : succès d'un traitement par thérapie cellulaire
Le Monde, Le Figaro 20.06

Des médecins américains ont pour la première fois traité avec succès un patient atteint d'un mélanome avec des cellules clonées de son système immunitaire.

Les chercheurs ont multiplié in vitro certains lymphocytes du malade, actifs contre un antigène tumoral, puis injecté ces cellules dans le sang.

"Un rémission complète a été obtenue, avec un recul de 2 ans".

Ces résultats ne portent que sur un seul cas, mais sont suffisamment exceptionnels pour que d'autres s'en emparent pour élargir l'essai.

Aucun effet secondaire, aucune complication ou maladie auto-immune n'a été observé.

Le traitement mis en œuvre est très lourd et coûteux. (...) Si l'on démontre sur plusieurs patients qu'il est possible d'obtenir des rémissions de longue durée, voire des guérisons, on sera sans doute capable de simplifier les procédures.

Il y aurait plus simple, puisqu'il suffirait paraît-il de boire du café pour éviter les cancers de la peau !

- Retrouver les muscles de sa jeunesse

Plus on vieillit, plus on produit une protéine "TGF-beta" qui bloque la prolifération des cellules souches (peut-être un moyen de se protéger du cancers?). C'est ce phénomène qui expliquerait le ralentissement de la production de cellules musculaires jusqu'à l'atrophie des muscles lorsque les destructions normales de cellules engendrées par l'exercice musculaire ne sont plus compensées par la création de nouvelles cellules. En fait, plutôt qu'une inhibition de la production de TGF-beta, risquant de générer des tumeurs, il faudrait l'équilibrer avec une autre protéine "Notch" dont la production diminue avec l'âge.

Généralement chez les personnes âgées le développement de nouvelles cellules musculaires est plus lent que chez les plus jeunes, mais en inhibant une protéine-clé pour les cellules souches, on a pu rétablir la vigueur de souris âgées. Dans ces deux images, les cellules souches musculaires sont indiquées en rouge, et les fibres musculaires en vert. L'image du haut montre les muscles de souris âgées après traitement, dont la croissance musculaire est clairement supérieure à l'image du bas, qui montre les muscles de souris non traitées.


- Des nanoparticules d'or pour délivrer des médicaments dans les cellules

C'est une première. Un groupe de chercheurs a créé des nanoparticules capables de délivrer des substances actives directement à l'intérieur des cellules sans perforer leur membrane.


- Alerte à la maladie de Chagas en Ile-de-France

Problématique en Amérique du sud, la trypanosomose humaine américaine (THAm, ou maladie de Chagas) est causée par un parasite du sang, Tripanosoma cruzi. C'est donc une trypanosomiase, comme la maladie du sommeil. Cette infection peut rester silencieuse durant vingt ou trente ans. Dans près d'un cas sur trois, elle provoque d'importantes complications digestives, neurologiques et cardiaques, lesquelles peuvent être mortelles (dans 6 % des cas selon l'Institut Pasteur). La maladie se transmet à l'homme par un insecte piqueur, le triatome, mais elle peut aussi se propager par transfusion sanguine et par transmission intraplancetaire (donc de la mère à l'enfant). Dans les années 1970 et 1980, l'infection a connu une forte progression en Amérique latine, le Brésil étant le pays le plus touché, avec un développement plus rapide dans les zones urbaines et surtout dans les banlieues pauvres. L'insecte vecteur aime à vivre dans des recoins humides et affectionne particulièrement les fissures des toits et des vieux murs.

Mais depuis 2004, l'Institut de veille sanitaire (INVS) a recensé 18 cas en Ile-de-France, chez 17 personnes venant de Bolivie et chez une venant du Salvador.

- Un verre de vin par jour, c'est bon pour le foie !

La consommation d'un verre de vin quotidien serait non seulement sans danger pour le foie mais en plus pourrait lui être bénéfique en diminuant la prévalence de certaines maladies non alcooliques hépatiques.

Ces différentes maladies touchant des personnes qui ne boivent pas ou très peu d'alcool sont caractérisées par une accumulation de graisse dans les hépatocytes. Dans la stéatose simple, les graisses s'accumulent à l'intérieur du foie, habituellement sans causer de dommage aux cellules hépatiques. La stéatohépatite non alcoolique est une affection plus grave, car l'inflammation et la croissance des tissus à l'intérieur du foie peuvent mener à de la cirrhose, à des cicatrices hépatiques ou au cancer du foie.

Cette étude montre que le risque de développer une maladie non alcoolique du foie est diminué de moitié chez des individus qui consomment jusqu'à un verre de vin par jour, comparé à des personnes qui ne boivent pas d'alcool. En revanche les consommateurs de bière ou liqueur ont 4 fois plus de risque de développer ces maladies que des consommateurs de vin.

- Le lait biologique est bien meilleur, évidemment !


Les vaches élevées dans les fermes d'agriculture biologique, produisent un lait beaucoup plus riche en acides gras, antioxydants et vitamines bénéfiques que leurs homologues de l'agriculture conventionnelle à haut rendement.


- Des yaourts contre l'allergie

En pleine période de rhume des foins, des chercheurs révèlent qu'une dose quotidienne de probiotiques peut modifier le statut immunitaire des allergiques et ainsi diminuer la gravité des symptômes.

Les probiotiques sont des bactéries ou des levures qui proviennent pour l'essentiel des produits lactiques fermentés, rajoutés dans les aliments (yaourt ou lait) ils favorisent la digestion des fibres, stimulent le système immunitaire et préviennent ou traitent la diarrhée.


- Les probiotiques rendraient obèse !

Ces deux poulets, âgés de six semaines, ont mangé la même chose, à l'exception d'une bactérie.

La bactérie qui a si bien "profité" aux poulets n'est autre que le lactobacillus fermentum, couramment utilisé dans l'industrie laitière pour la fermentation des produits.

Des résultats identiques ont été obtenus avec une autre bactérie célèbre: le bifido-bacterium, présente dans les fameux yaourts au bifidus.

A prendre avec précaution. Les bienfaits des probiotiques sont de plus en plus établis (notamment contre l'inflammation) mais il n'est pas impossible que cela modifie la composition de la flore bactérienne jusqu'à favoriser l'obésité dans certains cas. En tout cas, c'est le fait qu'on donne des probiotiques aux poulets pour grossir qui a mis Didier Raoult sur cette voie. Cela montre surtout que les probiotiques facilitent l'assimilation, pas qu'ils rendent obèse (les "gros" poulets n'ont pas l'air obèses mais plutôt de grandir plus vite !). Qu'il suffise d'une seule dose est aussi très douteux, au moins pour les humains...


- Concentration et créativité : un difficile équilibre

On ne peut pas tout avoir. C'est ce qui fait que le surhomme est un fantasme auxquels les technophobes croient encore plus que les plus allumés des technophiles. Par contre, il est bien plus probable qu'on puisse avoir des hommes spécialisés, ce qui est encore plus effrayant, car, par exemple, on ne peut augmenter à la fois la concentration et la créativité, on ne peut à la fois réduire l'aléatoire et l'augmenter ! Ceux qui prennent de la cocaïne ou de la Ritaline ne le font pas seulement au détriment de leur santé mais de leur créativité (sans parler de leur équilibre émotionnel). En effet, pour achever de dégonfler les fantasmes d'hommes améliorés, il faut aussi souligner que la plupart des possibilités de "dopage" (voire de pilule du bonheur) sont déjà effectives avec les drogues traditionnelles connues depuis toujours, avec leurs avantages et leurs inconvénients. L'homme artificiel est déjà là, nous sommes déjà des aliens...

Selon les auteurs de l'étude, la capacité à être distrait serait justement un facteur de créativité. Elle serait le signe “qu'un plus grand nombre d'informations arrive à la conscience”.

D'après Jacqui Smith, professeur de sciences sociales à l'université du Michigan, “ces recherches correspondent bien à la définition que nous donnons de la “sagesse”. Si les personnes plus âgées se montrent en mesure d'absorber plus d'informations sur une situation, et si elles sont capables de la combiner avec une plus grande connaissance des choses en général, elles se retrouvent alors en possession d'un bel avantage” (malgré leur moins grande rapidité et capacité d'attention).

La plupart des travaux sur l'amélioration de la cognition concernent justement le renforcement des capacités d'attention et de concentration. Ainsi, bon nombre des fameuses “smart drugs” agissent surtout sur ces fonctionnalités (les autres sont plutôt destinées à améliorer la mémoire). C'est le cas des deux les plus connues : le Modafinil et la Ritaline, cette dernière étant fameuse pour être donnée (et parfois imposée) aux enfants souffrants du désormais célèbre “trouble déficitaire de l'attention“. Mais la Ritaline a depuis longtemps quitté le monde de la médecine pour devenir une “drogue de confort” disponible au marché noir. Selon un sondage informel de la revue Nature, 35% des scientifiques à y avoir participé (essentiellement Américains) avouent avoir utilisé de la Ritaline, du Provigil ou des beta bloquants pour améliorer leurs performances intellectuelles. Cependant, si ces recherches se confirment, il se pourrait que nos apprentis génies ne prennent pas les bons remèdes.

“Certains de mes amis qui utilisaient largement la Ritaline à l'université avaient l'habitude de plaisanter sur les avantages qu'elle présentait pour les longues nuits de bachotage, alors qu'elle semblait supprimer toute forme d'originalité”, raconte Lehrer.

Et de conclure : “Lorsqu'on se concentre sur une tâche particulière - comme écrire un article - on demande au cerveau de cesser de prêter attention à une multitude de pensées apparemment sans relation avec le travail en cours, ainsi qu'à une multitude de stimuli venus d'en dessous (le cerveau inconscient est bourré de distractions potentielles). Cependant, ce sont ces mêmes pensées qui peuvent apparaitre comme autant d'interruptions ennuyeuses qui s'avèrent aussi être le moteur de la créativité, parce qu'elles permettent d'établir de nouvelles connexions entre des idées apparemment sans rapport entre elles.”

- La stimulation électrique cérébrale pour mieux apprendre

La stimulation électrique cérébrale (transcranial direct current stimulation ou TDCS) améliorerait les performances cognitives. C'est une technologie appliquée depuis longtemps mais on vient seulement de s'apercevoir que la stimulation du cortex préfrontal par un courant faible appliqué sur la peau du crâne améliorerait significativement l'apprentissage. De quoi concurrencer la Ritaline, paraît-il...


- Appel concernant l'utilisation des téléphones portables

Je dois dire que, pour ma part, je ne comprends pas trop qu'on se focalise sur le danger de cancer qui pour être réel semble malgré tout assez faible au regard des données disponibles, et seulement pour des utilisations très intensives. Les risques de perturbation émotionnelle modifiant les ondes du cerveau me semblent supérieures (ce qui concernerait plutôt antennes relais et wifi) et surtout la perméabilité des membranes des cellules est sans doute potentiellement plus dangereuse. La dangerosité supérieure des téléphones wifi n'est pas non plus prise en compte dans l'appel (il est vrai que c'est encore très minoritaire). Enfin, si j'approuve globalement les précautions à prendre, elles semblent aussi peu praticables que de manger 5 fruits et légumes par jour (il faudrait peut-être mieux se mettre une cage de Faraday sur la tête!)... Ce qui est certain, c'est qu'il faut multiplier les études et prendre des précautions.

- Téléphone portable, la polémique continue

L'Académie de médecine a du mal à comprendre, semble-t-il, la différence entre prévention et précaution...

L'Académie de médecine répond vigoureusement à l'appel sur l'utilisation des téléphones portables initié par David Servan-Schreiber avec le soutien de 19 signataires médecins ou scientifiques. Dans un communiqué publié hier, elle déclare : « Inquiéter l'opinion dans un tel contexte relève de la démagogie mais en aucun cas d'une démarche scientifique ». On ne peut pas raisonnablement affirmer qu' « un risque existe qu'il favorise l'apparition de cancers en cas d'exposition à long terme » et, en même temps, qu' « il n'y a pas de preuve formelle de la nocivité du portable ».

Recommander un mètre de distance dans les transports en commun est irréaliste et inutilement alarmiste.

- Une nouvelle étude met en cause le portable

Ce n'est pas tellement le risque de cancer du cerveau qui serait le problème principal mais bien le dérèglement du système immunitaire (sans doute à cause de la perméabilité des cellules), confirmant une expérience antérieure sur les tomates. Il faut noter cependant que ce dérèglement se produit à relativement court terme par rapport aux 10 à 15 ans de développement d'un cancer et que donc les conséquences sanitaires en sont déjà largement effectives sans que cela ait pris des proportions catastrophiques pour l'instant ni empêché l'allongement de la durée de vie...

L'étude montre que le taux de mortalité des rats de laboratoire double lorsqu'ils sont exposés aux ondes des téléphones portables et réseaux wi-fi. Le taux de mortalité de trois groupes de rats soumis pendant 18 mois à trois niveaux d'exposition électromagnetiques utilisées dans les technologies mobiles s'est élevé à 60%, contre 29% dans un groupe de rats «épargnés».

Mais Dirk Adang avance l'hypothèse d'un dérèglement du système immunitaire des rats, pourtant soumis à des ondes aux taux «conformes aux standards internationaux en vigueur». «Il est remarquable que dans tous les groupes soumis à une exposition, on constate une augmentation des monocytes (globules blancs actifs dans l'élimination des particules étrangères) comparativement au groupe témoin», écrit le chercheur belge. «Ces découvertes montrent un stress dans la formation du système sanguin après une exposition à faible dose, à long terme, de micro-ondes (...) C'est comme si l'organisme réagissait à une agression étrangère ou à une intrusion», ajoute-t-il.


Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique, économie

- WEAV: une soucoupe volante propulsée par électromagnétisme

Les soucoupes volantes ne seront peut-être bientôt plus le fait de la seule science-fiction. Subrata Roy, professeur de l'université de technologie mécanique et aérospatiale de Floride, a soumis une demande de brevet pour une conception circulaire d'appareil volant, rappelant les vaisseaux spatiaux des innombrables films d'Hollywood. Subrata Roy a cependant baptisé son appareil en toute simplicité "véhicule aérien électromagnétique sans ailes," ou WEAV.

Le véhicule se déplace par un phénomène appelé la magnétohydrodynamique. Une force propulsive est créée lorsqu'un courant ou un champ magnétique est passé au travers d'un fluide conducteur. Dans le cas de l'appareil de Roy, le fluide est créé par des électrodes qui couvrent chacune des surfaces du véhicule et ionisent l'air environnant en un plasma.

L'air environnant subit un mouvement, créant un effet ascensionnel, et assurant une stabilité contre les rafales de vent.

Un des aspects les plus intéressants de l'utilisation de la magnétohydrodynamique est que le véhicule n'aura aucune pièce mobile. L'absence de pièces mécaniques traditionnelles, telles que des propulseurs ou des réacteurs, devrait fournir une fiabilité énorme. Une telle conception permettra également au WEAV de planer et décoller verticalement.

Le prototype proposé à la construction est de petite taille, dans les 16cm, alimenté par des batteries embarquées.

- Opel Insignia: la voiture qui lit la signalisation

General Motors s'apprête à commercialiser en Europe une voiture capable de voir et d'analyser certaines caractéristiques de la route. Plus précisément, le véhicule détecte et interprète les principaux panneaux de signalisation ainsi que le marquage au sol.

Le système utilise une petite caméra située entre le pare-brise et le rétroviseur central. Celle-ci filme la route à raison de 30 images par seconde et les retransmet à deux microprocesseurs de traitement de signal. Le traitement permet de repérer un panneau sur une portée de 100m environ. Lorsque c'est le cas, celui-ci est affiché sur le tableau de Bord, entre le compteur de vitesses et le compte-tours. Le système peut même détecter le non respect d'une limitation de vitesse, si c'est le cas, un signal sonore avertit immédiatement le conducteur. Toutefois, l'électronique ne sera pas aux commandes de la voiture et ce sera à l'humain de prendre la décision de freiner.

- Lumeneo Smera : une mini voiture électrique scooter

- Produire de l'électricité à partir des gaz d'échappement des véhicules

Les chercheurs de l'Institut Fraunhofer de techniques de mesures physique (IPM) élaborent actuellement un générateur thermoélectrique permettant de convertir la chaleur d'échappement des voitures en électricité. Ce module pourrait servir de source d'alimentation pour les systèmes électroniques à bord des véhicules. Par conséquent, le système permettrait une réduction de la consommation de carburant, et donc a fortiori une diminution des émissions de CO2 des véhicules automobiles.

Entraînés par le flux de chaleur créé entre les gaz d'échappement chauds et le circuit de refroidissement, les porteurs de charge traversent plusieurs semi-conducteurs spéciaux générant un courant électrique. A long terme, ce générateur pourrait rendre superflu le rôle de l'alternateur et alimenter directement les récepteurs électriques dans la voiture, dont le nombre croît constamment. Ainsi, "la consommation de carburant pourrait diminuer de 5% à 7%".

- Biocarburants, la Côte d'Ivoire se lance dans le jatropha

"Tous les pays tropicaux, y compris la Côte d'Ivoire, sont propices à la culture du jatropha".

La pourghère ou jatropha curcas, souvent appelée "l'or vert du désert" en raison de sa résistance à la sécheresse, "c'est l'avenir", affirme M. Anet, qui se présente comme un "jatrophaculteur".

"Ils sont très étonnés car cette plante n'avait aucune valeur marchande: elle servait à clôturer les cours dans les villages".

La société pétrolière canadienne Independence Oil and Gas, déjà implantée en Côte d'Ivoire via sa filiale Green Oil, vise plutôt le marché local.

"Il y a beaucoup de villages ivoiriens dans le noir alors que la loi autorise aux privés de produire l'électricité", explique Abel Deschamps Tia, directeur de Green Oil qui espère vendre de l'huile de jatropha pour alimenter des groupes électrogènes.


- Nanotechnologie : séparer le bon grain de l'ivraie


Pour mieux évaluer les effets biologiques des nanomatériaux, les chercheurs ont mis au point un outil de dépistage rapide qui permet d'évaluer un grand nombre de nanomatériaux et d'identifier les groupes de matériaux qui sont plus susceptibles de poser un risque.


- Le buvard qui pourrait éponger une marée noire

A gauche, le flacon contient de l'eau sur laquelle flotte de l'essence, colorée en bleu. Après le passage du petit buvard, l'hydrocarbure a disparu. Il ne reste que l'eau...

Cette feuille de nanofibres peut absorber vingt fois son poids en huile ou en hydrocarbure. Strictement hydrophobe, elle peut facilement extraire un polluant d'un milieu aqueux sans jamais s'imbiber d'eau, comme on le constate sur d'éloquentes vidéos... En plus, ce super buvard ne coûte pas cher et il est réutilisable.

Cette étrange feuille est uniquement constituée de nanofibres d'oxyde de potassium et de manganèse, épaisses de quelques dizaines à quelques centaines de nanomètres mais très longues. Là réside le double secret de ce matériau. Ces filaments s'entortillent comme des spaghettis cuits et ne ménagent entre eux que des espaces d'environ dix nanomètres. Un corps gras, comme un hydrocarbure ou un liquide quelconque pourvu qu'il soit hydrophobe pourra s'insinuer dans ce réseau et s'y répandre, jusqu'à constituer vingt fois le poids du buvard.

Une fois ce buvard gorgé d'huile ou de polluant, il peut être facilement lavé à la chaleur. Le matériau résiste en effet à une température de 600°C. Il suffit de le chauffer juste au-dessus du point d'ébullition du liquide absorbé et celui-ci s'évapore.

Notre matériau peut être laissé dans l'eau un mois ou deux et, quand vous le sortez, il est sec.

- Un nanomicroscope

Ce minuscule microscope aurait une résolution de 0,01 nanomètre.


- La cryptographie quantique désormais opérationnelle et commercialisée

Après une application aux élections de Genève, la cryptographie quantique arrive en France afin de sécuriser les échanges fibre optique entre deux sites.


- Contrôler les vaches par wifi !

Vous pouvez voir une vache dans un pâturage portant le système "vache virtuelle directionnelle" (DVF), comportant une batterie (1) et à gauche (3) comme à droite (4) des haut-parleurs logés dans un tube en PVC. Un système GPS avec antenne (5) est situé au centre d'un panneau solaire (6). Cette plate-forme prototype peut sembler maladroite, mais a été remarquablement robuste au cours de nombreux essais sur le terrain menées entre 2001 et 2005. "


- Après le taser, le "led incapacitor"

Des éclairs arc-en-ciel aveuglants permettraient de submerger le cerveau et d'arrêter net l'agresseur ! Commercialisation en 2010.

- Des jumelles associées à un électroencéphalogramme!

On ne fait plus appel à l'intelligence des soldats mais à leur cerveau, devenus simple capteur d'un système d'alerte!

Lorsqu'un combattant observera le champ de bataille avec cet appareil, celui-ci sera en mesure de signaler les éléments du décor qui ont fait “tilt” dans le cerveau du soldat, révélant ainsi peut-être un danger imminent. Autrement dit, plutôt qu'interpréter l'environnement par lui-même à l'aide de capteurs et d'algorithmes sophistiqués, à la manière d'une intelligence artificielle, cette paire de jumelles laisse l'inconscient du soldat faire le travail !

Selon Dennis Mac Bride, président du Potomac Institute, l'être humain a largement développé le cortex préfrontal, qui permet de repérer plus aisément les structures, les modèles, mais qui possède aussi une forte capacité d'inhibition, susceptible d'éliminer bon nombre de données sans importance, mais aussi éventuellement de bloquer certaines informations capitales. Le rôle de l'électroencéphalogramme permettrait donc de court-circuiter ces fonctions inhibitrices. Reste à espérer que ce système ne va pas embrouiller les combattants avec une cascade de fausses alertes, ce que justement le cortex préfrontal nous permet d'éviter...


- Le stylo pour apprendre à écrire

Un stylo-robot qui permet d'apprendre à tracer, rapidement et avec fluidité, des alphabets ou systèmes d'écriture.

Constitué d'un bras à retour d'effort contrôlé par ordinateur, le stylo-robot permet de guider la main au-dessus d'un écran, en contrôlant la forme et la dynamique du tracé.

- La tondeuse solaire robotisée

Cette tondeuse automatique est prétendue écologique car elle n'est pas à essence et comporte un panneau solaire mais la batterie la rend moins écologique qu'une simple tondeuse électrique. En tout cas elle va se recharger toute seule, comme tout robot qui se respecte, et recule quand elle rencontre un obstacle (avec changement aléatoire de direction). Elle peut tondre de 75 à 110 m² par heure (j'aimerais bien la voir sur mon terrain caillouteux, tout de creux et de bosses!) mais il faut délimiter l'aire de coupe par un fil, elle n'a pas de bac pour collecter l'herbe coupée et pas de liaison wifi non plus, ce qui devrait devenir vite indispensable pour ce type d'appareil. On peut voir une vidéo.

- Test de nouveaux robots pour la NASA


- R2-D2, juste un vidéoprojecteur...


- Un téraflops dans mon PC !

Conçu d'abord pour les cartes graphiques, ce circuit atteindrait selon AMD une puissance « supérieure à 1 téraflops », c'est-à-dire une vitesse de plus de mille milliards d'opérations en virgule flottante par seconde (floating point operations per second, ou flops). Le magazine TG Daily pense savoir que la puissance réelle théorique de la RV770 est de 1,2 téraflops.

Cette capacité n'est cependant permise que sur des calculs en simple précision (les nombres s'écrivent alors sur 32 bits). En double précision, la puissance chute (si l'on ose dire) à 200 gigaflops, soit seulement 200 milliards d'opérations par seconde sur des nombres à virgule.

La puissance consommée par la carte Firestream est annoncée à 150 watts, ce qui est peu en comparaison de la vitesse de calcul mais augmentera de beaucoup la consommation d'un micro, en général de 150 à 500 watts. Annoncée pour la fin de l'année, la Firestream 9250 devrait être vendue environ mille dollars (soit 650 euros).

- Bientôt un réfrigérateur dans les ordinateurs ?

Des scientifiques américains cherchent à miniaturiser le classique réfrigérateur pour refroidir les circuits électroniques en deçà de la température ambiante.

La difficulté consiste à trouver des moyens techniques différents pour réaliser un compresseur et un évaporateur, les deux éléments clés d'un réfrigérateur. Au niveau de l'évaporateur, la pression du liquide chute et cette détente génère du froid. Le contraire se produit dans le compresseur.

Dans le prototype développé au CTRC, le compresseur pend la forme d'une petite pastille souple de la taille d'une pièce de 10 centimes. Elle est constituée d'une feuille très fine de polyimide, une matière plastique très utilisée en électronique (par exemple dans les connecteurs souples entre la carte mère d'un ordinateur portable et son écran), recouverte d'un métal. En jouant sur les charges électrostatiques à son voisinage, ce diaphragme peut être mis en vibration et se transformer en pompe, à la manière d'un soufflet de forge. Le principe a été validé par l'expérience : le pompage fonctionne.

Selon les chercheurs, la plus grosse difficulté consiste à trouver un dispositif dont le coût de fabrication soit suffisamment bas. Mais le procédé, lui, a montré son intérêt. « Tous les autres systèmes de refroidissement (dans les micro-ordinateurs, NDLR) refroidissent le circuit jusqu'à la température ambiante, souligne Suresh Garimella. La réfrigération, elle, descend au-dessous. »

- Un dispositif d'affichage tactile

Un dispositif d'affichage tactile d'une extrême simplicité, souple et d'une épaisseur de 0,2 mm. La première application qui vient à l'esprit est un doigtier permettant à un aveugle de lire du braille.

- La webcam comme interface

En deux mots, elle applique au jeu vidéo l'excellent logiciel de vision de Cam-Trax. Celui-ci rend inutile la célèbre zapette à tout faire de la console de jeux Wii (Nintendo), car il est capable de pister en 3D, via une webcam ordinaire, jusqu'à quatre objets qui jouent illico le rôle d'un accessoire de jeu: un stylo sert de manche à balai, un livre devient raquette de ping-pong.

Dans peu de temps, la majorité de nos PC seront dotés d'un œil. Dès lors, les logiciels qui voient et interprètent pourront s'en donner à cœur joie. Parions que l'avenir de l'interaction passe aussi par la vision.

- Adobe débarque en ligne

Le créateur du format PDF ouvre une plate forme en ligne et met à disposition des internautes une suite bureautique collaborative, incluant notamment un outil de webconférence.

ConnectNow est la grande innovation, ce service permet d'ouvrir une conférence (avec trois personnes au maximum) en ligne audio ou vidéo avec un module webcam et chat intégré ainsi qu'un outil de partage de bureaux.

- Payer avec son mobile

Disponible au 3ème trimestre, ce téléphone Nokia 6212 Classic pourra faire office de porte-monnaie électronique utilisant la technologie NFC (Near Field Communication).


- L'Assemblée nationale crée un tarif social pour le mobile

Le mobile est désormais devenu un outil vital, presque un droit de l'homme...

L'assemblée nationale a validé lundi soir un amendement à la loi de modernisation de l'économie afin de proposer un tarif social à la téléphonie mobile. Présenté par le député et porte-parole de l'UMP Frédéric Lefebvre, cet amendement à pour objectif que les opérateurs proposent des tarifs mobiles à bas prix aux personnes dont le pouvoir d'achat est le plus faible. Pour proposer ce tarif social, Frédéric Lefebvre a opté pour la création d'une convention entre l'Etat et les opérateurs mobile. Celle-ci fixera ultérieurement les niveaux de revenus en dessous desquels les abonnés auront droit à ce tarif spécifique.

- Les archives du Web français accessibles à la BnF

La Bibliothèque nationale de France (BnF), permet depuis avril dernier la consultation des archives du domaine français de l'Internet. Pour y accéder, il faut cependant se rendre dans les bibliothèques François Mitterrand ou Richelieu.

- Bruxelles veut casser le monopole de la Sacem

La Commission européenne veut obtenir la suppression des "clauses de territorialité" pour la musique en ligne, garantissant aux sociétés d'auteurs des monopoles de fait sur leur marché national. Une telle décision aurait pour conséquence d'ouvrir en France le marché de la Sacem à la concurrence des autres sociétés européenne. Cette décision, qui doit être entérinée par le collège des commissaires d'ici à la fin du mois de juillet ne concernerait que la musique accessible via les nouveaux médias numériques.

- Bientôt la libéralisation totale des adresses Internet

Dès 2009, chacun pourra créer son nom de domaine, pratiquement sans restriction, « comme .amour ou .haine » résume Paul Towmey, président de l'Icann, gestionnaire le Web. La nouvelle a surpris tout le monde et fait craindre une pagaille générale. Entreprises, tenez-vous prêtes à déposer très vite une kyrielle de noms...

La seule certitude est que cette décision de l'Icann profitera... à l'Icann qui verra ses rentrées financières augmenter linéairement avec le nombre de noms de domaine déposés. L'Icann vient de publier aujourd'hui un document succinct (téléchargeable au format PDF), qui indique une période d'évaluation s'étalant jusqu'au premier trimestre 2009. Ce n'est pas si loin...

- Les États-Unis se lancent dans la purge d'Usenet

En France, on le sait, le gouvernement s'est lancé dans un chantier visant à filtrer les sites pédopornographiques. L'intention est évidemment bonne, nul n'aurait l'indignité de le nier, mais la démarche est semée d'embuches techniques, financières et juridiques.

Aux États-Unis, comme un effet miroir, la mesure a en tout cas été rejointe par plusieurs grands opérateurs qui se sont également lancés dans une traque similaire à peu près en même temps (voir l'annonce sur le site du procureur général Cuomo). Cet effet miroir s'est concrétisé en fin de semaine dernière par un accord favorable à des coupes massives sur Usenet, univers des newsgroups, le réseau des forums de discussion.

Sans y être contraint par un texte, de grands fournisseurs d'accès comme Verizon ou Sprint, ont par exemple décidé de couper Alt.*, et diverses autres branches de Usenet.

« les newsgroups binaires sont faits pour de la piraterie, pas le licite. Pour le licite, vous allez sur Myspace, ou ailleurs, non sur un newsgroup binaire.»

- AT&T va faire payer l'accès Internet selon la consommation

Le fournisseur d'accès Internet américain AT&T prépare un changement de tarification. Les plus gros consommateurs de bande passante, par exemple ceux téléchargeant beaucoup de vidéos, paieront plus que les autres. 5 % de ses clients DSL utilisent 46 % de l'ensemble de la bande passante, selon un porte-parole, ajoutant qu'une tarification basée sur la consommation est inévitable. Cette question inquiète traditionnellement davantage les câblo-opérateurs que les FAI utilisant les lignes téléphoniques (DSL). Car ces derniers, comme AT&T n'ont pas recours au câble - plus facilement congestionné que les lignes DSL - d'un bout à l'autre de leurs réseaux. Time Warner Cable teste aussi dans la ville texane de Beaumont depuis début juin une tarification selon la consommation.

- "Game Over", changeons l'Internet !

Manifeste intéressant bien qu'un peu technique sur les possibilités des nouvelles adresses IP (IPv6) pour le développement du P2P, présenté comme un véritable "espace public", dans un contexte de normalisation de plus en plus poussée d'internet. Il faut savoir que le passage à l'IPv6 est obligatoire du fait de l'explosion du nombre d'ordinateurs connectés. On peut voir cela comme une avance technique sur le contrôle politique mais qui pourrait avoir bien d'autres aspects (qui ne seront pas tous positifs bien sûr).

"Cette transformation extrêmement profonde pourraient conduire l'actuelle "économie de l'attention" à muter en une "économie du lien" impliquant de tout autres rapports sociaux. Elle induit au passage un renouveau complet des formes de légitimité des structures présidant aux destinées du réseau. Dans un esprit plus proche de la "seconde cybernétique", ces organismes de régulation devront s'inclure eux-mêmes dans le système auquel elles président, et donc devenir acentrées, comme lui."

"La résistance institutionnelle ne peut être fertile qu'à la condition qu'elle puisse s'adosser à la mise en œuvre massive par les utilisateurs eux-mêmes et dans une logique factuellement "bottom-up" de toutes les solutions exploitables aujourd'hui et allant dans la direction que nous avons rappelée, à savoir celle d'un Internet "symétrique", centré sur l'utilisateur, et réalisant un véritable espace public."

"Une organisation radicalement nouvelle, a été baptisée "Ψ.observer" à partir de la lettre grecque "psi" qui représente tout simplement l'acronyme de Personal Sustainable Internet (PSI), Internet Personnel et Durable. Son objet a été posé de telle manière qu'il puisse permettre à toute personne de revendiquer librement, sans autorisation ni déclaration préalable, une position d'observateur actif et de bénéficier du soutien de la communauté qui agira elle-même en tirant le maximum de profit de la puissance des organisations de pair à pair / peer to peer (P2P) qui s'imposent aujourd'hui comme le modèle d'avenir, démontré à travers de multiples exemples largement documentés notamment par la P2P Foundation.

Le premier acte de cette organisation nouvelle est le présent manifeste GAME OVER qui sera discuté le 28 juin 2008 lors d'une table ronde virtuelle (visioconférence) entre la Vallée de l'Ortolo en Corse du Sud et l'OpenCamp qui se tiendra au sommet de l'Arche de Défense pour clôturer la Semaine de l'Internet mondial de Paris".

- Un réseau relationnel plus que cognitif

Un article un peu long d'InternetActu qui montre que le web est d'abord relationnel avant d'être cognitif et qu'il ne s'agit pas pour les individus de devenir des médias.

- Eben Moglen, l'anarchisme triomphant

Auteur de L'Anarchisme triomphant : Le logiciel libre et la mort du copyright, et de The dotCommunist Manifesto, Eben Moglen est considéré comme l'un des penseurs les plus radicaux, mais aussi les plus pertinents, de la société de l'information.

L'interview est amusante, où l'on voit que l'arrivée des interfaces conviviales a été considéré par les anciens informaticiens comme une déqualification, une régression plus qu'un progrès ("la fin du langage en relation avec l'ordinateur, c'est l'interface de l'homme des cavernes"). Même les techniciens de pointe peuvent trouver, à partir d'un moment, que c'était mieux avant et refuser les nouvelles technologies...

Cette société est la nôtre, ses réseaux aussi, et nous les avons conçus, créés, développés, construits et entretenus pour échanger des informations, pour donner du pouvoir et des libertés aux gens, pas pour les contrôler ni pour les appauvrir culturellement parlant.

“Porter plainte contre vos clients, ce n'est pas un business model”, avait déclaré Michael Dell. Les artistes n'ont rien à craindre des gens qui aiment ce qu'ils font. Les amateurs de musique ne peuvent pas faire de mal aux artistes qu'ils apprécient, même si les industriels s'acharnent à le leur faire croire.

Alors rien ne sert de s'énerver : il faut juste les ignorer, se battre pour qu'ils ne changent pas trop la loi, et continuer à programmer du code comme nous le faisons depuis 20 ans maintenant : nous avons le matériel, les logiciels, la bande passante, la culture, les talents...

La beauté de notre position tient au fait que de toute façon nous gagnerons, alors laissez-nous tranquille.


- Comment développer son influence

J'ai trouvé amusant ces conseils car pour influencer les autres, il faudrait être humble, serviable, compétent, tolérant, simple, disponible, humain, juste, s'intéresser aux autres...

On voit à la fois que la morale a une dimension communicationnelle et qu'il faut en général les qualités contraires à celles qu'on trouve ordinairement, de même que pour être élu il faut les qualités contraires à celle d'un bon président. Ainsi j'avais été très amusé aussi d'entendre un conseiller en bourse dire, en gros, que pour ne pas perdre d'argent en bourse il fallait ne pas trop aimer l'argent ni être trop sûrs de soi. Ce ne sont pas les gens qu'on trouve en bourse en général, de même que pour être artiste il ne faut pas aimer la gloire alors qu'on veut être artiste pour la gloire le plus souvent !

- Une tribu d'Indiens isolés "découverte" en Amazonie

Survolés par l'avion (pendant vingt heures...), les guerriers se défendent.

Entre le 28 avril et le 2 mai, à plusieurs reprises, le petit avion Cessna Skylane a survolé une tribu apparemment complètement isolée au sein de la forêt amazonienne, dans l'Etat de Acre, au Brésil, près de la frontière avec le Pérou. D'après les observations de l'équipage, la tribu doit compter environ 250 personnes. Le contact s'est résumé à ces survols, qui ont duré une vingtaine d'heures au total et suscité les craintes et la colère des indigènes, si l'on en juge par les photographies, montrant les guerriers visant l'avion avec leurs arcs.

Je pensais qu'il ne fallait pas parler de cette histoire dont les télévisions ont abondamment rendu compte alors que cette tribu était déjà répertoriée mais, en fait, il est vital de médiatiser ces images qui prouvent que la forêt amazonienne est occupée, ce que contestent ceux qui veulent l'exploiter. Il semble que le plupart (pas toutes) de ces tribus isolées sont des populations reconstituées après un premier contact avec les hommes blancs qui a mal tourné et qui désormais fuient tout contact. C'est là que Google earth pourrait faire des ravages en donnant la localisation de ces tribus... (il faut savoir que Michel Brunet a découvert le site ou il trouvera Toumaï grâce à Google earth !).

Pour plus d'information, voir aussi.