Thématiques > Revue des sciences

Revue des sciences novembre 2007

Le 1er  novembre 2007 par Jean Zin


Revues : Pour la Science - La Recherche - Revue des livres
Brèves : Physique - Climat - Biologie - Santé - Technologie


Drôle de mois, un peu trop riche avec les 30 ans de Pour la Science et les 60 ans de Sciences et Avenir ! Impossible de rendre compte de tout. En dehors des revues, ce n'est pas un hasard cette fois s'il y a toute une série de nouvelles du mois qui tournent autour de la substitution au pétrole de biocarburants et de bioplastiques, avec un nombre d'annonces impressionnant ! mais avec aussi tous les problèmes que cela peut poser (ce n'est valable qu'en production locale et à partir de déchets principalement). En effet, non seulement les nouvelles sur le climat ne sont pas bonnes du tout mais le pétrole va rapidement manquer si sa consommation continue à augmenter à ce rythme ! A part ça, les nouvelles les plus importantes concernant les technologies sont sans doute la première utilisation de supercondensateurs dans des batteries et la nouvelle technique pour les OGM consistant à introduire un chromosome entier, et pas seulement un gène, dans les organismes génétiquement modifiés. Sinon, la vitesse variable de la lumière à très haute énergie serait une grande découverte et la matière noire occupe toujours beaucoup les cosmologistes. Il faut savoir enfin que, pour la première fois, une étude semble confirmer les risques de tumeur au cerveau à cause des mobiles, mais cela reste très marginal quand même.



Pour la Science no 361, 30 ans d'aventure scientifique


Pour la Science


- Zéro aux agences de notation, p6
Ivar Ekeland


En dernière analyse, si vous laissez votre argent à la banque, c'est que les dépôts sont garantis par l'Etat. Ce faisant, l'Etat rend aux banques un service qui pourrait être rémunéré par un impôt sur les bénéfices !


- Documents numériques : attention, fragiles !, p14

Non seulement les supports numériques s'altèrent rapidement (entre 2 et 10 ans pour les CD) mais les appareils ou programmes pour les lire disparaissent aussi. Des solutions existent mais qui n'intéressent pas encore le marché tant que les pertes ne deviendront pas plus apparentes. Notre mémoire numérique s'efface inexorablement avec de graves conséquences trop sous-estimées...

Les supports d'enregistrement numérique ont une durée de vie relativement brève. Ce problème passé sous silence risque d'avoir de graves conséquences.

Jamais, dans son histoire, l'humanité n'a utilisé des techniques aussi instables pour conserver et transmettre l'information aux générations futures.

Beaucoup de CD enregistrables ont une durée de vie limitée à quelques années (on cite parfois une moyenne d'environ 5 ans), certains même devenant illisibles en un an ou deux.

Pour une raison mystérieuse, il semble exister une espèce de tabou qui fait que la gravité du problème est passée sous silence. Et pourtant, les faits sont là : tout patrimoine numérique abandonné à lui-même 5 ou 10 ans risque d'être définitivement perdu.

Chacun doit comprendre les enjeux et ne pas attendre 10 ou 20 ans pour constater que les souvenirs familiaux d'une génération ont disparu, ou que les précieuses données récoltées grâce à des équipements scientifiques fort coûteux ont subi le même sort.

- Alzheimer : un autre diabète ?, p18

Ce n'est pas entièrement nouveau, on avait déjà parlé pour la maladie d'Alzheimer d'un diabète de type 3 (le risque pour des diabétiques de contracter la maladie est de 65%) mais si l'hypothèse se confirme, c'est une nouvelle très importante pour la prise en charge de l'Alzheimer et l'orientation de la recherche. Dans le cerveau, l'insuline servirait à la mémorisation et non au métabolisme du glucose (Il y aurait tout de même un rapport entre glucose et dégénérescence du cerveau si l'on en croit une brève plus bas. On avait vu aussi au mois de février qu'il y aurait un rapprochement possible entre Alzheimer et hibernation).

Les biologistes ont observé comment ce rôle de l'insuline est entravé dans le cas de la maladie d'Alzheimer. Dans des neurones d'hippocampe en culture, un peptide extracellulaire (le peptide bêta-amyloïde), connu pour être abondant dans le cerveau des malades, entraîne la disparition des récepteurs à l'insuline de la surface des cellules, notamment au niveau des synapses. Les récepteurs restent près du noyau cellulaire. Les neurones deviennent insulinorésistants, et ne peuvent donc plus jouer leur rôle dans les processus mnésiques.

- Fer et Parkinson, p22

On peut remarquer que le rôle délétère du stress oxydatif est de plus en plus précis, ce n'est plus une généralité théorique mais un fait d'observation.

La répartition de la dopamine dans les neurones serait anormale, et le neuromédiateur serait libéré par les vésicules sous forme de complexes fer-dopamine. En présence de fer, la dopamine participerait à des réactions de stress oxydatif dommageables pour les neurones. Hypothèse à confirmer.

- Néandertal, l'hypothèse climatique, p20

On ignore quand les Néandertaliens ont disparu, même si l'on date leurs derniers fossiles de 30 000 ans environ (...) la date la plus récente est juste antérieure à l'entrée dans la phase extrême de glaciation, phase qui a culminé il y a 20 000 ans. Il est donc possible que les Néandertaliens tardifs d'Espagne aient disparu faute d'avoir pu s'adapter au climat sec et froid dû à la glaciation.

- Labourer la Mer pour refroidir la Terre !, p22

Parsemer la Mer de tubes de 200m pour la fertiliser et augmenter la masse nuageuse. Difficile de croire que cela puisse avoir un impact significatif...

Comment aider la planète à compenser les effets néfastes des activités humaines ? Le chimiste britannique James Lovelock, de l'Université d'Oxford, et la microbiologiste américaine Lynn Margulis, de l'Université Amherst, ont eu une idée.

Il s'agirait de faire flotter de très nombreux tubes d'environ 200m de haut et 10m de diamètre, munis d'une valve à leur extrémité inférieure de façon à laisser l'eau entrer mais pas sortir. Grâce aux vagues, ce système amènerait en surface l'eau profonde riche en nutriments, ce qui augmenterait les efflorescences d'algues en surface, donc leur consommation de dioxyde de carbone. Cela augmenterait aussi la production de sulfure de diméthyle, un composant organique à l'origine des germes de condensation des nuages. Les nuages réfléchissant la lumière solaire, cela contribuerait à refroidir la Terre.




La Recherche no 413, L'Internet du futur


- Des bactéries peuvent nous transmettre leurs gènes, p14

La Recherche

On savait déjà que les virus participaient à la diffusion de gènes, y compris dans les organismes évolués. On savait aussi que les bactéries échangeaient facilement leurs gènes. On vient de découvrir qu'il y avait aussi des transferts de gènes entre bactéries et animaux ! Ainsi la bactérie Wolbachia se loge à l'intérieur des ovocytes des invertébrés ce qui lui permet de transmettre ses gènes qu'on retrouve chez des mouches par exemple, ce qui pourrait s'avérer positif dans certains cas (à condition que cela ne touche pas des fonctions vitales bien sûr).

Un hôte est d'autant plus susceptible de contrôler son parasite qu'il exprime certaines fonctions nécessaires à ce dernier. Et il est aussi possible que l'hôte acquière de nouvelles fonctions par le biais des nouveaux gènes.

Par ailleurs, une brève constate avec étonnement que des séquences d'ADN "ultraconservées" parfaitement identiques entre homme et souris par exemple, n'auraient pourtant pas de fonctions vitales comme on pouvait légitimement s'y attendre puisque des souris privés de ces gènes se sont révélés viables et fertiles sans anomalies particulières !

- Un nouveau mode de transmission neuronal, p14

Ce n'est peut-être rien d'autre que le signe qu'il y a toujours redondance dans les systèmes biologiques, ce qu'on appelle l'équifinalité qui signifie qu'on poursuit un but par différents moyens jusqu'à ce que l'objectif visé soit atteint. En tout cas, un neurone dont on bloque la circulation électrique, fait passer le signal par un autre moyen (plus lent, 1cm/mn, et moins bien adapté à ce type de transmission), par modification de proche en proche de la composition lipidique de la membrane des cellules nerveuses, en particulier la concentration d'un sphingolipide, le céramide qui se trouve dans ce qu'on appelle des radeaux lipidiques.

On pensait que la conduction de signaux nerveux le long des neurones se faisait exclusivement grâce à des "potentiels d'action", créés par des mouvements d'ions de part et d'autre de la membrane neuronale. Mais 4 équipes françaises viennent de découvrir un nouveau mécanisme.

Nous avons élucidé les modalités de la transmission du signal de radeau en radeau : elle nécessite la production en cascade de calcium intracellulaire, de monoxyde d'azote et de GMP cyclique.

- Un modèle animal pour l'autisme, p19

Il faut être d'autant plus prudent avec les innombrables tentatives de trouver les gènes de l'autisme et les perturbations neuronales qui en sont la cause qu'il y a, à n'en pas douter, de multiples formes qui sont regroupées sous cette appellation. Il s'agit ici de la forme d'autisme assez spécifique, quoique très floue, dite syndrome d'Asperger qui a été reliée statistiquement aux gènes codant des protéines qui participent à la formation des synapses. En introduisant la mutation d'un de ces gènes (neuroligine 3) ils ont obtenu chez la souris à la fois une perturbation des relations sociales et une augmentation de certaines performances cognitives.

Ces souris mutantes ont moins d'interactions sociales avec leurs congénères et sont douées d'une capacité supérieure à la moyenne dans un domaine précis, en l'occurrence l'exploration spatiale.

Sur le plan neuronal, ces travaux montrent que la mutation perturbe l'équilibre entre les transmissions synaptiques excitatrices et inhibitrices.

- Jusqu'où ira Google ?, p29

La position de ce moteur n'est écrasante qu'en Europe, où le géant s'octroie 90% du marché, contre un peu pus de 50% aux Etats-Unis (devant Yahoo, MSN et AOL).

Google a annoncé en mars 2007 que les recherches datant de plus de 18 mois seront désormais rendues anonymes.

Peut-être qu'une exploitation plus intensive de tout ce que l'entreprise connaît de ses usagers pourrait payer... à court terme. Mais il faut si peu de temps à un internaute déstabilisé pour changer de moteur de recherche.

- Tim Berners-Lee, p34

L'interview de Tim Berners-Lee est presque entièrement consacrée au "web sémantique" basé sur des fichiers RDF (Ressource Data Framework) contenant la description du contenu des documents par catégories définies avec le langage OWL (Web Ontology Language). C'est la constitution de ces fichiers qui freine la mise ne place du web sémantique même si certains RDF peuvent être automatisés. Il faut une véritable motivation, qui pourra venir du domaine scientifique ou des besoins internes des grandes entreprises, pour ce travail supplémentaire. Le démarrage risque donc d'être très lent pour le grand public (voir cependant l'offre récente de twine dans les brèves ci-après).

- Comment Internet prépare sa mue, p42

L'article ne m'a pas semblé très intéressant, consacré pour l'essentiel à l'automatisation de la gestion du réseau et la sécurisation des données (par une carte puce) même si on envisage de nouvelles architectures, une pluralité de protocoles qui pourraient cohabiter sous forme des "réseaux virtuels" indépendants les uns des autres tout en utilisant les mêmes supports matériels.

- L'optimisation de l'évolution, p82

Certains voudraient nous faire croire que l'évolution est aveugle qu'elle ne progresse pas, ne se complexifie pas, ne s'améliore pas forcément avec le temps, sauf qu'elle aboutit à des formes et des mécanismes complètement optimisés, ce qui se prouve mathématiquement, comme si le vivant se modelait sur les forces physiques en jeu, se structurait sur ses finalités vitales par une causalité descendante assurée par la sélection naturelle mais seulement sur le long terme et les grands nombres. C'est ce que la théorie constructale avait déjà établi à partir des lois universelles du mouvement...

On peut émettre l'hypothèse qu'un organe a peu ou prou une forme qui est adaptée à son environnement, lui permettant de "survivre", c'est-à-dire de remplir au mieux sa fonction. Mais adapté signifie-t-il optimisé d'un point de vue mathématique ?

On parle de "modélisation inverse". Il décrit d'abord la fonction de l'organe à l'aide d'un modèle mathématique. Puis, après avoir choisi un critère à optimiser, il lui faut résoudre le problème correspondant.

- Les Phéniciens ont influencé toute la Méditerranée, p17

On parlait le mois dernier des Hittites, peuple méconnu dont l'importance est pourtant considérable (sans doute à l'origine du monothéisme solaire), l'autre peuple méconnu dont le rôle est fondamental, ce sont les Phéniciens. Les deux ont porté leur influence sur une vaste étendue, les Hittites par la guerre, les Phéniciens par le commerce (aussi différents que Sparte et Athènes).

(Je n'irais pas jusqu'à prétendre comme Jack Goody dans la revue des livres ci-dessous, que les Grecs n'ont rien inventé et que le miracle est d'abord phénicien car si les Grecs n'ont fait qu'ajouter des voyelles à l'alphabet phénicien, en effet, c'est un progrès décisif malgré tout puisque l'écriture sortait ainsi de son statut ésotérique réservé aux scribes pour devenir l'affaire de tous, un "langage parlé", un média de masse, et si la démocratie a bien existé avant les Grecs, c'est la première fois qu'un grand nombre de citoyens pouvaient lire les lois, sans compter l'accès donné par Hérodote, avec son "Enquête", aux différences de tradition et de religion des autres peuples, bien avant la télévision satellitaire...)

Les Phéniciens apparaissent étonnamment modernes dans leur capacité à développer de nouveaux marchés, en s'appuyant sur des artisans itinérants et les réseaux de production locale, et non sur une politique de colonisation.




Revue internationale des livres et des idées no 1


Voilà le premier numéro d'une nouvelle revue ambitieuse puisque son modèle est la London Review of Books. Bien que "littéraire" cette revue est surtout politique et philosophique.

Il y a par exemple un entretien de Stuart Hall sur "Pouvoir et culture" ou des articles sur Frederic Jameson et l'utopie ou le postmodernisme (daté du livre de Lyotard mais aussi de celui d'André Gorz "Adieu au prolétariat") avec la régression de l'oeuvre au texte et la substitution de la lutte des sexes à la lutte des classes ainsi que le rejet d'une totalité qui revient comme complot...

Relisant le Principe Espérance de Marc Bloch, Frederic Jameson note que la science-fiction hérite de l'utopie dans la triple promesse d'un temps aboli, d'un corps transfiguré et d'expériences collectives où nos individualités trouveraient à se fondre.

Un compte-rendu du livre de Michael Scott Christofferson "The French Intellectual Against the Left" nous apprend que pour les Anglais "les nouveaux philosophes" anti-totalitaires "inaugurent un nouveau Thermidor et ont fait de Paris cette "capitale de la réaction européenne" que Perry Anderson a fustigé dans "La pensée tiède". Christofferson montre que le mythe de la démocratie directe a joué un grand rôle à ce moment, avec la complicité de Foucault et la réprobation de Deleuze.

Il y a aussi un article sur le darwinisme qui montre que son accueil n'a pas été si difficile, y compris par les croyants dont faisait partie Darwin qui parle bien du Créateur. Ce qui avait déstabilisé les croyances, ce n'était pas Darwin mais la découverte peu auparavant de fossiles d'animaux disparus... D'autre part Darwin n'était pas si opposé que cela à Lamarck. Il croyait à la transmission de certains caractères acquis et n'a pas arrêté de corriger son ouvrage sur l'origine des espèces (à noter qu'on vient de publier "Esquisse au crayon de ma théorie des espèces" qui est l'ébauche de 1842 de son ouvrage "L'origine des espèces" qui ne paraîtra que 17 ans plus tard).





Brèves et liens



Physique


cosmologie, astronomie, physique quantique


- Une vitesse de la lumière variable ?

Voilà une découverte assez excitante. La vitesse de la lumière pourrait être variable, ralentie par les fluctuations du vide quand elle est très énergétique (on sait que tout comme une corde, plus l'énergie est grande, plus la longueur d'onde est courte : plus c'est lourd plus c'est petit comme le noyau est plus petit que l'électron! Plus c'est petit, plus l'énergie est grande, plus le temps est court et plus les fluctuations du vide sont assez importantes pour dévier les photons, qui ralentissent donc et s'embourbent).

En étudiant en 2005 la galaxie Markarian 501, les astrophysiciens ont fait une bien curieuse découverte : des photons semblent se déplacer à des vitesses différentes ! Selon les plus audacieux d'entre-eux, il pourrait s'agir d'une des toutes premières preuves en faveur de certaines théories de gravitation quantique comme la Loop Quantum Gravity ou la théorie des supercordes.

La taille de la région d'où sont originaires ces éruptions ne semble pas excéder la distance que parcourt la lumière en trois secondes et chacune d'entre elles a produit des photons gamma dont les énergies s'échelonnent entre 100 Gev et 10 Tev, et ce, pendant un temps estimé à 2 minutes à peu près. Là où les choses commencent à devenir très intéressantes, c'est que les photons gamma les plus énergétiques sont arrivés sur Terre avec 4 minutes de retard environ sur les moins énergétiques !

En particulier, John Wheeler et Stephen Hawking ont défendu depuis longtemps l'idée qu'en raison des lois de la mécanique quantique, si l'espace-temps semble lisse et calme à notre échelle, il n'en est pas de même lorsqu'on le considère à des échelles de distances bien plus petites qu'un milliardième de la taille d'un noyau d'atome. Si l'on se donne une image de fluide pour décrire ce qui se passe à une échelle de 10-35 m, la longueur de Planck, on obtient celle d'un liquide en ébullition, très turbulent. Les lois de la gravitation quantique impliquent en effet alors une structure très similaire à celle de l'écume d'une vague se brisant sur un rocher. C'est ce que John Wheeler a justement baptisé en anglais la « foam like structure » de l'espace-temps.

Une théorie quantique du champ de gravitation doit donc elle aussi conduire à des fluctuations quantiques violentes, mais transitoires, de la structure de l'espace-temps avec apparition temporaire de trous de vers et de trous noirs virtuels. Or, plus un photon est énergétique, plus sa longueur d'onde est courte. Ce qui veut dire qu'il sera d'autant plus sujet à être affecté par la structure microscopique de l'espace-temps. Plus cette longueur sera courte, plus les fluctuations conduisant à l'apparition de mini trous noirs virtuels modifieront sa trajectoire dans l'espace-temps.

Une structure discrète semble alors émerger dans certains cas, exactement comme le prédisent les théoriciens de la Loop Quantum Gravity. Les deux approches sont donc peut-être complémentaires pour décrire l'effet de la structure quantique de l'espace-temps sur la propagation des photons. De fait, ces deux approches pour la gravitation quantique que sont la théorie des cordes et la LQG, conduisent à des formules similaires pour décrire cet effet.

- Le "trou" géant dans l'Univers, un défaut de texture du champ de Higgs ?

On avait signalé au mois de septembre la découverte d'un énorme trou dans l'univers. Il pourrait être relié au champ de Higgs, dont il constituerait un défaut de texture, et confirmer les théories de grande unification.

En utilisant le super ordinateur Cosmos, destiné aux simulations en cosmologie et à extraire l'information codée dans le rayonnement de fond diffus, une équipe internationale de chercheurs a proposé une explication pour le fameux « trou » géant dans la distribution des galaxies, découvert récemment. Il pourrait s'agir d'une manifestation des hypothétiques Théories de Grande Unification : un défaut topologique.

De même que certains réseaux cristallins ne sont pas parfaits et possèdent des défauts, de même la structure des champs internes peut comporter ce qu'on appelle des défauts topologiques. Les textures sont un ensemble un peu particulier de tels défauts qui, contrairement à ce qu'on appelle des cordes cosmiques, des parois de domaines ou des monopôles, ne sont pas stables.

Lorsque la température de l'Univers a chuté, le "faux vide", avec une densité d'énergie non nulle mais une valeur de champ de Higgs nulle, s'est transformé en bulles de "vrai vide ", un peu comme des bulles de liquides se condensent dans de la vapeur. Les bulles coalescent pour constituer une plus grande zone de "vrai vide". Le processus rappelle aussi la formation des cristaux de glace dans de l'eau qui gèle. Les défauts topologiques sont alors l'analogue des défauts cristallins dans de la glace


- En vidéo : la matière noire est-elle tiède ?

La matière noire (dont on ne connaît que les effets) ne serait ni trop chaude, ni trop froide, juste un peu tiède...

Les fluctuations de matières nécessaires pour former ces grandes structures nécessitent de la matière dite noire car n'interagissant pas avec la lumière. Dans le cas contraire, la pression de la lumière sur la matière était telle dans les premiers instants de l'Univers qu'elle rendait très difficile la formation de concentrations de matière normale en contrecarrant l'action de la gravité. Si la masse des particules de matière noire est importante, on peut montrer qu'elles se comportent comme un gaz froid qui va se condenser pour donner d'abord les étoiles et les galaxies. Si la masse des particules est faible, elles se comportent comme un gaz chaud et ce sont d'abord de grands nuages de matière esquissant les amas de galaxies qui se formeront les premiers.

Les observations des années 1980 et 1990 ont fait triompher le modèle de la matière noire froide (Cold Dark Matter, ou CDM) de Peebles aux dépens de celui de la matière noire chaude (Hot Dark Matter, HDM) de Zeldovitch. Toutefois, ces mêmes observations peinent à mettre en évidence les petites galaxies naines qui auraient dû se former en très grand nombre très tôt, et être toujours en orbite autour des grandes galaxies résultant de la fusion des précédentes. En revanche, leur quasi absence est bien expliquée dans le cadre de la matière dite chaude. En fait, il suffirait de rajouter à la matière noire froide une petite composante de matière chaude pour résoudre le problème. Plus précisément, une composante avec des particules de matière noire de masses intermédiaires entre celles des modèles de matière chaude et froide suffirait. Tout naturellement on parle en général de modèle de matière tiède dans ces cas-là.

- La matière noire faite d'axions ?

L'axion est une particule hypothétique (boson neutre ayant une très petite masse et n'interagissant presque pas avec la matière en dehors de la gravitation). Elle a été inventée par les théoriciens pour expliquer la symétrie charge-parité observée pour l'interaction forte (mais Science et Avenir fait état, p22, d'une expérience qui a échoué à mettre en évidence son existence!). Il est supposé pouvoir être produit à partir d'un photon soumis à un champ très énergétique (l'effet Primakoff) et pouvoir se retransformer en photons.

L'hypothèse, émise depuis longtemps, vient de se voir renforcée par des observations effectuées sur des amas de galaxies en plein carambolage. Au passage, on en conclut que cette matière mystérieuse est restée presque intacte depuis la naissance de l'Univers.

Parmi les candidats au poste de constituant principal de la matière noire, figurent en bonne place les axions, qui auraient la particularité d'émettre en X lors de leur lente dégradation. Détecter cette émission reviendrait donc à mettre directement en évidence la présence de matière noire.

Vue d'ensemble de Bullet Cluster, formé de deux amas de galaxies en collision. Les courbes rouges montrent les mesures de la gravité de la masse formée en partie par la matière visible, en partie par la matière noire. Les mesures de rayonnement X indiquent que les nuages de gaz ont été éliminés entre les deux amas lors de la collision. La partie de droite montre une forte densité de matière noire mais très peu ou pas de rayonnement X, trahissant une très lente dégradation des particules qui la composent.

En se basant sur l'hypothèse de matière noire constituée d'axions, il est possible d'en déterminer une limite supérieure de la vitesse de dégradation et il apparaît alors que celle-ci doit avoir une espérance de vie de plus de 3 milliards d'années, ce qui implique que seule une très faible proportion s'est dégradée depuis la formation de l'Univers, voici 13,7 milliards d'années. La conclusion est que les particules composant cette mystérieuse substance ont une longue, très longue durée de vie.


- Communiquer à travers la Terre avec des neutrinos

C'est un peu prématuré mais l'expérience de transmission de neutrinos à travers la Terre laisse envisager, dans un futur lointain, l'utilisation des neutrinos pour les transmissions, y compris interstellaires, tirant parti de la propriété des neutrinos de ne presque pas interagir avec la matière. Encore faudrait-il avoir des détecteurs moins imposants qu'actuellement car c'est le problème justement, d'arriver à les détecter et donc d'interagir avec...

Le schéma montre le faisceau de neutrinos produits au Cern à partir d'un faisceau de protons, et son trajet long de 732 km dans la croûte terrestre en direction du détecteur Opera sous la montagne du Gran Sasso en Italie.

Des neutrinos créés au Cern, à Genève, ont été interceptés près de Rome après un voyage souterrain de 732 kilomètres. L'expérience concerne d'abord la physique fondamentale mais certains ont suggéré de se servir des neutrinos pour communiquer à distance, voire pour trouver du pétrole...

A son arrivée, le faisceau de neutrinos a une largeur d'environ un kilomètre et sur 1018 neutrinos produits au Cern, environ 2.500 de ces neutrinos interagiront avec une cible de 10.00 tonnes après un voyage n'ayant duré que 2,5 millisecondes.

Certains se sont même demandé si l'on ne pourrait pas faire avec des communications interstellaires.


- Un pont d'eau sous l'action d'un champ électro-magnétique !

Très étonnant, on peut voir 2 vidéos du phénomène.

Sous l'action d'une forte différence de potentiel, l'eau peut être « sculptée » pour former un pont entre deux béchers, défiant la pesanteur.

Elmar C Fuchs et ses collègues étaient en train d'étudier les propriétés physiques de l'eau sous l'action d'un champ électrique lorsqu'ils ont découvert un étrange phénomène. Deux béchers remplis d'eau distillée et soumis à une forte différence de potentiel étaient à une distance de quelques centimètres quand l'eau s'est mise à grimper aux parois pour sortir des béchers et former une sorte de tube d'eau flottant en l'air, connectant les deux récipients !

Si l'on filme le processus avec une caméra à prise de vues rapides, on constate des oscillations à hautes fréquences dans la structure du pont et, en l'examinant de près, on constate que celle-ci se complexifie au bout de quelques minutes. Enfin, lorsqu'au bout de 45 minutes environ, la température de l'eau est passée de 20 °C à 60 °C sous l'action du voltage, le pont s'effondre.

- Le français Albert Fert Prix Nobel de Physique 2007

Je trouve ce prix Nobel un peu décevant, décerné aux applications plus qu'à l'audace théorique !

Dans les années 70, Albert Fert travaille sur les métaux ferromagnétiques et s'intéresse au rôle du spin des électrons dans le phénomène de magnétorésistance. Le spin, qui peut adopter deux directions, est une propriété de l'électron lié à la rotation qu'il effectue sur lui-même. Dans le matériau, les électrons circulent plus ou moins bien selon la direction prise par leur spin. Ainsi, il suffit que quelques spins soient orientés dans le sens inverse de la majorité pour engendrer une résistance électrique. D'où l'idée d'agir sur le spin pour contrôler la circulation des électrons dans un matériau -et donc sa magnétorésistance. Les bases de l'électronique de spin étaient jetées.

Cependant ce n'est qu'avec le développement des nanotechnologies dans les années 80 qu'Albert Fert et Peter Grünberg ont pu les mettre en pratique. Les manifestations intéressantes de l'électronique de spin (ou spintronique) apparaissent à l'échelle nanoscopique.

C'est en 1988 que ces deux physiciens du solide ont découvert qu'une alternance de couches ultraminces de fer et de chrome, d'une épaisseur de quelques atomes pour chaque couche, présentait une très forte chute de sa résistivité sous l'action d'un champ magnétique. Grâce à ce phénomène, d'infimes variations d'intensités de champs magnétiques devenaient mesurables.

- Nobel de chimie 2007 : Gerhard Ertl et la magie des surfaces

Depuis plus de trois décennies, Gerhard Ertl, un chimiste allemand de l'Institut Fritz-Haber (Berlin), intégré à la société scientifique Max-Planck, explore le monde à deux dimensions. La chimie qui s'y déroule est très particulière, on le sait depuis longtemps. Certains atomes ou molécules peuvent se fixer sur une surface - on dit qu'ils s'adsorbent, avec un « d ». Dans cette situation, leur réactivité chimique est modifiée.

On considère que ses recherches sur la catalyse par le platine sont pour une large part à l'origine des pots catalytiques des automobiles actuelles.


Climat



- Pluies acides : un problème loin d'être résolu !

Une récente analyse effectuée par des scientifiques de la Cardiff University démontre que le problème des pluies acides se montre toujours aussi préoccupant que durant les années 1970 et 1980, malgré l'ensemble des mesures décidées et mises en application.

Les résultats de cette expertise scientifique contrastent nettement avec d'autres études, qui avaient tendance à se montrer encourageantes au point que certains avaient estimé que le problème des pluies acides était définitivement résolu. Une fois de plus, la nature se révèle bien plus complexe qu'une simple mécanique et ses dérèglements bien plus délicats à rectifier par l'Homme, dont la légèreté d'action ne semble pas faiblir...

- La pollution par les nitrates serait sous-évaluée

Les nitrates, sous-produits de la combustion des carburants fossiles retombant sur Terre entraînés par les précipitations, pourraient polluer l'eau potable et les rivières dans une mesure bien plus importante à ce que les scientifiques prévoyaient jusqu'à présent.

Les nitrates se forment dans l'atmosphère à partir des gaz d'échappement des véhicules et des rejets des cheminées d'usine, puis retombent sous forme de pluies acides en contribuant à l'acidification des sols, au déclin de la forêt et à la dégradation des eaux côtières.

Les analyses isotopiques ont démontré que leur provenance était à rechercher dans les sources stationnaires, telles les usines et les centrales électriques, parfois localisées à des centaines de kilomètres. Ces installations rejettent leurs polluants très haut dans l'atmosphère, d'où ils peuvent parcourir de très longues distances avant de retomber, tandis que les rejets des véhicules à moteur sont libérés au ras du sol et sont plus probablement déposés à proximité des chaussées sans avoir atteint la haute atmosphère.


- Le pic pétrolier en 2012 ?

On parle de plus en plus du pic pétrolier. Certains le situent en 2006, d'autres en 2012, d'autres en 2030... Au prix où il est, il n'est pas impossible que de nouvelles ressources remettent un jour ou l'autre les compteurs à zéro, hélas, mais, en attendant, l'augmentation de la consommation devrait se heurter rapidement à une production qui plafonne !

La conférence de l'Association pour l'Etude du Pic Pétrolier qui s'est tenue à Cork va sans doute marquer un tournant. Les professionnels du secteur sont de plus en plus nombreux a estimer que la ressource pétrolière va plafonner sous peu. Combien de temps reste-t-il ? Cinq ans ? Peut-être moins.

La guerre n'a pas été faite uniquement « largement pour le pétrole » comme l'a concédé Alan Greenspan, l'ancien directeur de la Fed, mais entièrement, semble-t-il, pour retarder le moment du pic pétrolier. Si c'est le cas, cette stratégie a échoué lamentablement. Avec des attaques quasi quotidiennes sur les oléoducs, la production périclite à son niveau d'avant l'invasion et les probabilités d'une augmentation significative de celle-ci dans un futur prévisible avoisinent zéro, qu'intervienne ou pas la promulgation de la nouvelle loi sur le pétrole qui fait depuis longtemps l'objet d'âpres discussions.

Nous disposons encore de quelques années, mais avec la demande qui continue de s'accroître nous devrions être fixés sous peu.


- Diminution significative de l'épaisseur de la glace arctique

De pire en pire...

Sur de grandes étendues, la glace de mer arctique n'atteindrait qu'un mètre d'épaisseur et serait ainsi deux fois plus fine qu'en 2001: tels sont les premiers résultats d'une expédition internationale, menée à bord du brise-glace allemand Polarstern, dans le cadre de l'année polaire internationale.

- Les leçons des glaciers d'Hawaii

Et le pire est encore devant nous...

Un des résultats de notre étude suggère que les variations de température au niveau de la mer sont amplifiées en altitude. Je vous laisse imaginer combien les conséquences de ce mécanisme peuvent être inquiétantes pour les dizaines de millions de personnes dont l'approvisionnement en eau dépend de la pérennité des glaciers de montagne (Andes, Himalaya).

- L'Atlantique absorbe moins de dioxyde de carbone

Une série de mesures indiquent que l'Atlantique nord remplit deux fois moins bien qu'il y a dix ans son rôle de puits à dioxyde de carbone.

Entre les deux périodes de mesures, dans le milieu des années 1990 puis entre 2002 et 2005, elle aurait diminué de moitié !

« Des changements d'une telle ampleur constituent une surprise énorme, avoue Ute Schuster. Nous pensions que ces modifications ne pourraient survenir que lentement à cause du volume de l'océan ».

- Nouvelle méthode de capture du CO2 à bas prix

La capture du CO2 ne semble pas une véritable solution ne serait-ce qu'à cause de l'énergie dépensée pour cela mais de nouvelles méthodes pourraient la rendre plus efficace.

C'est dans ce contexte que le RITE (Research Institute for Innovative Technology for the Earth) a mis au point une nouvelle méthode de capture du CO2 en deux temps. Les effluents gazeux traversent une solution à base d'aluminium qui piège le CO2. Le liquide est ensuite envoyé vers une membrane tubulaire percée d'orifices d'un dixième de micromètre. En abaissant la pression autour de cette membrane, le liquide s'éjecte par les petits trous en libérant le CO2.

A l'échelle mondiale c'est 483 des 877 milliards de tonnes de CO2 rejetés d'ici 2050 qui pourraient être enfouies.


- Vers une nouvelle extinction de masse ?

C'est le genre de nouvelles qu'on préférerait ignorer tant cela parait gros, et certes il est peu probable qu'une telle catastrophe se déroule à échelle humaine. On peut contester aussi le caractère un peu trop affirmatif de la prédiction. Rien ne garantit en effet qu'on soit vraiment entré dans une phase longue de réchauffement mais cela devrait tout de même être l'indication qu'il y a des mécanismes d'emballement susceptibles d'accélérer dramatiquement le réchauffement, une fois le processus amorcé, par la libération des hydrates de méthane sous-marins et la fonte du permafrost notamment.

Ainsi, ce ne serait pas seulement une météorite qui serait la cause de la disparition des dinosaures mais surtout une série d'éruptions volcaniques majeures (provoquées par la météorite?) produisant d'immenses quantités de gaz à effet de serre. Plus généralement, les grandes extinctions sont presque toutes liées à un pic de réchauffement (avec libération du méthane 23 fois plus puissant que le CO2 bien que durant moins longtemps dans l'atmosphère). Croire qu'un réchauffement provoquerait un refroidissement comme dans "Le jour d'après" n'est donc pas vérifié du tout par l'expérience passée, bien au contraire, ce n'est qu'un mauvais film...

Le réchauffement climatique en cours devrait déclencher un processus d'extinction de masse comparable à celui qui a exterminé plus de 50 % des espèces vivantes à cinq reprises au cours du demi milliard d'années écoulées.

"Les résultats que nous avons obtenus fournissent pour la première fois l'évidence que les variations climatiques peuvent expliquer les fluctuations quantitatives de fossiles selon la période examinée de façon simple et cohérente. Si nous transposons ces données au réchauffement actuel, comparables aux fluctuations à long terme dans le passé, elle suggère que les extinctions devraient reprendre".

L'équipe de recherche a en effet pu établir une corrélation étroite entre le climat de la Terre et les périodes d'extinction au cours des 520 millions d'années écoulées. Elle note aussi un rapport évident entre l'ampleur de la variation des températures et l'importance du taux de disparition des espèces animales ou végétales associé. De même, il a été constaté de l'examen des fossiles que les périodes à forte biodiversité coïncident avec les périodes les plus froides.

Cinq grandes phases d'extinction de masse ont été mises en évidence au cours du demi milliard d'années écoulées du passé de la Terre. Quatre d'entre elles, dont celle qui a vu disparaître les dinosaures il y a 65 millions d'années, sont étroitement associées à des périodes de réchauffement climatique. La plus importante de toutes, qui s'est produite à la fin du Permien et qui coïncide avec les températures les plus hautes, a entraîné l'extinction de 95 % des espèces animales et végétales peuplant notre planète.

Le GIEC qui vient d'avoir le prix Nobel de la paix n'est pas si catastrophiste car il élimine diplomatiquement les hypothèses extrêmes qui, pour ne pas être du tout certaines (les incertitudes sont immenses), n'en sont pas moins possibles...

- Impossible de réduire les incertitudes du climat !

- Les principales conclusions du GIEC

- Les six scénarios du Giec

- Une vérité qui dérange (vidéo)

- Dossier sur le climat de Futura-Sciences


- Les Etats-Unis aux prises avec une sécheresse historique

Alors que la Californie se bat contre des incendies dévastateurs, une grande partie des Etats-Unis est confrontée à une sécheresse historique qui laisse craindre que des millions de personnes se retrouvent privées d'eau.

- Les grandes sécheresses africaines à l'origine des migrations humaines

Une période de sécheresses extrêmes subies par l'Afrique voici 90.000 à 135.000 ans aurait eu une influence déterminante sur les migrations humaines.

Selon Cohen, cette constatation fournirait une explication d'ordre écologique à une des hypothèses les plus récentes, qui soutient que les populations européennes sont issues de petits groupes ayant occupé le territoire africain voici 150.000 à 70.000 ans. A l'issue de cette période, le climat africain est redevenu plus humide et la population s'est mise à augmenter, ce qui a provoqué d'importantes vagues d'immigration en direction du nord.

- Expansion humaine et climat

L'expansion des premiers hommes modernes depuis l'Afrique via un itinéraire côtier longeant l'Asie méridionale se serait effectuée plus tard qu'on le pensait et aurait été à plusieurs reprises contrecarrée par une série d'importantes modifications environnementales.

Les premières vagues d'expansion humaines en dehors de l'Afrique selon un itinéraire côtier en Asie méridionale ont tout d'abord été contrecarrées, voire bloquées par d'importantes modifications environnementales incluant une élévation importante du niveau de la mer et une sécheresse extrême des zones côtières. Ensuite, une stabilisation du climat avec la mise à sec d'importantes bordures continentales a permis, durant la période -45.000 à -40.000 ans, la première migration importante en direction du sud-est asiatique, incluant la Mélanésie et l'Australie, puis se déployant vers le nord vers -37.000 ans en atteignant la Russie et le Japon oriental.


Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie


- Les briques de l'ADN pourraient se former dans l'espace

C'est la suite du feuilleton des 2 mois derniers, confirmant que les bases de la vie viennent des étoiles et que donc elles sont sans doute universelles. Après avoir découvert de l'adénine dans des météorites, cette fois on aurait découvert la façon dont elle pourrait être synthétisée.

Nous avons observé une étape où s'échappe la molécule H2C2N2. Jusqu'ici, on ne voyait apparaître que des molécules de HCN (l'acide cyanhydrique). D'ailleurs, c'est une voie classique de synthèse de l'adénine que de partir de HCN (l'adénine est de formule globale H5C5N5). Mais personne n'avait jamais vu ni imaginé que le H2C2N2 puisse jouer un rôle.

- Ecotron: un grand équipement pour étudier les écosystèmes

La première pierre de l'Ecotron Européen de Montpellier a été posée le 2 octobre 2007 sur le campus de Baillarguet (à 6 km au nord de Montpellier). Ce grand équipement scientifique construit par le CNRS, la région Languedoc-Roussillon et le conseil général de l'Hérault permettra d'étudier in vitro les réponses des écosystèmes, des organismes et de la biodiversité aux modifications de l'environnement, comme le changement climatique.

Grâce à l'Ecotron, dès 2008, les scientifiques pourront isoler des portions d'écosystèmes dans des enceintes et les soumettre à des variations de climat et de stress très variées. L'intérêt de cette plateforme de recherche de rang international résidera dans sa capacité à mesurer les variations de fonctionnement induites par les changements d'environnement. Sur les trois plateaux expérimentaux (macrocosmes, mésocosmes, microcosmes), des consortiums internationaux d'équipes de recherche pourront ainsi mesurer les cycles du carbone, de l'eau, des minéraux, les émissions de gaz à effet de serre ou encore les changements et le rôle de la biodiversité.

- Un dinosaure à bec de canard

Une nouvelle espèce de dinosaure à bec de canard datant de la fin du Crétacé, il y a environ 75 millions d'années, a été présentée aujourd'hui par des paléontologues de l'Utah, aux Etats-Unis. Le crâne du Gryposaurus monumentensis, ainsi que quelques os, ont été retrouvés sur le plateau de Kaiparowits, qui fait partie du Grand Staircase-Escalante National Monument.

Le nouveau venu se distingue par la taille impressionnante de son crâne et sa courte mâchoire. Avec une telle robustesse, le G. monumentensis devait être capable de mettre en pièces n'importe quel type de plantes, selon Terry Gates (Utah museum of natural history) et ses collègues. Le reptile aurait mesuré jusqu'à 9 mètres de long.

Ce dinosaure au bec plat disposait en permanence d'un minimum de 300 dents, ont précisé les chercheurs. Des dents en attente sont également visibles à l'intérieur de l'os de la mâchoire. A certains moments, le Gryposaurus a pu jouir d'un joli équipement allant jusqu'à 800 dents...

- Les cheveux, nouvelle clé de la génétique

Dans chaque poil, dans chaque cheveu, et même dans les griffes et les ongles, une gaine de plastique naturel protège de grandes quantités d'ADN que personne, jusque-là, n'avait pensé à aller chercher. Une véritable mine pour les paléontologues.

Cette conclusion a été permise à la suite d'examens effectués sur la fourrure de dix mammouths laineux (Mammuthus primigenius) conservés dans les glaces du nord de la Sibérie depuis 12.000 à 50.000 ans, dont le célèbre mammouth d'Adam découvert en 1799, conservé depuis plus de deux siècles à température ambiante et souvent dans de très mauvaises conditions.

La nouvelle méthode, basée sur l'extraction de l'ADN conservé à l'intérieur des poils ou cheveux, s'avère beaucoup plus simple. Ceux-ci sont en effet enveloppés d'une couche de kératine, sorte de matière plastique naturelle qui forme une barrière infranchissable aux bactéries ou à toute autre forme de pollution, même après la mort de l'animal.

Stephan Schuster s'enthousiasme devant les possibilités offertes par cette technologie, qui ouvre la voie au séquençage complet du génome du mammouth et qui pourrait peut-être permettre d'identifier les raisons de la disparition de cet animal, voici 5.700 à 14.000 ans selon les espèces. Jusqu'à présent, seuls sept génomes d'animaux disparus avaient pu être séquencés, quatre oiseaux, deux mammouths et un mastodonte.

- Plus les abeilles disparaissent, plus elles disparaissent...

Les abeilles sont plus susceptibles de disparaître que la majorité des autres organismes, car elles sont soumises à un mécanisme inhabituel de détermination du sexe qui transforme certaines femelles en mâles stériles.

Les grandes populations d'abeilles peuvent maintenir une grande variété d'allèles différents au locus, ce qui permet de réduire au minimum la production de mâles stériles. Toutefois, plus la taille de la population diminue, plus la diversité génétique diminue, entraînant la production d'un grand nombre de mâles stériles.

Cet effet cause encore plus de tort à une population déjà décroissante et peut facilement causer son effondrement. Une population d'abeilles en voie d'extinction disparaîtra jusqu'à dix fois plus vite que toute autre espèce en voie d'extinction ayant une population de même taille.

- Primates en péril

Vingt-neuf pour cent des espèces de primates du monde sont menacées d'extinction durant ce siècle !


Santé


génétique, traitements, nutrition, hygiène


- Pourquoi ne déprime-t-on pas plus ?

Il est intéressant de constater expérimentalement que l'optimisme et la pensée positive résultent d'un refoulement ou de l'inhibition des pensées négatives.

Notre capacité à ignorer les problèmes et les catastrophes qui s'annoncent est immense. Pensée positive et refoulement sont donc des constituants de base de la pensée. Lorsque ce mécanisme inhibiteur est déficient, c'est la dépression, une vraie touche du réel sans doute mais qui nous paralyse. Par contre, si l'optimisme est bien plus efficace et justifié la plupart du temps, il devient contre-productif quand la catastrophe se produit réellement, c'est le revers de la médaille. Ce qu'il faudrait, c'est n'être ni optimiste ni pessimiste mais ce réalisme est à peu près impossible dans un monde incertain où de nombreux risques ne sont que statistiques. Il est quand même bien utile de savoir qu'on a tendance à sous-estimer ces problèmes alors qu'on insiste plus volontiers sur une supposée tendance à les exagérer, à une fascination de la catastrophe très minoritaire à part chez les dépressifs...

Quand sont évoquées de sombres perspectives -perte d'un emploi, maladie, accident de voiture- la plupart des êtres humains ont tendance à les écarter, comme si cela n'arrivait qu'aux autres... Deux régions du cerveau seraient aux avants-postes pour fabriquer cette tendance à voir le bon côté des choses, ce biais optimiste formalisé par de précédents travaux de psychologie. Grâce à l'imagerie médicale, l'équipe d' Elizabeth Phelps (New York University, USA) a observé un pic d'activité dans l'amygdale -connue pour son implication dans la régulation des émotions- et dans une partie du cortex préfrontal.

- Le téléphone portable augmenterait le risque de cancer du cerveau ?
Le Monde 09.10

Les travaux de Lennart Hardel et Kjell Hanson Mild, parus dans Occupational Environmental Medicine, sont la première étude qui confirme un risque qui avait été contesté par toutes les études précédentes mais qui reste tout de même exceptionnel (inférieur à 6 pour 100 000) et seulement pour des usages très intensifs. Il est par ailleurs curieux qu'on se fixe sur ce risque si faible alors qu'il y a bien d'autres perturbations induites par les ondes selon leurs fréquences et leurs puissances, en particulier l'augmentation de la perméabilité des cellules et les ondes du cerveau lui-même (ondes alpha, etc.) ! Il vaut toujours mieux minimiser les puissances et il semblerait que les téléphones WiFi soient potentiellement les plus nocifs.

Les risques de cancer du cerveau seraient deux fois plus élevés chez les personnes ayant utilisé un téléphone portable au moins une heure par jour sur une période de 10 ans.

La tumeur cérébrale maligne dont il est essentiellement fait état dans l'étude suédoise - le gliome - atteint chaque année environ 6 personnes sur 100.000. Quant à la seconde affection étudiée - le neurinome, une tumeur non cancéreuse du nerf acoustique -, sa fréquence n'est que 2,5 fois plus grande. Le nombre de cas est donc faible et rend difficile l'interprétation des résultats, d'autant que ces affections existaient bien avant le portable et ont bien sûr d'autres causes.

Il semble toutefois exister une tendance générale à une augmentation du risque de gliome chez les plus gros consommateurs de téléphonie mobile : utilisateurs de longue durée, au temps de communication élevé et ayant utilisé un plus grand nombre de téléphones.

- De l'infection virale au cancer: quels mécanismes?

Certains virus ont un effet anti-cancer en éliminant les cellules cancéreuses dont le système immunitaire a été désactivé, au contraire, d'autres virus (comme le papillomavirus) peuvent déclencher un cancer en sélectionnant les cellules cancéreuses !

Plusieurs hypothèses sont avancées pour expliquer le rôle des virus oncogènes. Ils auraient la capacité de modifier le matériel génétique d'une cellule, de rendre sa croissance incontrôlable, créant ainsi un terrain favorable à l'émergence de cellules cancéreuses. Autre mécanisme possible : l'inflammation chronique liée à l'infection virale nécessite une multitude de réparations du tissu abîmé ; or au cours de ces réparations cellulaires un plus grand nombre d'erreurs génétiques s'accumulent, augmentant le risque de prolifération anormale des cellules.

Chaudhary et ses collègues ajoutent une nouvelle hypothèse, celle d'une ‘'pression de sélection'' exercée par les virus sur les cellules. Ces chercheurs ont travaillé à partir de cellules de sarcome de Kaposi, maladie cancéreuse liée à une infection par un herpès virus (HHV-8). Ils ont examiné le niveau d'expression d'un gène, le K13, qui est impliqué dans le développement du cancer. Les chercheurs ont constaté que les cellules qui exprimaient le moins le K13 -et qui étaient donc les moins susceptibles de devenir cancéreuses- laissaient davantage le virus se répliquer à leurs dépends. A l'inverse, les cellules qui résistaient le mieux à la réplication du virus étaient celles qui avaient un niveau d'expression élevé du gène K13.

Le virus conduirait donc à une sorte de sélection naturelle des cellules dont les défauts favorisent la prolifération, terreau des tumeurs cancéreuses, avancent les chercheurs. Ces travaux ont été publiés le 24 octobre dans la revue PLoS ONE.


- Un vaccin contre le paludisme

Testé pour la première fois sur des enfants de moins d'un an, un vaccin préventif contre le paludisme a donné des résultats prometteurs, bien que préliminaires.

Le vaccin contre le palu s'est avéré sûr, explique aujourd'hui le Dr Pedro Alonso (Université de Barcelone, Espagne) dans la revue The Lancet, et qui plus est efficace : l'injection des trois doses vaccinales a diminué le risque d'infection par le parasite du paludisme de 65% pendant les trois mois de suivi, écrivent Alonso et ses collègues. La longévité de la protection apportée par le vaccin n'est pas encore connue.

Les enfants africains de moins de 5 ans représentent 75% des victimes mondiales du paludisme, selon l'OMS.

- Les vaccins antigrippe seraient peu efficaces
Le Figaro 02.10

Comme chaque année, le retour de l'épidémie de grippe s'accompagne de violentes critiques sur l'efficacité du vaccin.

La preuve scientifique de l'efficacité du vaccin pour réduire la mortalité grippale (chez les plus de 65 ans) reste à faire. Il est même à craindre qu'on ne l'aura jamais !

Des essais comparatifs entre un placebo et le vaccin ont montré leur efficacité chez les plus jeunes en bonne santé, mais pas chez les seniors de 70 ans et plus, qui ont des facteurs de risque.

- Grippe aviaire : l'apparition de souches de virus résistantes due à la présence du Tamiflu® dans les eaux usées ?
Le Parisien 03.10

Selon des chimistes suédois, « le Tamiflu®, considéré comme un possible médicament de première ligne contre une éventuelle pandémie de grippe aviaire, persiste dans les systèmes d'eaux usées, ce qui pourrait favoriser l'apparition de souches de virus résistantes à ce traitement ».


- Les dangers des transfusions sanguines

On sait que des sportifs et des vedettes se font changer le sang régulièrement mais le sang transfusé étant dépourvu de NO, il pourrait favoriser les crises cardiaques, entre autres...

Une bonne partie du sang conservé en banque et utilisé pour des transfusions auprès de millions de personnes chaque année pourrait perdre un élément essentiel à l'oxygénation des tissus.

L'oxyde nitrique, qui contribue à garder les vaisseaux sanguins ouverts, commence à se dégrader dès que le sang d'un donneur est entreposé, affirment deux équipes de recherche américaines dans des études distinctes parues cette semaine dans l'édition en ligne de Proceedings of the National Academy of Sciences.

Ces dernières années, les médecins sont devenus de plus en plus préoccupés par le niveau de crises cardiaques et d'accidents vasculaires cérébraux (AVC) chez les patients ayant reçu des transfusions sanguines, et ces constats pourraient comporter des éléments d'explication du phénomène.

Les vaisseaux sanguins se relâchent et se contractent pour contrôler la circulation du sang et l'oxyde nitrique ouvre les vaisseaux sanguins, permettant aux globules rouges de livrer l'oxygène, explique le dirigeant d'un des groupes de chercheurs, le Dr Jonathan Stamler. Si le vaisseau sanguin ne peut s'ouvrir, les globules rouges ne peuvent faire leur travail et les tissus manquent d'oxygène, ce qui peut entraîner une crise cardiaque, sinon la mort.


- Trop de sucre dans les neurones : une cause de maladies neurodégénératives

Une cause possible de plusieurs maladies neurodégénératives, dont la terrible maladie de Lafora, vient d'être découverte : les neurones accumuleraient trop de glycogène, la forme de stockage du sucre dans les cellules.

Les conclusions de cette étude apportent l'espoir de découvrir une parade à cette maladie incurable, notamment en identifiant une molécule possédant la capacité d'empêcher la synthèse de glycogène dans les neurones. Toute découverte sur les mécanismes qui enclenchent ou empêchent la production de glycogène est également susceptible d'aider à la compréhension d'autres maladies neurodégénératives ou neurologiques et d'évoluer vers un traitement.

- Un rapport propose de rémunérer l'accompagnement de fin de vie
La Croix, 02.10

Le Comité de suivi du développement des soins palliatifs a remis ses premières propositions au gouvernement.

L'organisme propose de rémunérer le congé pris par des proches d'une personne en fin de vie.

Chaque année, sur 500 000 personnes qui meurent en France, 300 000 bénéficient de l'accompagnement d'un proche. Or, on sait que 200 000 de ces proches se voient accorder un arrêt maladie. (...) La rémunération d'un congé d'accompagnement ne coûterait pas plus cher à la société, mais procèderait d'une clarification.

- Le Prix Nobel de médecine 2007 récompense la technique du "ciblage de gènes"

Les Américains Mario Capecchi et Oliver Smithies, ainsi que le Britannique Martin Evans, avaient découvert une procédure aujourd'hui nommée mutagénèse dirigée par "recombinaison homologue".

Le comité du Prix Nobel a décidé de récompenser les trois lauréats pour la mise au point de cette technique permettant une inactivation de gènes ciblés aussi appelée "knock-out de gène", qui a entraîné une série de découvertes à présent appliquées dans de nombreux domaines de biomédecine, de recherche fondamentale ou de mise au point de nouvelles thérapies.


Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique, économie


- Des chromosomes entièrement artificiels

Il ne s'agit plus de modifier un seul gène dont la position est aléatoire, exigeant de nombreux essais pour avoir une plante viable. Désormais, on peut introduire un chromosome étranger entier, avec plusieurs gènes artificiels qui sont immédiatement opérationnels et que la plante reproduit comme les autres chromosomes.

C'est un progrès décisif car d'une part les OGM produits seront mieux maîtrisés qu'aujourd'hui mais cela ouvre surtout la voie à des modifications de plus grande ampleur à partir de kits de fonctions assemblées. La sécurité acquise d'un côté devrait provoquer un emballement de l'autre, ce qui pourrait augmenter finalement les risques...

Les premières expériences ont eu lieu avec du maïs et Montsanto s'apprête à utiliser cette nouvelle technologie dont elle vient d'acquérir les droits.

(A) Détection par fluorescence des chromosomes artificiels dans une feuille de maïs.

(B) et (C) vues à plus grande échelle des feuilles de Maïs (B) - dans le domaine lumineux et (C) - par fluorescence.

(D) fort grossissement du secteur (C) signalé par une astérisque. Les cellules avec des expressions typiques du chromosome artificiel sont indiquées par des flèches.

- Des têtards génétiquement modifiés pour déceler des polluants

"Les modifications de l'équilibre hormonal provoquées par la substance recherchée sont révélées par la fluorescence des jeunes amphibiens transgéniques, explique Jean-Baptiste Fini, doctorant au laboratoire, titulaire d'une bourse Cascade. Cette fluorescence est spécifique et mesurable, ce qui confère une grande sensibilité au test. En outre, cette méthode est simple à utiliser, relativement peu coûteuse et rapide (72 heures)." Elle est appliquée dans le contexte de Cascade pour analyser les effets du bisphénol A, un plastifiant, de la vinclozoline, un pesticide, et de la génistéine, un phyto-oestrogène, c'est-à-dire trois des quatre perturbateurs hormonaux choisis par le réseau comme modèles (le dernier est la tétrachlorodibenzo-p-dioxine).

- OGM : le maïs transgénique Bt affecterait la faune aquatique

Selon une étude américaine, l'insecticide produit par le maïs génétiquement modifié Bt, abondamment utilisé aux Etats-Unis, agirait aussi sur les insectes des cours d'eau, notamment via le pollen.


- L'agriculture intensive érode les sols

Avec les pratiques conventionnelle de l'agriculture, les sols s'érodent d'un millimètre par an. Or, pour reconstituer cette minuscule épaisseur, il faut dix années.

Il en tire deux conclusions, une mauvaise et une bonne. La première est que l'agriculture conventionnelle dégrade les sols beaucoup plus vite qu'elle ne les reconstitue, la différence étant de plusieurs ordres de grandeur. La seconde est que les pratiques agricoles sans labour ou avec labour léger, et avec rotation des cultures, permettent une exploitation éternelle d'un sol. Optimiste, il remarque que ces bonnes pratiques ont tendance à se répandre aux Etats-Unis et au Canada, qui comptent parmi les plus producteurs agricoles de la planète.

Mais il s'interroge du même coup à propos de l'agriculture pour la production de biocarburants, qui pourrait relancer la course à la productivité à court terme et donc favoriser les méthodes d'agriculture intensive.

- La production de biocarburant en Inde ou en Chine consomme trop d'eau

Au Brésil, pour un litre d'éthanol fabriqué à partir de la canne à sucre, les agriculteurs consomment 90 litres d'eau en irrigation. Aux Etats-Unis, pour un litre d'éthanol tiré du maïs ce sont 400 litres d'eau qui sont ajoutés. En Inde, pour le même litre d'éthanol ce sont 3.500 litres d'eau qui sont versés sur les cultures de canne à sucre, tandis qu'en Chine il faut compter 2.400 litres d'eau par litre d'éthanol produit à partir du maïs.

Troisième producteur mondial d'éthanol, dont 76% est tiré du maïs, la Chine veut multiplier sa production par quatre d'ici 2020. Pour cela, elle doit augmenter sa production de maïs de 26%. L'Inde a des ambitions similaires qui l'amèneraient à augmenter sa production de canne à sucre de 16%.

Alors qu'au Brésil et aux Etats-Unis les pluies apportent une bonne partie de l'eau nécessaire à la canne à sucre ou au maïs pour pousser, en Chine et en Inde ces cultures dépendent essentiellement de l'irrigation.

D'autres cultures, comme le jatropha ou le sorgho, qui ont moins besoin d'eau, permettraient à ces deux grandes puissances émergeantes d'assurer leur indépendance énergétique en préservant leurs réserves en eau.

Jean Ziegler, le rapporteur de l'ONU pour le droit à l'alimentation, a annoncé qu'il était favorable à un moratoire de cinq ans sur la production d'agrocarburants, estimant qu'elle allait aggraver la faim dans le monde et qu'il valait mieux attendre l'amélioration de nouvelles techniques (biocarburants à partir de cellulose, de jatropha, etc).

Le problème se poserait aussi aux USA...

- Production potentielle de biodiesel

Cette production ne devrait pas pouvoir dépasser 5% de la demande mondiale et n'est donc pas une véritable solution...

- Bioliq: lorsque les forêts produiront notre carburant

Intéressant pour autant qu'on utilise des déchets et qu'on ne coupe pas les forêts pour cela !

Le centre de recherche de Karlsruhe en Allemagne a présenté lors du salon automobile de Francfort son procédé "bioliq" qui permet de transformer des résidus agricoles et forestiers en carburants synthétiques dont la qualité dépasse largement celle des autres biocarburants et même des hydrocarbures.

Ce procédé en deux étapes, développé au sein du centre de recherche de Karlsruhe, permet d'utiliser divers constituants de la biomasse, à teneur énergétique le plus souvent faible, et satisfait également aux exigences de la production à grande échelle, donc à sa viabilité économique. Dans un premier temps, la biomasse est transformée en un produit intermédiaire fluide, donc aisément transportable, et à haute valeur énergétique via une rapide pyrolyse, et répond aux exigences économiques pour être amenée sur de longues distances jusqu'à des installations importantes pour la production de gaz de synthèse ou de carburant.

Les principaux résidus utilisables dans ce procédé sont la biomasse sèche: pailles, foin, diverses chutes de bois (découpe d'arbre, écorce), mais aussi le papier et le carton. Grâce à cette vaste palette de résidus agricoles et forestiers, ce procédé présente un énorme potentiel qui dépasse largement les biocarburants de la première génération, le biodiesel et le bioéthanol, et offre la possibilité d'utiliser la totalité d'un végétal. D'après les indications de l'agence des matières premières renouvelables (FNR), 15% des besoins en carburant pour la circulation en Allemagne pourraient déjà être assurés en 2015 par les résidus de la biomasse, sans entrer en concurrence avec la production alimentaire.

- De la graisse de conserve pour le biodiesel

Le Ministère pour l'Innovation et l'Industrie de Galice finance un projet de recherche sur l'utilisation de la graisse de poisson des industries de la conserverie dans l'élaboration du biodiesel. Pour l'instant, l'étude en est aux essais préliminaires. Le "Centre Technologique National de Conservation des Produits de la Pêche" (Anfaco Cecopesco) met à l'étude les avantages que la graisse de poisson trouvée dans les eaux résiduelles de l'industrie de la conserverie pourrait présenter pour la fabrication du biodiesel.

- Et revoici la centrale solaire orbitale !

Le Secrétariat américain à la Défense a repris ce projet en mains, avec l'aide de la Nasa. Selon le JPL (Jet Propulsion Laboratory), un tel projet deviendra rentable lorsque le prix du baril atteindra les 150 dollars.

L'agence spatiale américaine, qui a déjà consacré 23 millions d'euros au projet pour la seule étude de la mise en orbite des gigantesques panneaux solaires, y croit. Selon les estimations des experts, une telle installation pourrait transmettre vers un récepteur terrestre jusqu'à 10 GW de puissance électrique (soit dix centrales nucléaires de moyenne puissance) sous la forme d'un faisceau de micro-ondes. A 36.000 kilomètres d'altitude, les collecteurs recevraient huit fois plus d'énergie solaire qu'au sol, ce qui justifie amplement l'investissement à moyen terme, selon les ingénieurs.

"Imaginez qu'une centrale gigantesque perde son orientation et que le rayon tombe au-delà du récepteur", prévient Anatoli Kiriouchkine, responsable du Central Research Institute for Machine Building (TsNIIMASH). "Si un flux énergétique traverse des immeubles d'habitation ou des entreprises industrielles, il brûlera tous les équipements électroniques, mettra hors service tous les transports, alors que les gens risquent de recevoir de graves brûlures. En outre, il faudra fermer de vastes zones du ciel à la navigation aérienne".

Une telle centrale, et on peut imaginer qu'il pourrait en exister un grand nombre en orbite d'ici quelques décennies, est aussi une arme potentielle capable d'atteindre de nombreuses cibles au sol, mettant hors service toute l'électronique et provoquant d'énormes dommages, matériels comme humains.


- Produire du plastique à partir de CO2

Une équipe mixte de laboratoires universitaires et industriels a réussi à produire du plastique (résine) à partir de CO2. Les propriétés du matériau sont similaires à celles du polypropylène ou du polyéthylène qui à eux deux représentent plus de 60% du marché des résines plastiques.

Le matériau est dérivé à 50% de CO2 issu d'usines, mélangé à des époxydes. Ceci permet une réduction de 30% des émissions de gaz à effet de serre comparé à la fabrication de plastique issu des hydrocarbures.

- Du bioplastique à partir du sucre

Une société italienne, la Bio-On, commencera bientôt à produire du "bioplastique" à partir du sucre. C'est elle qui détient à l'heure actuelle l'exclusivité du projet. Les bioplastiques se sont en effet diffusées dans de nombreux pays, mais n'ont été obtenus jusqu'à présent qu'à partir de céréales.

Le processus fait intervenir les sous-produits, dérivés de la production de sucre à partir de la canne à sucre et de la betterave. Ces sous-produits sont fermentés grâce à une bactérie qui transforme le mélange en acide lactique, filtrés et polymérisés, les transformant ainsi en bioplastique. Le polymère qui résulte de ce nouveau processus industriel est plus résistant que le bioplastique actuellement disponible sur le marché et présente des avantages au niveau du rendement quantitatif: pour obtenir une tonne de bioplastique, il faut 2 tonnes de céréales. Avec le sucre en revanche, le rendement est de 95%.

- Du plastique à partir de mauvaises herbes

Le RITE (Research Institute of Innovative Technology for the Earth), institut japonais de recherche public, et Honda, ont conjointement développé une méthode permettant de synthétiser du polypropylène à partir de mauvaises herbes. Actuellement synthétisé à partir de pétrole, l'utilisation de matériel végétal permettrait de réduire de 60% les émissions de CO2 induites par sa production.

La cellulose provenant des mauvaises herbes est tout d'abord décomposée en sucres, eux-mêmes fermentés en propan-2-ol par des bactéries génétiquement modifiées. Cet alcool est ensuite utilisé pour la synthèse de polypropylène. Le rendement actuel est de 1kg de polypropylène obtenu pour 2 à 3 kg de plantes.

- Du plastique biodégradable à partir de l'amidon

Les plastiques pétrochimiques ont une grande durabilité, mais prennent une éternité à se décomposer. "Les matériaux faits des polymères de l'amidon, eux, se dégradent rapidement, explique M. Huneault. Néanmoins, si besoin est, on peut les faire durer beaucoup plus longtemps. Leur fabrication demande aussi moins d'énergie et libère moins de gaz que celle des plastiques issus du pétrole."

Depuis 2005, M. Huneault et son groupe de Boucherville, au Québec, travaillent en étroite collaboration avec le Réseau canadien d'innovation dans la biomasse et l'Ecole Polytechnique de Montréal pour produire du bioplastique avec l'amidon du pois, du riz et du blé.


- Le plastique qui imite les membranes cellulaires !

Un plastique possédant des pores en forme de sablier, imitant ceux des cellules végétales, vient d'être découvert par une équipe internationale. Remarquablement efficace pour filtrer certaines molécules, il pourrait être utilisé à grande échelle pour réduire les émissions de CO2 et déssaler l'eau de mer.

En particulier, il permet de séparer le dioxyde de carbone du méthane ce qui est très précieux pour réduire la pollution liée à l'emploi du gaz naturel et du charbon.

Les propriétés impressionnantes de ce nouveau matériau devraient même pouvoir être mises à profit pour déssaler l'eau de mer ou séparer l'hydrogène de l'azote, ce qui dans ce dernier cas serait utile pour l'emploi de l'hydrogène comme source d'énergie.

- Un plastique aussi solide que l'acier

Constitué de 300 couches nanométriques, superposées une à une, d'un alliage d'argile et d'alcool polyvinylique (PVA) utilisé dans les peintures ou colles et qui agit comme une bande Velcro, ce nouveau plastique se révèle aussi solide que l'acier. Il pourra servir d'armure légère mais aussi en médecine ou dans l'aviation.

- Une colle à base de dopamine !

Cette nouvelle colle capable de coller avec un film très fin de protéines tous les métaux, même le Teflon, pourrait avoir de multiples applications (filtres, production d'électricité à partir de la chaleur, nanotechnologies).

Ils ont utilisé le levodopa, une petite molécule intermédiaire dans la synthèse de la dopamine mieux connue comme molécule neurorégulatrice, pour mimer une protéine de la moule ayant des propriétés à la fois de liaison et d'adhésion.


- Construire des nanostructures

Il s'agit d'une espèce de moule ou de matrice permettant d'assembler des nanostructures. La seule technique envisageable à l'échelle nanométrique c'est, un peu comme pour les microprocesseurs, une espèce de sérigraphie.

Des chercheurs du CNRS et du CEA ont mis au point une méthode pour guider l'assemblage de molécules sur une surface, à l'aide de "clips moléculaires". Comme dans un jeu de construction, les clips vont constituer des outils importants pour la réalisation de nano-composants sur mesure.

Les chercheurs s'appuient sur les possibilités infinies qu'a la matière de s'organiser spontanément, en fonction des symétries du système. Ils utilisent un substrat cristallin (une surface d'or ou de graphite) dont le réseau va imposer un ordre aux objets déposés.

C'est en suivant cette démarche que des chercheurs du CNRS et du CEA viennent de mettre au point une méthode qui permet de prévoir et de maîtriser l'assemblage de molécules sur une surface de graphite, en jouant sur le nombre et la position de "clips moléculaires".

Des molécules contenant un, deux ou trois clips (schématisés par deux traits) forment des dimères (à gauche) ou des réseaux à deux dimensions (au centre et à droite) qui s'assemblent spontanément sur une surface, selon une géométrie ajustable en fonction des molécules considérées. Ces assemblages peuvent ensuite être soumis à d'autres manipulations, comme la réorganisation contrôlée (cyclisation) d'une chaîne autour d'une molécule hexagonale (au centre, en vert).

- Un nano poste de radio

La vidéo présentée n'a aucun intérêt mais la technique pourrait avoir de grandes conséquences puisque c'est donner des capacités de communication radio à l'échelle nanométrique...

Deux chercheurs américains ont réalisé un poste de radio en utilisant comme démodulateur un nanotube de carbone. Des dispositifs bien plus complexes, comme des nanomachines injectables dans un organisme, pourraient un jour être équipés d'un émetteur radio.

Les applications sont potentiellement immenses. On pourrait par exemple réaliser ce que certains appellent de la poussière intelligente : des dispositifs plus petits qu'un grain de sable et équipés de capteurs, transmettant par radio des informations sur les conditions physiques et chimiques de leur localisation. Cela pourrait être une révolution en médecine, sur un champ de bataille ou en météorologie.


- Un Boeing au biocarburant

L'année prochaine, un 747 emportera dans ses réservoirs du carburant vert, fabriqué à partir de végétaux. Un progrès, explique Boeing, qui affirme tenir compte des risques liés aux biocarburants.

Le constructeur prend soin également d'expliquer qu'il veille à trouver des sources fiables, pour la qualité et pour la quantité. Mais il ajoute qu'il cherche aussi à éviter d'initier une nouvelle vague de déforestation et d'abandon des cultures vivrières. Boeing parle d'approvisionnement durable.

- Hy-Bird un avion électrique

Il apparaît dans le documentaire de Leonardo Di Caprio la Onzième heure.

Le projet, baptisé « Hy-Bird », prévoit d'effectuer le tour du monde en avion électrique, dont les ressources seront fournies grâce à l'énergie solaire et à l'hydrogène. En effet, des cellules photovoltaïques apposées sur les ailes et l'empennage fourniront l'énergie nécessaire pour le décollage ainsi que pour les alimentations auxiliaires, tandis que, la pile à combustibles alimentera l'avion pour son vol en vitesse de croisière. Le tout sera propulsé par un moteur électrique beaucoup plus silencieux que les moteurs thermiques.

- Une voiture volante

Pour bientôt peut-être, les ailes du moins semblent au point... Voir vidéo.

Terrafugia développe le transition®, un avion léger de sport qui pourra attérir à l'aéroport, plier ses ailes, et se conduire sur la route.

- Une voiture électrique de location pliable !

Le moteur électrique est dans les roues. Le système destiné à réduire la pollution et les encombrements pourrait être opérationnel dans 3 ans. C'est la version motorisée des Vélibs ! avec les mêmes problèmes de gestion du parc : il faut ramener les véhicules par camion à l'endroit où ils sont le plus utilisés...


- Des batteries condensateurs

ZENN sera la première voiture équipée de ces nouvelles batteries-condensateurs. La seule bonne solution pour avoir des batteries efficaces et non polluantes, c'est d'utiliser des super-condensateurs où l'électricité est stockée physiquement et non pas chimiquement. L'enjeu est considérable puisque c'est ce qui permettra de généraliser les véhicules électriques et le solaire (entre autres) mais certains considèrent que c'est un peu comme le mouvement perpétuel, un rêve inaccessible car anti-entropique... Jusqu'à maintenant les super-condensateurs étaient aussi plus lourds que les batteries. Pour l'instant c'est apparemment un système hybride combinant une batterie classique à un supercondensateur, le supercondensateur faisant plutôt office d'interface entre la batterie et le moteur pour délivrer une plus grande puissance. Ce n'est pas encore la batterie propre (en nanotubes de carbone?) mais on s'en rapproche juste un peu.

C'est une sorte de supercondensateur-batterie hybride basée sur le titanate de baryum.

Tout comme les condensateurs, ces supercondensateurs stockent l'énergie dans un champ électrique entre deux conducteurs (ou de plaques) étroitement espacés. Lorsqu'on applique une tension, la charge électrique s'accumule sur chaque plaque.

Ces supercondensateurs présentent de nombreux avantages par rapport aux piles électrochimiques. Contrairement aux piles, ils peuvent absorber complètement et libérer une charge très rapidement, et pratiquement dans un cycle sans fin avec très peu de dégradation.

- Des batteries auto-rechargeables

Il s'agit de batteries à base de cellules solaires organiques, développées à l'origine par Konarka Technologies et qui se rechargent toutes seules en présence de lumière.

Les chercheurs européens ont intégré des cellules solaires organiques en couche mince dans une batterie polymère souple pour obtenir une batterie solaire ultramince destinée aux appareils à faible puissance comme les cartes à puce et des téléphones mobiles. La batterie peut se recharger elle-même lorsqu'elle est exposée à la lumière, ce qui signifie que certains gadgets électroniques n'auraient plus besoin de chargeur. Les chercheurs prévoient qu'un tel dispositif pourrait être disponible dans le commerce dès l'année prochaine.

- Des vêtements qui servent de batterie

Les chercheurs ont développé une technologie qui combine des matériaux multiples dans des fibres complexes, comme montré ici. Les chercheurs espèrent stocker de l'énergie dans ces fibres ou convertir la lumière du soleil en électricité, ce qui pourrait être utilisé pour les uniformes de soldats.


- Un combinaison pour sentir les coups

Pour des jeux vidéo plus réalistes...


 

- Un ordinateur de poche-GPS

Le fait d'équiper un ordinateur de poche d'un GPS n'apporte pas seulement une fonction supplémentaire mais ouvre à de nouvelles applications en fonction de sa localisation.

Nokia a dévoilé son dernier produit, un ordinateur ultraportable Wi-Fi appelé le N810. Ce nouveau gadget, qui sera disponible aux Etats-Unis en novembre pour 479 $, est légèrement plus grand, plus large et plus épais que le iPhone d'Apple, mais il est muni d'un clavier à glissière, d'un écran tactile, d'une caméra Web aisi que du GPS. Nokia offre également un ensemble d'outils qui permettent aux programmeurs d'ajouter leurs propre fonctions à l'appareil.

"Le GPS apporte beaucoup aux appareils mobiles ... et il permet des applications novatrices basées sur la localisation".

- un modèle réduit d'ordinateur pour 300 euros

Annoncé début octobre, cet étrange portable, tournant sous Linux, sera commercialisé en France pour Noël et vendu 299 euros, ce qui en fait l'ordinateur le moins cher du marché. A un détail près : ce n'est pas un ordinateur...

De loin, l'Asus EeePC ressemble à un ordinateur portable. Mais il est minuscule. Il mesure moins de trente centimètres et ne pèse que 920 grammes. Son écran de 7 pouces de diagonale présente un format inédit de 15,3 x 9,3 centimètres, proche d'un 16/9.

Il s'agit plutôt d'un appareil mobile dédié aux connexions Internet bien que ses caractéristiques soient proches de celles d'un véritable micro. A l'intérieur, le processeur Celeron M ULV 353 (à 900 MHz) d'Intel dispose d'une mémoire vive de 512 Mo (DDR2-400) et d'une capacité de stockage de 2 à 4 Go. Cette dernière n'est pas un disque dur mais une mémoire Flash (comme celle d'une clé USB).

Asus s'aventure ainsi sur un marché inconnu, celui d'un ordinateur simplifié et bon marché, dont on se sert surtout pour surfer ou relever son courrier.

- Open-Source Hardware

C'est le transfert de la philosophie Open-Source et des logiciels libres au matériel lui-même. Ce n'est pas entièrement nouveau car la compatibilité IBM était déjà un standard ouvert, mais c'est sûrement l'avenir et participe à la contestation des brevets.

Un ordinateur de poche reconfigurable pourrait favoriser la création de matériels "open-source" et de normes communautaires pour le matériel permettant de s'affranchir des droits propriétaires, en substituant un fabricant à un autre. On sait que l'adaptation au matériel est le point faible de Linux à cause du manque de coopération des constructeurs. Voilà qui permettrait de mettre au même niveau hardware et software.

La "BugBase" est d'abord destinée aux ingénieurs et devrait être commercialisée pour quelques centaines de dollars au mois de novembre.


- Objets téléchargeables

Sans que cela soit vraiment nouveau, et même si la Vidéo qui l'illustre n'a pas vraiment d'intérêt, il est intéressant de voir le succès du concept d'objets téléchargeables (appelés ici "spime") construits par des machines numériques (sortes d'imprimantes 3D) qui ont été appelés aussi MUPs (micro-usines personnalisées) ou fabbers ou digital fabricator... Un avantage de ces systèmes, outre leur caractère recyclable, ce serait de pouvoir se procurer les pièces détachées plus facilement, même longtemps après.

Bruce Sterling utilise pour parler de ces objets le terme de spime, des objets manufacturés à support informationnel, si étendus et si riches, qu'ils pourront être considérés comme des instanciations matérielles d'un système immatériel. Les spimes sont conçus sur écrans, fabriqués par des moyens numériques, précisément suivis à travers l'espace et le temps. Ils sont composés de substances recyclables qui peuvent servir à la construction d'autres spimes.

- Les débuts du "web sémantique" ?

Je dois dire que je n'y crois pas trop même si le MIT en fait ses gros titres. Ce qu'on appelle le "web sémantique" ne va pas très loin. Il y a quand même des progrès significatifs mais la nécessité de télécharger toutes ses données sur le site de twine limite largement l'intérêt. Cela ne deviendra une technologie de masse qu'à être intégrée au système d'exploitation. Il n'empêche qu'on s'approche d'une meilleure gestion des données.

Twine est un site Web où l'on peut télécharger les informations qu'on considère importantes, des courriels aux vidéos YouTube, ou, si on préfère, Twine peut automatiquement recueillir toutes les pages Web où l'on s'est rendu, les e-mails envoyés et reçus, et ainsi de suite. Une fois que Twine a ces informations, il commence à les analyser et les trier automatiquement dans des catégories qui incluent les personnes concernées, les concepts abordés, et les lieux, les organisations et les entreprises. De cette manière, lorsque l'utilisateur est à la recherche de quelque chose, il peut avoir un accès rapide aux informations relatives à ce sujet. Twine utilise également des éléments de mise en relation sociale, afin que l'utilisateur puisse avoir accès aux informations recueillies par d'autres dans son réseau. Tout cela crée une sorte de "l'intelligence collective", explique Nova Spivack, PDG et fondateur de Radar Networks.

- L'ordinateur peut reconnaître un homme d'une femme...

Sony a déjà intégré la reconnaissance du sourire dans deux de ses appareils photo. Une autre société japonaise fait mieux : son logiciel peut mesurer le taux de sourire (un indice exprimé en pourcentage...), distinguer un homme d'une femme et estimer l'âge...


- De nouvelles mémoires pour mobiles

D'ici 18 mois une nouvelle technologie pourrait porter la mémoire des mobiles ou appareils photos à la capacité d'un téraoctets (1000 Go!) tout en consommant beaucoup moins d'électricité ! Destinée à remplacer les mémoires actuelles (disques durs, mémoire flash, DRAM) ce nouveau type de mémoire non volatile, baptisé "métallisation programmable de cellules de mémoire" (CPM), ou "mémoire nano ionique", a été élaborée à l'Université de l'Arizona pour des sociétés comme Sony et IBM. Chaque cellule est constituée d'un électrolyte solide en sandwich entre deux électrodes en métal. L'électrolyte est une sorte de verre qui contient des ions métalliques.

- Mobiles : faire du neuf avec du vieux

La start-up Skyward Mobile, a développé un technologie baptisée APX, qui permet de doter des anciens téléphones de nouvelles fonctionnalités, rapporte la Technology Review. APX permet de créer des applications avancées pour une large gamme de téléphone, dont certains de plus de 8 ans d'âge.

APX nécessite de télécharger une petite application client qui fait le lien avec les serveurs de Skyward. Celle-ci gère et compense les manques du téléphone et permet ainsi de faire jouer une vidéo à un téléphone qui n'a pas de système pour le faire.

- Skype sur mobiles

3 Mobile crée un mobile Skype dont les coûts de communication devraient être très réduits par rapport aux mobiles actuels, surtout pour les appels internationaux (mais avec un confort moindre sans doute).

- Google phone sous Linux

Là encore, c'est le logiciel libre et la gratuité (payée par la publicité) qui gagnent du terrain...

Le fameux GPhone ne serait pas un téléphone mobile à proprement parler mais prendra la forme d'une suite de services ou d'un nouveau système d'exploitation basés sur Linux. L'objectif n'est donc pas de rivaliser de manière frontale l'iPhone d'Apple. Google cherche juste à étendre sa main mise sur la publicité en ligne jusqu'aux téléphones mobile ; et c'est plus vers Microsoft que se situe la concurrence car, contrairement, au géant de l'informatique, le moteur de recherche proposerait son système d'exploitation gratuitement aux opérateurs ou aux fabricants qui souhaiteront l'intégrer. "Le point essentiel dans la stratégie de Google est de mener la création d'un concurrent open-source à Windows Mobile".


- Avec Prism, les logiciels en ligne fonctionnent comme les vrais

Le nouveau projet de Mozilla permet d'ouvrir une application en ligne directement sur le bureau de Windows.

Visiblement, les auteurs du logiciel ont cherché à réunir les caractéristiques des applications de bureau et des applications Web, en ne gardant que le meilleur de leurs possibilités et surtout en simplifiant leur utilisation. Il est à noter que cette première version n'existe encore que pour Windows, Mozilla promettant une adaptation rapide aux mondes Mac et Linux.

Chaque application en ligne pourra être appelée via une icône personnalisable sur le bureau. Enfin, cette technologie devrait à terme permettre de faire tourner les applications Web hors ligne, en offrant une nouvelle gamme de possibilités.

La première version de Prism peut être téléchargée sur un site dédié de Mozilla.

- Deux internautes sur trois ont payé l'album de Radiohead

Une hirondelle ne fait pas le printemps mais c'est quand même le signe qu'un modèle proche du "shareware" a toute sa place à l'ère d'Internet et qu'il peut être plus rentable que le circuit marchand pour certains artistes. En tout cas, cela montre qu'un fan est motivé pour payer un album à hauteur du plaisir qu'il lui donne !

Selon le quotidien britannique The Times, deux tiers des internautes ayant téléchargé le dernier album de Radiohead ont décidé de rétribuer le groupe. Disponible depuis le 10 octobre sur le site Internet de Radiohead, l'album est proposé en libre téléchargement, les internautes étant libre de payer, ou non. Selon le journal, le prix moyen dont se sont acquittés les internautes est de 5,78 euros.

En trois jours, Radiohead avait vendu 1,3 millions d'albums. Le prix moyen aurait été de 6 euros - un chiffre qui semble être tombé à 4 euros après que les premiers fans aient passé commande. Avec l'élargissement de l'audience a un plus grand public, la moyenne du prix d'achat s'est tassé : on estime entre 1/4 et 1/3 le nombre d'internautes qui auraient choisis de ne rien débourser. Wired estime néanmoins que le groupe aurait déjà pu récolter entre 4 et 8 millions de d'euros.

- Demain les mondes virtuels : Une économie aux pieds d'argile ?

Pour Edward Castronova, Second Life n'est rien d'autre qu'un petit village, avec des ressources réelles, mais limitées. “Ce n'est pas une arnaque, c'est une économie villageoise”, affirme-t-il. Il ne s'agit pas, ajoute-t-il, “d'un “schéma pyramidal” mais d'une mini-ruée vers l'or. L'or existe et possède une authentique valeur. L'erreur consiste à penser qu'il y en a pour tout le monde. Castronova met en garde contre l'apparition d'une éventuelle “anti-hype”, aussi déséquilibrée que l'enthousiasme qui l'a précédée, et qui pourrait faire de “2007 l'année du crash des mondes virtuels (...) tout ça parce que SL ressemble plus à Mayberry (NDT : un petit village fictif d'une série télé américaine) qu'à Manhattan.”

Robert Bloomfield, qui dirige à l'université de Cornell le Business Simulation Laboratory (Laboratoire de simulation économique) en est venu à créer une nouvelle sorte de science économique, la “métanomique”, qu'il subdivise en trois grande tendances :


- Un robot à visage presque humain...

Plutôt inquiétant...

On peut voir une vidéo.

- Un robot pour être là... où on n'est pas

Une galette à roulettes, munie d'une caméra et d'un téléphone, peut vous remplacer auprès de vos enfants ou de votre grand-mère : c'est ce que propose un fabricant américain de robots.

ConnectR ressemble à un aspirateur Roomba mais lui n'a aucune utilité concrète. Manœuvrable à distance via Internet et, sur place, une liaison Wi-Fi, il est muni d'une caméra orientable. L'utilisateur, devant son micro, peut le déplacer à loisir dans la maison et espionner tout ce qui s'y trouve (sans pouvoir toutefois franchir les escaliers ni la glissière de la terrasse ou du balcon). Mais ConnectR n'est pas discret et ne cherche pas à voir sans être vu. Comme l'explique iRobot sur son site, papa ou maman, grands voyageurs ou travaillant au bout du monde, peuvent ainsi faire coucou à leurs enfants, qui verront l'engin se déplacer sur la moquette et venir vers eux en allumant quelques lampes.

Grâce à une ligne téléphonique (sur IP, bien sûr), enfants et parents pourront se parler (mais le robot n'a pas d'écran et, pour les images, ne fonctionne donc que dans un seul sens). De même, obligeamment installé chez les grands-parents, ConnectR permettra à la famille trop occupée de manifester sa présence sans se déranger. Le site avance une troisième utilisation : venir tenir compagnie à l'animal laissé à la maison.

Enfin, en bon robot domestique, quand personne n'a besoin de lui, il peut se garer dans son coin pour ne pas gêner et se rendre tout seul vers une prise électrique pour faire le plein de sa batterie.


- Plus un mot est utilisé, moins il évolue

Ce n'est pas vraiment une découverte mais les verbes irréguliers par exemple sont parmi les mots les plus utilisés, qui restent donc insensibles aux simplifications qui affectent les autres mots. Les mots les plus courants (comme water ou wasser) se conservent même depuis des temps immémoriaux (on les retrouve dans l'indo-européen, chez les Hittites par exemple ce qui a permis de déchiffrer leur langue).

Sur 177 verbes qui étaient irréguliers il y a 1.200 ans, 98 le sont restés. Croisant leur longévité avec leur fréquence d'usage, Nowak et ses collègues ont pu établir qu'un verbe utilisé 100 fois plus souvent qu'un autre évolue 10 fois moins vite vers une forme régulière.

- Le Néandertalien était doté du même gène du langage que l'homme moderne

Les Néandertaliens, ancêtres les plus proches de l'homme moderne, éteints mystérieusement il y a moins de 30.000 ans, étaient aussi pourvus du gène-clé pour acquérir le langage, selon des travaux de chercheurs européens publiés jeudi aux Etats-Unis.

Cette découverte ouvre la possibilité que l'homme de Neandertal qui a divergé avec les humains modernes, l'homo sapiens, il y a plus de 300.000 ans, avaient les capacités génétiques pour parler, selon les auteurs de cette étude parue dans la revue américaine Current Biology.

Ce gène, appelé FOXP2, est le seul connu à ce jour qui joue un rôle essentiel dans la formation de régions du cerveau liées à l'apprentissage du langage.

"Il n'y a aucune raison de penser que les Néandertaliens ne pouvaient pas parler".

La version humaine du FOXP2 diffère de celle des chimpanzés en deux endroits, notent aussi ces scientifiques.

Les anthropologues avaient précédemment fait valoir que l'homme de Neandertal était doté des caractéristiques anatomiques nécessaires pour parler comme les terminaisons nerveuses des muscles de la langue indispensables pour former des sons.

D'après Futura-Sciences, ce gène du langage pourrait aussi avoir été transmis par croisement avec l'homo sapiens avec lequel il a longtemps cohabité (des études génétiques ont réfuté ces croisements qui auraient pu se faire dans un seul sens ?). Sinon, pour Sciences et Avenir, l'étude de leur patrimoine génétique indique qu'au moins 1% des Néandertaliens auraient été roux à la peau blanche...

- Le littoral, refuge des premiers hommes modernes?

La consommation de coquillage, les pierres taillées et l'utilisation de colorants pour un usage symbolique dateraient de l'origine de l'humanité alors qu'on les pensait plus récents (100 000, 80 000 voire 40 000 ans) jusqu'ici. Cela signifie surtout que le langage est originaire, dès l'apparition de l'espèce et même sans doute avant... Cela n'empêche pas qu'il a pu y avoir un progrès décisif dans le langage ou la culture il y a 50 000 ans au moment des premières sépultures (aussi bien chez Néantertal).

La grotte de Pinnacle Point, située près du Cap, en Afrique du Sud, avec une vue imprenable sur l'océan Indien, aurait abrité il y a 164.000 ans environ des hommes aux pratiques étonnamment modernes

Les chercheurs ont retrouvé dans cette grotte des coquilles de mollusques, des lamelles de pierre et des morceaux d'hématites. Les deux méthodes de datation utilisées (uranium et luminescence) indiquent que cette couche archéologique a 164.000 ans. Des êtres humains seraient venus vivre près du littoral, à une période où la majeure partie du continent africain était froid et sec, expliquent Marean et ses collègues.

Il y aurait eu à l'extrême sud de l'Afrique une petite population d'humains modernes qui, durant cette période glaciaire, se maintenait par le biais de la consommation des produits de la mer et l'utilisation de technologies avancées. Leurs actes et comportements symboliques auraient été importants en terme de relations sociales. Cette population a pu être la population-mère de tous les humains modernes, avance Marean.