Thématiques > Revue des sciences

Nouvelles des sciences 04/08

Le 1er  avril 2008 par Jean Zin

Physique - Climat - Biologie - Santé - Technologie


 

Physique


cosmologie, astronomie, physique quantique


- Les mésons B nous apportent-ils une nouvelle physique ?

Oscillations entre quarks au sein d'un méson Bs. Les anti-particules sont signalées par une barre au-dessus de leur lettre. Par échange de bosons, les quarks s (étranges) deviennent des t (top) puis des b (beaux). Les oscillations des deux quarks étant liées, le méson Bs devient un anti-Bs.

Le mois dernier on concluait à la conformité de l'asymétrie entre matière et anti-matière avec le modèle standard à partir de calculs non-linéaires. Les dernières expériences semblent pourtant constater que l'asymétrie est plus grande que celle prévue par le modèle standard, obligeant à tenir compte de nouvelles dimensions ou de nouvelles particules à la portée du LHC : enfin une nouvelle physique, appuyée sur l'expérimentation et plus seulement spéculative !

Une asymétrie dans le comportement de certains mésons B intriguent les physiciens. Selon certains, la violation de la symétrie CP observée avec ceux-ci n'est pas compatible avec les équations du modèle standard. Une nouvelle physique devrait intervenir, comme de la supersymétrie ou des dimensions spatiales supplémentaires, et elle serait donc observée pour la première fois en accélérateur.

Ces oscillations entre matière et antimatière sont responsables d'effets violant la symétrie CP dans les produits de désintégration. En clair, un peu plus de matière que d'antimatière (ou vice versa) est produite avec des nombres égaux de méson Bs et d'anti-mésons Bs initiaux. Ce que les analyses de l'équipe montrent, c'est que l'asymétrie obtenue dépasse les bornes autorisées par la matrice CKM !

Les cas enregistrés sont encore trop peu nombreux pour conclure que l'effet observé n'est pas une simple fluctuation statistique due au hasard. Les physiciens restent donc prudents mais, selon eux, le phénomène observé avait seulement 0,3 % de chance d'être un effet du hasard.

Une équipe japonaise travaillant sur la collaboration Belle vient elle aussi de publier les résultats d'études sur les oscillations des mésons B dans Nature et elle trouve à nouveau une violation CP plus importante que ne le permet le modèle standard. Tout ceci est de bon augure car ces observations signifient que les chances d'aboutir à une nouvelle physique grâce au LHC sont en train d'augmenter !

- Un méson se désintègre en proton et anti-neutron

Ce qui est troublant dans ce qui n'est qu'une confirmation du modèle standard, c'est non seulement de voir que les particules se transforment les unes dans les autres mais qu'une particule se désintègre en éléments plus lourds, qu'un quark et un antiquark peuvent se transformer en plusieurs quarks-antiquarks !

Les mésons sont des particules composées d'un quark et d'un antiquark. Les physiciens des particules de la collaboration CLEO viennent d'observer une désintégration rare d'un d'entre eux, un méson charmé. C'est une désintégration particulièrement remarquable car elle donne un proton et un anti-neutron.

Les mésons D créés par les collisions des faisceaux, possédant des énergies moyennes de 3 à 5 GeV par particule, n'existent que de façon extraordinairement fugace car, en moins d'un millième de milliardième de seconde, ils se désintègrent selon différents modes en donnant d'autres hadrons et même des leptons.

Le physicien John Yelton est parvenu, avec l'aide de ses collègues, à observer ce que la théorie prédisait depuis plus de 30 ans mais que personne n'était arriver à faire jusque-là : la désintégration de certains mésons D en un proton et un anti-neutron (l'anti-particule du neutron, neutre comme lui mais formée de trois anti-quarks).

- Un supraconducteur à haute température critique... avec du fer !

Article intéressant sur la supraconductivité à "température ambiante" (maximum 138 K et ici 26 K au-dessus du zéro absolu, loin de notre véritable température ambiante !).

Ces matériaux prometteurs étaient jusque-là confinés à des composés du cuivre mais des chercheurs japonais viennent d'en réaliser à l'aide d'un matériau basé sur du fer.

La théorie basée sur les phonons échoue complètement. En revanche, il se pourrait bien qu'une des théories alternatives proposées pour expliquer la supraconductivité des cuprates, basée sur des fluctuations de spin et qui avait finalement échoué, soit cette fois pertinente pour expliquer le cas des composées analogues aux LaOFeAs, d'après Haule. Il semble d'ailleurs que des résultats expérimentaux préliminaires du groupe de Tokyo aillent bien dans ce sens.

- Couplage spin-orbite

La spintronique se complexifie. En effet on vient de mettre en évidence que la nouvelle nano-électronique à base de nanotubes de carbone doit tenir compte des différentes combinaisons du spin de l'électron avec son orbite, les interactions de leurs champs magnétiques produisant 4 niveaux différents d'énergie selon que ces champs se renforcent ou s'annulent.

En violet, le moment cinétique orbital d'un électron tournant dans un sens, dans la paroi du nanotube de carbone, en vert le spin de l'électron. Il apparaît donc 4 combinaisons possibles responsables de différents niveaux d'énergies en fonction des champs magnétique (B) et électrique. En ordonnée, le champ électrique se traduit en fait par une différence de potentiel V entre les deux extrémités du nanotube considéré.

Profitons en pour signaler que le graphène s'impose de plus en plus comme la base d'une nouvelle (nano)électronique en remplaçant du silicium. Les fullerènes se révèlent aussi très performants dans le stockage de l'hydrogène. Sans compter les usages dans les supercondensateurs, etc. On fait de tout avec des nanotubes de carbone, même des nano-radios, c'est vraiment la mine d'or des nanotechnologies.

- Des photons "intriqués" pour améliorer notre vision des choses ?

L'imagerie quantique est limitée par le caractère probabiliste de la physique quantique qui introduit beaucoup de bruit ou de flou dans les images. L'idée, ici, c'est d'utiliser l'intrication quantique pour éliminer les photons aléatoires en certifiant les photons reçus et en rejetant les autres. Effectivement l'intrication quantique n'étant pas de nature probabiliste mais exacte et certaine, c'est une grande idée de l'utiliser pour dépasser les fluctuations quantiques. La vérification expérimentale de l'intrication a été un véritable bouleversement éliminant de nombreux délires sur l'indétermination et la causalité quantique (même s'il en a produit d'autres sur la non-localité) car on tenait là un point fixe. Ce progrès théorique se transmet désormais au niveau technique : on intrique 2 photons, on en envoie un vers l'objet à éclairer qui le reflète et lorsque l'objectif le reçoit, on vérifie s'il correspond au photon intriqué sinon on l'ignore. Ce n'est pas encore fait et on ne sait pas si le procédé pourra être assez facile à mettre en oeuvre dans l'état actuel des techniques mais c'est une idée à creuser. A noter qu'on n'élimine pas ainsi les fluctuations quantiques de l'objet à observer mais uniquement la pollution lumineuse. C'est surtout pour l'ordinateur quantique et dans les communications que cette authentification pourrait être déterminante, renforçant "dramatiquement" la fiabilité grâce au filtrage des données et la correction d'erreur.

Dans le schéma de Lloyd, un photon intriqué (appelé le signal) est dirigé sur l'objet à observer, alors que l'autre (l'auxiliaire) est conservé par le dispositif d'imagerie pour référence future. Si un photon signal est réfléchi par l'objet et revient sur l'appareil, il peut être comparé à l'auxiliaire, qui maintient la mémoire de son associé intriqué. Si l'association est vérifiée, le photon est utilisé pour établir une image de l'objet, mais si l'auxiliaire n'a aucune mémoire du photon, il est rejeté comme étant du bruit.

- Communication par satellite photon par photon

Dans la prolongation de la brève précédente, le fait d'avoir réussi à identifier le retour de photons individuels renvoyés par un satellite ouvre à des communications sécurisés par intrication quantique.

- Simulation optique d'un trou noir ou d'un trou blanc

Au-delà de la "simulation optique" elle-même, l'intérêt ici, c'est la description d'autres équivalents aux trous noirs, par exemple l'accélération d'une cascade par rapport à la vitesse maximum d'un saumon (ce qui montre qu'à l'horizon d'un trou noir il ne se passe rien de visible), ou bien des trous noirs sonores ("trous sourds"), ou bien encore un trou blanc dans un évier : au voisinage du jet d'eau, tout est calme mais passé une zone circulaire, l'horizon du "trou blanc", tout change. Les trous noirs seraient donc modélisables par des fluides.

Les caractéristiques liées aux trous noirs sont modélisables par des fluides, comme John Wheeler l'avait fort bien compris. En effet, les équations non-linéaires de la mécanique des fluides donnent lieu à des phénomènes analogues à ceux de la géométrie de l'espace-temps gouvernés eux aussi par des équations non linéaires, celles d'Einstein.

En considérant la vitesse du son comme une analogue de la vitesse de la lumière, on obtient des conditions qui ressemblent à celles d'un trou noir. On peut appliquer à l'équation du son les règles de la mécanique quantique, tout comme à l'équation de la lumière qui lui ressemble beaucoup. Il apparaît alors des quanta d'énergie sonique analogues aux quanta de lumière que sont les photons. Comme il s'agit ici de son, on parlera tout naturellement de phonons et, au lieu d'avoir un trou noir, on aura un trou sourd (on parle aussi de trou noir acoustique), susceptible d'émettre un rayonnement sonique de corps noir.

- Bilan du rayonnement fossile

Les analyses des cinq premières années d'observations cumulées du rayonnement de fond diffus (d'où le 5 de WMap 5) sont désormais à la disposition de toute la communauté des cosmologistes et des physiciens des hautes énergies. Pas de révolution en vue mais de quoi préciser de nombreux paramètres.

Les principaux résultats de WMap 5 peuvent être résumés de la façon suivante :


- La Terre et la Lune observées depuis Mars !


- Un Terre de rechange ?

Une série de plusieurs simulations informatiques réalisées par une équipe d'astronomes de l'Université de Californie de Santa Cruz montre qu'il pourrait exister une exoTerre évoluant autour d'Alpha Centauri B, une des trois étoiles qui forment le système Alpha Centauri. A 4,36 années-lumière, c'est une des étoiles les plus proches de la Terre.

Les simulations ont montré que théoriquement tout est en place autour d'Alpha Centauri B pour donner naissance à une petite planète tellurique évoluant dans la zone d'habitabilité de l'étoile. Ce qui signifie que l'eau à l'état liquide peut exister sur cette planète potentiellement habitable.



Climat



- Les stalactites racontent l'histoire des moussons et des civilisations

Les stalactites permettent de retracer l'évolution climatique d'une région, de la même façon que le prélèvement de carottes de glace.

En Chine centrale, une équipe de scientifiques chinois ont analysé la concentration d'un isotope d'oxygène dans les stalactites de la grotte de Sanbao et en ont déduit... les variations annuelles de la température et des précipitations depuis 224.000 ans. Ils ont pu ainsi estimer l'évolution des moussons sur une bonne partie du continent asiatique.

Le chercheur insiste sur le caractère exceptionnel de ces observations, qui démontrent que l'étude des stalactites et stalagmites permet de remonter beaucoup plus loin que la datation au radiocarbone, limitée à 50.000 ans. Il estime en outre que cette méthode remplacera sans doute l'analyse des carottes de glace du Groenland pour quantifier les variations climatiques.

Les résultats des recherches démontrent que la Terre a connu trois périodes où les moussons d'hiver se sont montrées particulièrement violentes, la plus marquée d'entre elles se situant entre l'an 700 et l'an 900 de notre ère. Or, cette époque correspond au déclin de la dynastie Tang en Chine et de la période Maya classique en Amérique centrale.

- Quand les bactéries font pleuvoir

Emportés par le vent, des micro-organismes peuplent l'atmosphère. A l'intérieur des nuages, ils se comportent comme des noyaux de nucléation, qui facilitent la formation de gouttes d'eau ou de cristaux de glace.

Parmi les particules trouvées dans la neige et jouant le rôle de noyau de nucléation, la quantité d'organismes vivants varie selon les endroits entre 69 et 100 % !

La première conclusion de l'article, paru dans Science, est que les bactéries jouent un rôle important dans l'intensité ou la répartition des précipitations. Leur effet, semble-t-il, est de les augmenter surtout quand la température n'est pas trop basse.

- Le Bureau de Modification du Temps des J.O. de Pékin!

Pour les Jeux Olympiques, le "Weather Modification Office" de Pékin sort la grosse artillerie (en plus des avions et des superordinateurs) pour s'assurer le contrôle de la météo !


- Un site de climatologues

Nous avons tenu à mentionner ces anomalies de janvier 2008 parce qu'il est important de comprendre que ce qui fait dire aux physiciens du climat qu'il y a réchauffement climatique, ce n'est jamais un mois ou une année particulière : il s'agit toujours de tendances observées sur une ou plusieurs décennies. Lorsque l'on considère de brèves périodes de temps, voire même des régions particulières, on observe des fluctuations considérables.

- La tendance à la fonte des glaciers s'accélère dans le monde entier

"Le taux moyen de fonte a fait plus que doubler entre les années 2004-2005 et 2005-2006", selon des données recueillies sur 30 glaciers de référence dans neuf chaînes de montagnes.

"Le taux moyen de fonte a fait plus que doubler entre les années 2004-2005 et 2005-2006", selon des données recueillies sur 30 glaciers de référence dans neuf chaînes de montagnes.

"Il semble qu'il y a une tendance à l'accélération (de la fonte des glaciers) sans qu'on puisse en voir la fin".

Les glaciers de montagne ne représentent que 0,24% de la cryosphère. Leur fonte totale ne ferait remonter le niveau marin que de 24 cm. Mais, situés sur l'ensemble de la planète, ils constituent des indicateurs précieux pour l'étude des changements climatiques.

- En Antarctique, le réchauffement disloque un vaste pan de banquise

Une large étendue de glace de mer, de près de 13.000 kilomètres carrés, le plateau Wilkins, vieux de plusieurs siècles, a commencé à se désagréger. Cette fonte proviendrait du réchauffement de l'atmosphère, particulièrement important dans cette région.

Pour les scientifiques de l'équipe, il ne fait aucun doute que le réchauffement global soit la cause première de cette fonte inhabituelle. En cinquante ans, soulignent-ils, l'Antarctique s'est réchauffée de 0,5 °C par décennie, le record mondial.

- Sauver la planète ne coûterait pas cher

Dans son dernier rapport, l'Organisation des pays développés (OCDE) détaille les évolutions prévisibles pour 2030. Au menu : réchauffement, biodiversité en baisse, ressources en eau raréfiées et dégâts sur la santé causés par la pollution. Egratigner le PIB de 1 % pourrait résoudre nos problèmes, affirment ces experts.

Il suffirait d'une réduction très faible du PIB (produit intérieur brut) pour obtenir un effet suffisant. D'après les experts de l'OCDE, les mesures à prendre coûteraient 1 % du PIB mondial en 2030, ce qui correspond à une baisse annuelle de 0,03 % à partir de 2008. Au lieu de gonfler de 99 %, l'économie mondiale n'augmenterait alors que de... 97 %.

Si aucune action n'est entreprise, le rapport table, pour l'horizon 2050 (et non 2030) sur une augmentation de 37 à 52 % des gaz à effet de serre, aboutissant à un réchauffement de 1,7 à 2,4 °C.

Concernant les ressources en eau, le rapport estime la situation vraiment alarmante. Sans mesure importante à prendre dans les prochaines années, plus d'un milliard de personnes de plus souffriront du manque d'eau en 2030, soit 3,9 milliards de Terriens, c'est-à-dire presque la moitié de l'Humanité.

Plus concrètement, l'OCDE milite pour une suppression de toute subvention à l'utilisation de produits d'origine pétrolière (y compris les plastiques, donc), pour une grande prudence vis-à-vis des agrocarburants et, surtout, pour une taxe carbone élevée, incitant au développement de technologies et de comportements alternatifs.

Nombre de personnes vivant dans des zones en situation de stress hydrique en 2005 (barre supérieure) et en 2030 (barre inférieure) pour les pays de l'OCDE, pour ceux du groupe BRIC (voir le texte) et pour le reste du monde (RdM). La couleur indique l'intensité du manque d'eau, de fort (vert) à aucun (jaune).

- La décennie à venir sera cruciale pour stabiliser le climat
'Le Monde'', 21.03

Stabiliser le climat sera beaucoup plus ardu que prévu, et les initiatives de réduction des émissions de gaz à effet de serre prises dans la décennie à venir seront cruciales. Elles détermineront s'il est possible ou non d'éviter une "interférence humaine dangereuse" avec la machine climatique, c'est-à-dire s'il est possible de maintenir une teneur atmosphérique en dioxyde de carbone (CO2) inférieure à 550 parties par million (ppm) - contre 280 ppm avant l'ère industrielle et 380 ppm aujourd'hui. Tels sont les principaux constats que dressent des chercheurs américains et canadiens dans plusieurs études récentes.

Or le temps est un paramètre cardinal. Dans la dernière édition de la revue Climatic Change, Bryan Mignone (Brookings Institution) et plusieurs chercheurs de l'université de Princeton évaluent les conséquences d'un report - de quelques années à plusieurs décennies - de la mise en oeuvre des mesures de réduction des émissions mondiales de gaz carbonique. Plusieurs cas de figure ont été examinés. Si l'on voulait par exemple atteindre l'objectif ambitieux de stabiliser la teneur atmosphérique en CO2 à 450 ppm (soit une hausse moyenne des températures comprise entre 1,5 0C et 3,9 0C), il faudrait commencer immédiatement à réduire les émissions mondiales à un rythme de 1,5 % par an.

Si l'on différait l'effort de sept ans, il faudrait, pour atteindre le même objectif, faire décroître les émissions au rythme irréaliste de 3 % l'an. "Il s'agit d'un indicateur du coût des mesures de réduction des émissions, explique Stéphane Hallegatte, chercheur au Centre international de recherche sur l'environnement et le développement. On voit ici qu'un délai, même inférieur à une décennie, peut doubler l'effort économique à accomplir, à objectif égal."

Pour se maintenir en deçà du seuil considéré comme "dangereux" par la majorité des spécialistes, c'est-à-dire 550 ppm (entre 2 °C et 5,2 °C d'augmentation moyenne de température), il faudrait commencer à réduire dès à présent les émissions d'environ 0,5 % par an. Attendre dix ans implique de réduire les émissions d'environ 1 % par an. Or les auteurs postulent qu'un taux de réduction annuel réaliste se situe autour de cette valeur. La conséquence est donc simple : si les émissions continuent d'augmenter comme elles le font pendant plus de dix ans encore, il pourrait devenir impossible de maintenir la machine climatique hors de la zone "dangereuse".

Pour parvenir à ces estimations, les auteurs ont tenu compte des effets de saturation des "puits" de carbone, en particulier de l'océan. A mesure que la température augmente, l'océan absorbe de moins en moins de carbone. Plus le temps passe, plus la température moyenne augmente et moins les émissions sont absorbées par l'océan. Aujourd'hui, 46 % des émissions de CO2 anthropiques demeurent dans l'atmosphère, le reste est absorbé. Dans dix ans, ce seront 48 % de ces mêmes émissions qui persisteront dans l'air et près de 50 % dans vingt ans...

A plus long terme, lorsque les chercheurs tentent de projeter leurs prévisions bien au-delà de 2100 - jusqu'en 2200 ou 2300 -, le constat est parfois plus radical encore. Une étude publiée dans la dernière livraison de Geophysical Research Letters conclut même qu'à terme, pour que le climat se stabilise durablement, il est nécessaire que l'économie mondiale ne rejette quasiment plus de carbone.

- Manger ou conduire, il faut choisir !

L'Agence de l'ONU chargée de la lutte contre la faim dans le monde a mis en garde l'UE jeudi contre le danger des bio-carburants ou plutôt des agri-carburants.

L'Agence estime en effet que de telles pratiques ne font que nourrir la hausse des prix alimentaires. Cette réaction est-elle quelque peu tardive alors que les 27 en ont fait un axe important de leur politique énergétique ?

- Avec les biocarburants, "il n'y aura plus rien à manger", avertit Nestlé

"Si l'on veut couvrir 20% du besoin croissant en produits pétroliers avec des biocarburants, comme cela est prévu, il n'y aura plus rien à manger", a déclaré le PDG du premier groupe alimentaire mondial.

- Après Bali, Bangkok

Au dessert, l'Union européenne annoncera son idée de limiter le réchauffement à 2 °C par rapport à l'ère préindustrielle. Un autre chiffre sera évoqué, celui de la réduction des émissions de gaz à effet de serre : 10, 20, 30 ou 40 % ?

Le plat de résistance sera probablement le point de désaccord sur la manière de réduire ces émissions. Les uns veulent des actions pays par pays, voire une réflexion planétaire, d'autres préfèrent des mesures dans chaque branche industrielle.

Bonne idée les branches industrielles, cela n'empêche pas d'agir aussi au niveau des pays.


Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie


- La vie semble possible sur Encelade !

C'est plutôt qu'elle n'y serait pas complètement impossible sous la croûte de cette lune de Saturne !

L'analyse des données acquises par Cassini lors du survol d'Encelade montre un monde où la vie est possible. La sonde a révélé la présence d'eau, de gaz carbonique et de molécules organiques dans les éjections des geysers et détecté des températures de -93 degrés Celsius, suffisamment élevées pour laisser penser que les températures sous la surface d'Encelade seraient compatibles avec la présence d'eau à l'état liquide, un des critères pour que la vie telle que nous la connaissons soit possible.

Nombreux sont les scientifiques à penser que tant qu'il y a de l'eau sous forme liquide, la vie trouvera une voie pour apparaître. Ce qui est vrai pour la planète Terre peut très bien l'être également sur d'autres régions du Système Solaire.

- Des acides aminés venus de l'espace

Ce n'est qu'une confirmation de plus de la probable origine cosmique des briques de la vie (et donc que la vie devrait être à peu près la même partout dans l'univers).

Dans ces deux météorites, les teneurs atteignent 249 ppm (parties par million), contre une moyenne de 15 ppm dans les autres météorites carbonées.

On a par ailleurs découvert un précurseur de la glycine dans l'espace (l'aminoacétonitrile).

- Découverte des structures de base de l'ARN

Découverte fondamentale ! Au lieu de s'en tenir aux interactions entre deux nucléobases voisins (Adénine-Uracile et Guanine-Cytosine étant les plus stables) ce nouveau modèle montre que tout ARN est composé d'une combinaison de 19 ensembles de 8 nucléobases stables. Les nucléotides (AGCU) peuvent être considérés comme les lettres ou phonèmes de 19 mots de 8 lettres maxi avec lesquelles sont écrits toutes les séquences de l'ARN (en fait, ce sont plutôt les briques d'un jeu de construction dans l'espace).

Contrairement à son célèbre cousin, l'acide désoxyribonucléique (ADN), formé sur toute sa longueur de deux brins complémentaires qui s'enroulent en une double hélice monotone, l'ARN n'est constitué que d'un seul brin capable de se replier en une multitude de structures complexes. Cette diversité structurale explique la multiplicité de rôles que joue l'ARN à l'intérieur de la cellule, notamment dans la régulation de l'activité des gènes.

Cette approche consiste à assembler la structure in silico à partir de motifs qui tiennent compte de l'ensemble des interactions entre un nucléotide et ses voisins, indépendamment de la séquence de l'ARN. Les bio-informaticiens de l'Université de Montréal ont ainsi pu faire une découverte primordiale: un nombre très restreint de petits motifs de huit nucléotides ou moins suffit pour reconstituer les structures des ARN répertoriées dans les banques de données expérimentales.

"Nous avons pensé que construire un langage structural à partir de mots déjà formés plutôt qu'à partir de lettres prises isolément permettrait de faire de meilleures prédictions quant à la structure qu'adopte une molécule d'ARN dans l'espace", explique François Major. "Notre hypothèse s'est avérée pleinement fondée; nous avons seulement été surpris par le peu de mots que comporte ce langage, dix-neuf pour être plus précis. Ce qui n'empêche pas que leurs différentes combinaisons dans l'espace génèrent un très grand nombre de structures tridimensionnelles.

- L'encyclopédie de la vie en libre accès

Le projet EOL, Encyclopedia of Life, est lancé. Préparé depuis plusieurs années, présenté en version de démonstration en mai 2007, il consiste à rassembler derrière un même site web (www.eol.org) toutes les informations connues sur les espèces connues, vivantes et disparues, soit 1,8 million de fiches.

- Un reptile marin de 15 mètres

Le pliosaure géant découvert il y a deux ans au Spitzberg est encore plus grand que ne le pensaient les paléontologues. Ce reptile marin qui vivait à l'époque des dinosaures, mais qui n'en était pas un, devait mesurer au moins 15 mètres de long d'après les os retrouvés lors de la campagne de fouille de l'année dernière.

- Un calmar géant plus vrai que nature au Muséum à Paris

Le premier calmar géant naturalisé au monde vient d'enrichir la collection de la Grande galerie de l'évolution du Muséum national d'histoire naturelle à Paris, grâce au recours à une technique de conservation inédite.


- Glutamate et sexualité de la mouche

Un insecte hétérosexuel peut devenir temporairement bisexuel si l'on modifie la concentration d'une substance cérébrale appelée glutamate. Et ce, même s'il est adulte ! C'est ce que viennent de démontrer des chercheurs CNRS du laboratoire "Développement et communication chimique chez les insectes" à Dijon, chez l'animal star des laboratoires de génétique: la mouche du vinaigre, baptisée savamment Drosophila melanogaster, ou drosophile.

- Le papillon se souvient de sa vie de chenille

Très étonnant, quand on voit toutes les transformations de la métamorphose !

Des chercheurs de l'université de Georgetown, Washington, ont découvert que les chenilles du Sphynx du tabac, un parasite de la plante éponyme, pouvaient être « dressées » pour éviter certaines odeurs en associant ces fragrances à des petits chocs électriques. Soumises à ce traitement, les larves mettent rapidement en place des conduites d'évitement. Comportement qui persiste après la métamorphose, lorsque les chenilles se sont transformées en papillon.


- Pourquoi le langage penche-t-il à gauche ?

"Nous avons observé que le cortex gauche présente globalement une activité électrique plus rapide (autour de la fréquence 40 Hz) que le cortex auditif droit ; lequel présente, lui, davantage d'activités d'environ 4 Hz".

Ils ont noté des oscillations rapides (40 Hz) au niveau des régions initiant les mouvements de la langue, nécessaires à la production des phonèmes ; et des oscillations lentes (4 Hz) dans les aires impliquées dans les mouvements de la mâchoire, déterminant le rythme de la parole.

- Des restes humains datant de 1,2 million d'années découverts en Espagne
Le Monde 27.03

Un fragment de mandibule et une prémolaire inférieure découverts sur le site préhistorique d'Atapuerca, dans la région de Burgos, au nord de l'Espagne, font reculer dans le temps l'arrivée des premiers humains en Europe de l'Ouest. Vieux d'environ 1,2 million d'années, ces restes sont attribués à Homo antecessor, un ancêtre possible des Néandertaliens et d'homo sapiens, par l'équipe hispano-américaine qui les a mis au jour. Les hominidés précédemment trouvés près d'Atapuerca dataient de 800 000 ans.


Santé


génétique, traitements, nutrition, hygiène


- Des souris atteintes de Parkinson traitées par des cellules souches issues de leurs clones
Le Monde 25.03

Lorenz Studler (Sloan-Kettering Institute, New York) et ses collègues rapportent, sur le site de la revue Nature Medicine, avoir greffé à des souris avec succès des neurones à dopamine dérivés de cellules souches embryonnaires provenant de leurs propres clones.

Seuls les animaux ayant reçu des cellules provenant de leur propre clone ont présenté les signes d'une efficacité du traitement, sans réaction immunologique. (...) Le procédé a échoué lorsque les neurones étaient issus d'un individu génétiquement différent.

Paul Benkimoun retient que « le recours aux cellules souches apparaît comme une perspective prometteuse pour le traitement de la maladie de Parkinson ».

- Des bactéries contre le cancer

On pourrait utiliser des Samonelles (responsables de la tiphoïde) génétiquement modifiés pour pénétrer les cellules cancéreuses et les détruire !

- Des virus contre les tumeurs cérébrales

Un virus génétiquement modifié permettrait de détruire les tumeurs cérébrales, y compris leurs métastases, sans nuire aux tissus sains !


- Test d'un vaccin contre l'hypertension

Une entreprise suisse, Cytos Biotechnology, expérimente un vaccin, prenant la forme d'un faux virus, capable de provoquer une baisse de tension en stimulant une réaction immunitaire du patient. Les premiers essais sur l'homme sont encourageants.

Le vaccin est constitué d'une construction moléculaire ressemblant à un virus (en bleu) portant des récepteurs spécifiques de l'angiotensine II, un puissant vasoconstricteur

Pour l'instant, le vaccin doit encore faire les preuves de son efficacité, de son innocuité et de son intérêt. La phase 3, portant sur un nombre de patients beaucoup plus grand, devra répondre au premier point. Quant à l'innocuité, on peut remarquer que la méthode est assez violente, consistant ni plus ni moins à provoquer une réaction auto-immune. La méthode de la vaccination devra aussi démontrer qu'elle fait mieux que les hypotenseurs habituels. Le produit actuel, par exemple, exige plusieurs injections par an. En 2005, Cytos Biotechnology avait déjà étudié jusqu'en phase 2 un vaccin contre l'obésité (voir le document PDF) mais ce projet n'avait pas abouti.

- La salive pour remplacer les prises de sang

Les tests salivaires pourraient un jour remplacer la traditionnelle prise de sang. C'est en tout cas le but des trois équipes de chercheurs qui ont identifié l'ensemble des protéines contenues dans la salive.

Les protéines salivaires peuvent représenter de nouveaux outils pour le suivi des maladies puisque nombre d'entre elles sont similaires à celles se trouvant dans le sang et dont le rôle a déjà été établi notamment dans les maladies d'Alzheimer, d'Huntington, de Parkinson, les cancers du sein, colorectal et du pancréas ainsi que dans les deux types de diabète.

Des études précédentes ont déjà prouvé qu'elles constituaient un bon indicateur pour diagnostiquer les cancers buccaux ainsi que l'infection par le virus du SIDA. Dans un article, publié dans le Journal of Proteome Research, les auteurs estiment que cette liste sera bientôt élargie pour inclure des principales causes de décès comme le cancer et les maladies du cœur.

- Un collier qui surveille les médicaments ingérés

Cet appareil enregistre l'heure de la prise des pillules et rappelle les traitements à prendre.

- Une nutrition correcte dans la petite enfance pour une meilleure "productivité économique à l'âge adulte" ?
La Tribune 17.03

La Tribune observe qu'« une nutrition correcte dans la petite enfance a des conséquences directes en termes de productivité économique à l'âge adulte ».

Le journal explique que « c'est le constat fait au Guatemala sur près de 3 000 enfants qui ont reçu un supplément nutritionnel entre 0 et 7 ans, soit une boisson fabriquée à partir d'incaparina, une protéine d'origine végétale. Devenus adultes, (ces sujets) travaillaient un nombre d'heures plus important et recevaient un salaire moyen augmenté de 46 % ».


- Les nanotubes contre les fractures osseuses...

Des chercheurs japonais de l'Université de Shinshu ont étudié l'influence de l'injection de nanotubes de carbone sur la régénération des tissus osseux. Selon eux, le temps de réparation des fractures pourrait être réduit grâce à la présence de ces nanotubes... au moins chez la souris.

- Comparer son génome avec ses proches...

Le site 23andMe analyse votre génome et peut le comparer à celui de vos proches...

- Un psychologue virtuel !

http://mindmentor.com/, c'est 5€ de l'heure...

- Pulsion de mort et jeux vidéo

Il semblerait bien que le joueur éprouve une joie secrète à voir son personnage abattu lors d'une mission. En revanche, de nombreux sujets auraient montré des signes d'émotion négative lorsqu'ils tuaient ou abattaient un ennemi, malgré, bien sûr, des signes extérieurs de satisfaction.


- Lignes à haute tension - Attention danger
Le Parisien 21.03

Lignes à haute tension, attention danger ! Le panneau posé sur les pylônes n'a jamais paru aussi juste. Des risques pour la santé sont maintenant avérés.

Un rapport sur l'impact des rayonnements électromagnétiques affirme que l'on trouve davantage de maladies graves chez les personnes vivant près des lignes à haute tension. La secrétaire d'Etat à l'Ecologie reconnaît l'existence de risques.

L'enquête menée en janvier et février par les chercheurs du Centre de recherche et d'information indépendantes sur les rayonnements électromagnétiques (Criirem), dont nous avons obtenu les conclusions partielles, affirme que l'on trouve davantage de maladies graves (dont des cancers) et des gênes dans la vie courante (irritabilité, maux de tête, insomnie) chez les personnes habitant tout près de ces lignes.

En 2001, d'autres études avaient déjà classé « potentiellement cancérigènes » les rayonnements électromagnétiques émis par les lignes à haute tension, lorsque l'on est à moins de 300 m de distance. Mais, par la suite, d'autres travaux, souvent financés par EDF, étaient arrivés à des conclusions plus rassurantes.


Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique, économie


- Une imprimante à tissus humains !

Etonnant et destiné uniquement pour l'instant au test de produits pharmaceutiques :

Les chercheurs ont créé des vaisseaux sanguins et des tissus cardiaques fonctionnels, en utilisant une imprimante "qui dispense des cellules au lieu de l'encre". C'est peut-être une brillante et prometteuse étape vers l'impression d'organes à la demande !

- Un plastique qui change de dureté à volonté

Dur au sec, mou dans l'eau : ce nouveau polymère aux propriétés changeantes pourrait inaugurer une nouvelle famille de matériaux dont les caractéristiques mécaniques seraient modifiables à volonté à l'aide d'un stimulus chimique. A l'origine de cette invention : le concombre de mer. A l'horizon : de nombreuses applications, par exemple dans la lutte contre la maladie de Parkinson !

Dans Science, ils décrivent un polymère dont l'élasticité longitudinale varie de 4.200 à 1,6 MPa, soit un facteur 2.625. «Du CD au caoutchouc mou » résume Christoph Weder. Le facteur déclenchant est l'eau et le changement ne dure que quelques secondes. Il est également réversible. Séché, le caoutchouc redevient CD. « Nous sommes maintenant capables de réaliser un matériau dont la rigidité et la résistance peuvent être contrôlées par un stimulus chimique » s'enthousiasme ce biologiste.

L'équipe envisage déjà une application dans le domaine biomédical : la réalisation d'électrodes souples pour stimuler le système nerveux. On soigne désormais certaines affections neurologiques, comme la maladie de Parkinson, à l'aide de fines aiguilles reliées à un stimulateur et envoyant un petit courant électrique dans des zones lésées. Au laboratoire, expliquent les chercheurs, il a été observé que des microélectrodes ainsi implantées fournissent un signal dégradé au bout de quelques mois. La cause pourrait être leur rigidité trop grande, qui s'accommode mal des petits mouvements parcourant nos tissus mous. Mais au moment de l'implantation, une telle électrode doit impérativement être très rigide pour permettre un positionnement précis, à bien moins d'un millimètre près. Une électrode dure au moment de l'implantation mais qui se ramollirait ensuite pourrait constituer une solution élégante à ce problème. « C'est pour cela que nous avons d'abord mis au point un polymère qui répond à l'eau » confie Christoph Weder.


- Un Japonais tente la traversée du Pacifique avec un bateau à vagues

Un marin japonais écologiste va tenter de traverser l'Océan Pacifique avec un bateau construit en partie de matériau recyclé et dont la propulsion reposera sur la force motrice des vagues.

Son bateau à deux coques, la Suntory Mermaid II, est équipé de deux espèces de nageoires à l'avant qui lui permettent d'avancer, en s'appuyant sur la force motrice des vagues.

Selon M. Horie, le mouvement ascendant et descendant de la houle permettra à son embarcation de voguer à la vitesse de trois noeuds marins (5,5 km/h).

Voir aussi Futura-Sciences.

- Rinspeed sQuba: la voiture submersible de James Bond enfin réalité

C'est un peu n'importe quoi, le pire c'est que ça existe vraiment, les enfants s'amusent...

N'ayant pas peur de surprendre, le constructeur automobile Rinspeed prépare une voiture sous-marine pour le Salon de Genève, baptisée sQuba.

Terrestre ou marine, pour arriver à un double mode de propulsion, il faut partir d'une classique Lotus Elise et en extraire le moteur thermique. On le remplace ensuite par trois moteurs électriques, un qui sera utilisé pour la propulsion terrestre et les deux autres entraîneront les hélices.

La réalisation peut paraître étonnante, mais la voiture est un cabriolet. Le choix s'explique pour plusieurs raisons. La première est la sécurité, les passagers pouvant s'extraire facilement en cas d'urgence, alors qu'avec la pression il est quasi-impossible d'ouvrir des portières sous l'eau.

Il est vrai qu'une fois en plongée, les occupants doivent utiliser des bouteilles d'oxygène avec un masque.

Il y a une vidéo et ce ne sont pas des images virtuelles !

- le Lynx Mark I, un avion spatial miniature en 2010

Sous son allure de jet privé miniature, cet appareil biplace muni d'une fusée sera capable de décoller par ses propres moyens sur une piste puis d'atteindre 60 kilomètres d'altitude pour quelques minutes d'apesanteur.

De la taille d'un avion de tourisme, cet appareil biplace est propulsé par une fusée, alimentée en kérosène (le carburant classique des avions à réaction) et en oxygène liquide. L'engin pourrait décoller par ses propres moyens depuis une piste d'un aérodrome.

Après son décollage, le Lynx Mark I grimpera quasiment à la verticale durant trois minutes, avant l'extinction du moteur, à 42 kilomètres au-dessus du sol, pour poursuivre son vol en trajectoire balistique. Les passagers, ou plus exactement le pilote et son passager, vivront alors quatre minutes d'apesanteur pendant cette trajectoire parabolique au cours de laquelle le Lynx Mark I atteindra 60 kilomètres d'altitude. Il ne s'agit donc pas d'un vol spatial puisque la limite officielle de l'espace a été fixée à cent kilomètres. Mais on n'en est pas loin.

- Un taxi automatique

Plutôt des navettes car uniquement sur des trajets programmés.



- L'énergie intelligente

A Minneapolis, 50 000 compteurs intelligents devraient permettre des économies d'énergie importantes pour les utilisateurs et permettre de privilégier les énergies renouvelables.


- Grow, le lierre solaire à l'assaut des façades

L'éolien et le solaire représentent deux formes d'énergie renouvelable parmi les plus prometteuses. Alors pourquoi ne pas les combiner ? C'est ce que vient de réaliser une entreprise new-yorkaise avec Grow, le lierre solaire.

En s'agitant, ces minuscules capteurs solaires actionnent un dispositif piézo-électrique dissimulé dans leur tige produisant de l'énergie sous la contrainte mécanique. La société Smit (Sustainably minded interactive technology), conceptrice du projet, souligne l'importance de combiner les deux sources d'énergie dans une solution qui en garantit un fonctionnement plus continu en cas de carence de l'une ou de l'autre.

- Des cellules photovoltaïques "Arc en Ciel"

Des cellules plus efficaces (30%) car sensibles à tout le spectre lumineux mais à base de quantum dots en Cadmium Selenide et de nanotubes de dioxyde de Titane.

- Thermoélectricité : comment produire du courant avec de la chaleur

Cela fait quelques mois que la piste thermoélectrique est de nouveau explorée avec des progrès significatifs mais la nouveauté ici, c'est de pouvoir passer à la production de masse car on n'est plus du tout dans le fantasme des nanotechnologies d'une construction par le bas, atome par atome, processus qui exige une maîtrise absolue et qui prend un temps infini, mais dans un processus de production classique puis de réduction en poudre nanométrique, ce qui est bien plus efficace (mais comporte sans doute les risques de l'amiante).

L'espoir grandit de pouvoir fabriquer de l'électricité à partir de n'importe quelle source de chaleur, récupérée autour d'un moteur, dans une habitation ou à l'intérieur d'une usine.

Le matériau doit très bien conduire le courant mais doit faire obstacle au flux de chaleur. Dans le cas contraire, la chaleur dégagée par le passage du courant électrique se répand dans tout le volume et vient réduire l'effet recherché. Les scientifiques veulent aussi abaisser la température minimale de fonctionnement, qui reste élevée.

Une équipe américaine du MIT (Massachusetts Institute of Technology) et du Boston College viennent d'annoncer un progrès significatif. Gang Chen, Mildred Dresselhaus (MIT) et Zhifeng Ren (Boston College) ont utilisé un matériau thermoélectrique déjà connu, du tellurure d'antimoine-bismuth, mais l'ont préparé de manière différente. Ils l'ont d'abord réduit en une poudre extrêmement fine, dont les grains ont un diamètre d'environ 20 nanomètres, qu'ils ont ensuite compressée à haute température pour former des disques et des barres.

L'intérêt du procédé est aussi sa simplicité, puisqu'il part d'un matériau macroscopique pour fabriquer une structure nanométrique. Cette approche descendante (contrairement à l'approche bottom-up, qui consiste à assembler des nano-objets) permet d'envisager une production plus facile. « Nous ne parlons plus en grammes mais en kilogrammes, s'enthousiasme Zhifeng Ren. Nous pouvons en faire des tonnes ! ».


- Des circuits imprimés souples

- Photonique : IBM fait entrer la lumière dans les processeurs

Pour faire dialoguer à haut débit les cœurs des futurs processeurs, l'une des voies explorées consiste à installer dans le processeur un minuscule réseau optique. IBM vient de présenter une première réalisation, un commutateur photonique miniature capable de gérer un flux de 1 térabit par seconde.

Ce minuscule composant, d'une surface de 5 dix millièmes de millimètre carré, peut recevoir un signal optique à l'une de ses portes et l'aiguiller vers l'une de ses trois autres portes avec un temps de commutation très faible.

D'après IBM, chaque commutateur peut atteindre un débit de 40 Gb (gigabits) par seconde, pour chaque longueur d'onde. Ce circuit, en effet, peut aiguiller simultanément plusieurs signaux lumineux à des longueurs d'onde (donc des couleurs) différentes. L'équipe affirme pouvoir atteindre ainsi un débit de 1 Tb (térabit) par seconde. L'espoir, dixit IBM, est de parvenir à transmettre cent fois plus d'informations pour une consommation dix fois moindre.

- Un prototype de nano-ordinateur pour nano-robots

Une équipe de chercheurs de l'Institut National des sciences des matériaux à l'université de Tsukuba, au Japon, a réussi à créer le plus petit ordinateur du monde composé de seulement 17 molécules.

Ce système fonctionne en parallèle, exécutant plusieurs instructions en même temps. Les composants utilisés sont des molécules de duroquinone, qui peuvent prendre quatre positions différentes. L'ordinateur lui-même est une espèce d'anneau, composé d'une molécule centrale et de 16 molécules à la périphérie. Pour envoyer une instruction, on “titille” électriquement la molécule centrale via un microscope à effet tunnel.

Une fois activée, la molécule centrale envoie son instruction simultanément aux 16 molécules périphériques (voir la vidéo de Msnbc qui explique le fonctionnement: lien). Selon l'un des chercheurs, Anirban Bandyopadhyay, cette architecture particulière, dans laquelle un élément communique simultanément avec de nombreux autres, se retrouve dans le cerveau et dans le mode de fonctionnement des neurones.

Les chercheurs ne se sont pas arrêtés là. Ils ont essayé de connecter leur petit ordinateur avec huit nanomachines, comme le plus petit ascenseur du monde, capable de s'élever ou de descendre d'un nanomètre. Ils ont ainsi pu vérifier qu'ils étaient capables de piloter des systèmes externes avec leur appareil.


- La nouvelle vie des robots

Un petit panorama des tendances actuelles (rien de nouveau).

- Vers des robots “multicellulaires”

Aujourd'hui, ces “intelligences collectives” s'apparentent avant tout à des sociétés : bien que des comportements nouveaux, émergents, apparaissent au sein du collectif, chaque robot reste une entité unique à part entière.

Le nouveau projet Symbrion, lancé par l'Union Européenne, envisage d'aller bien plus loin dans l'intégration des différents agents. La métaphore n'est plus ici la société, ou la ruche, mais bel et bien l'être pluricellulaire, constitué d'une multitude d'éléments si intimement connectés entre eux qu'on ne peut plus parler que d'une seule et unique créature.

Dans un essaim, l'intelligence collective est statistique. Les constituants ont tendance à adopter un comportement spécifique en rapport avec la collectivité, mais il y a toujours des exceptions, des cavaliers seuls. Au contraire, dans un système Symbrion, tous les éléments doivent fonctionner en parfaite collaboration.

Chacune des machines est identique aux autres au départ, mais lorsqu'elle s'intègre au collectif, elle se spécialise. Par exemple, celles qui restent au contact avec l'extérieur pourront utiliser leurs capteurs pour créer une “peau”, tandis que celles à l'intérieur du “corps” cesseront d'utiliser cette fonctionnalité pour elles inutile.

- El-E, le robot qui apporte les objets

Destiné à aider les personnes handicapées ou immobilisées, ce robot va chercher un objet qu'on lui désigne à l'aide d'un pointeur laser. Ses caméras lui permettent d'opérer dans un environnement domestique, de repérer des personnes et de saisir un objet par terre, sur une table ou sur une étagère.

- BigDog, la perfection à quatre pattes !

La vidéo est impressionante, de quoi faire un peu peur devant cet extraterrestre !

- Apprendre à parler aux robots

Il s'appelle iCub, c'est un petit robot d'un mètre de haut et il sera, peut-être un jour, célébré pour être le premier androïde à avoir appris à parler grâce à des méthodes similaires à celles qu'emploient les humains.

- Des intelligences artificielles dans le monde virtuel

Quoi de mieux pour tester les capacités d'un robot d'interaction avec les autres que de tester ces capacités dans le monde virtuel.

Il ressemble à un robot mal construit et vient de faire son entrée sur Second Life. Ce n'est qu'une démonstration mais ses concepteurs, des scientifiques travaillant sur l'intelligence artificielle, veulent ainsi démontrer que leur créature virtuelle raisonne - un peu - par elle-même, réussissant un test devant lequel échoue un enfant de moins de quatre ans.

Eddie est surtout un logiciel capable, selon ses auteurs, de se mettre un peu à la place des autres. "Notre but est de construire des agents artificiels rendus plus intéressants et plus utiles grâce à la capacité d'imputer des états mentaux à d'autres agents, de raisonner en prenant en compte ces états mentaux et d'avoir - comme les avatars - des états corrélés à ceux que connaissent les humains" explique Selmer Bringsjord, à l'Institut polytechnique Rensselaer (Etats-Unis).


- Des lunettes pour enregistrer le film de sa vie

Il ne faut pas s'emballer, c'est n'importe quoi et a bien peu de chance de se généraliser, même si cela permettrait, parait-il, de retrouver ses clefs...

Des chercheurs de l'université de Tokyo ont imaginé d'étranges lunettes informatisées, dénommées cyber goggles, qui devraient, affirment-ils, nous éviter de perdre nos clés de voiture et tous ces objets du quotidien qui disparaissent si facilement.

- L'ordinateur du futur imaginé par les designers

C'est souvent n'importe quoi ou un peu effrayant mais ce ne sont que des concepts qui n'existeront sans doute jamais vraiment, juste de la science-fiction...

Les ordinateurs du futur ressembleront-ils à des tasses de café, des mugs ou à des feuilles de papier synthétique ? Le concours Next-Gen PC Design, organisé par Microsoft, propose aux internautes de départager une trentaine de visions de l'informatique du futur, vue du côté de ses interfaces.

L'innovation dont on parle le plus est Momenta, « le PC pour la vie », qui se positionne lui aussi sur le créneau du LifeLog, nom que l'on donne à ces systèmes destinés à conserver la trace de tout ce que l'on fait dans la vie. Momenta se présente sous la forme d'un gros collier qui réagit aux émotions de celui ou celle qui le porte afin d'enregistrer ce qui fait battre son cœur, et donc aussi de documenter ce qui a pu lui faire peur, ou mal, qu'il s'agisse d'agression physique ou de problème de santé. Lorsque la pression cardiaque s'intensifie, Momenta archive, en vidéo, les 5 minutes précédentes, et continue d'enregistrer jusqu'à ce que l'utilisateur y mette un terme. Un module Wi-Fi lui permet de se connecter à Internet, un micro-projecteur d'afficher un bureau virtuel que l'on peut contrôler par gestes interposés.

- Surveillance intégrale par RFID

L'université de l'Etat de Washington a mis en place sur le Paul Allen Center un réseau (baptisé “écosystème”) de 200 antennes, utilisant des puces RFID, dans le but d'enregistrer les mouvements d'une cinquantaine d'étudiants cobayes et de leurs matériels (habits, gadgets high-tech, sacs, livres...).

L'idée est de mieux comprendre comment évoluent l'intimité et la confidentialité dans un tel environnement.

“Nous nous inquiétons que ces technologies soient implémentées trop rapidement, c'est pourquoi nous voulons avec ce système explorer cela dans un environnement contrôlé pour informer le public et les décideurs des questions auxquelles nous devrons faire face”.


- Les internautes sous haute surveillance... publicitaire


On s'en doutait mais l'ampleur du phénomène telle qu'elle vient d'être mesurée peut étonner : les plus grandes entreprises du Web amassent une quantité phénoménale d'informations sur la vie privée de chacun. L'objectif est de cibler au mieux les publicités qui s'affichent sur nos écrans.

Les cinq premières entreprises d'Internet - AOL, Google, Microsoft, MySpace, et Yahoo! - traitent ainsi 336 milliards d'événements de ce genre chaque mois. Le champion est Yahoo!, avec une récolte mensuelle de 111 milliards, soit une moyenne de 811 transmissions d'information par internaute !

Aux chiffres par entreprise, il faut encore ajouter ceux des partenaires ou des filiales. Ainsi, Yahoo! peut récupérer un supplément de 1.700 informations mensuelles grâce à ses accords avec différents autres acteurs, comme eBay. De même, Google s'est offert l'an dernier (pour la modique somme de 3,1 milliards de dollars) DoubleClick, une société spécialisée dans les bandeaux publicitaires et qui, depuis toujours, enregistre, en s'aidant de cookies, le parcours des internautes lisant les publicités. Quatrième de ce classement, Google atteint ainsi 578 informations par internaute et par mois. Entre les deux, le deuxième de cette liste est MySpace (1.229) et le quatrième AOL, avec 610. Derrière viennent Facebook, Microsoft et eBay.


- Les business model du web 2.0

Le capitalisme cognitif a bien peu de modèles de rentabilité, d'autant qu'internet favorise la gratuité et augmente considérablement la concentration par renforcement des externalités de réseau. Si tout est gratuit, comme dans les médias de masse, il faut trouver d'autres ressources. Les 4 modèles dominants sont : 1) la publicité, 2) les services additionnels payants (Freemium!) 3) le prélèvement de commissions sur les transactions à partir du site 4) les dons (wikipédia). On peut distinguer aussi 4 modèles d'intermédiation publicitaire (affichage de bandeaux, AdWords en fonction du contexte, les partenariats, le marketing dans les mondes virtuels).

- La gratuité est-elle l'avenir de l'économie ?

“La constante diminution des coûts de production de l'économie numérique incitera bientôt la plupart des entreprises à donner la majorité de leurs produits”. La distribution gratuite est une nouvelle forme d'économie, explique-t-il. Les choses autour de nous deviennent chaque jour moins coûteuses : grâce à la Chine et l'approvisionnement mondial, on peut obtenir un tee-shirt pour le prix d'une tasse de café. Et cette tendance est encore plus forte dans le monde de l'immatériel. Des albums aux jeux, en passant par les logiciels de Google, tout est gratuit sur l'internet. La montée de cette économie de la gratuité est tirée par les technologies qui font marcher le web.

“Il est désormais clair que tout ce que le numérique touche évolue vers la gratuité (...) D'une certaine manière, le web étend le modèle économique des médias à toutes sortes d'autres secteurs économiques.”

L'argent n'est pas la seule rareté dans cette économie d'abondance, suggère Anderson. Votre temps, votre réputation le sont aussi : “Le monde du gratuit a pour objet de capter ces nouvelles raretés, au nom d'un modèle d'affaires qui sera identifié par la suite.” Nous entrons dans une ère où la gratuité sera considérée comme la norme et non pas comme une anomalie, conclut Anderson.

“Quand la copie se généralise, vous avez besoin de vendre des choses qui ne peuvent pas être copiées”, clame Kevin Kelly. Il y a plein de qualités qui ne peuvent pas être copiées, explique-t-il : la confiance par exemple. La confiance ne peut pas être téléchargée ou contrefaite (enfin, pas pour longtemps). Toutes choses égales par ailleurs, vous préférerez toujours faire affaire avec quelqu'un de confiance. La confiance est donc un élément intangible qui a une valeur croissante dans un monde saturé. Il a plein d'autres qualités similaires à la confiance qui sont difficiles à copier et qui prennent de la valeur dans cette économie en réseau : l'immédiateté, la personnalisation, l'interprétation, l'authenticité, l'accessibilité, l'incarnation, le mécénat, la trouvabilité...

- Musique légale gratuite : http://www.jiwa.fm/fr et http://www.deezer.com/.

- Wikipedia reçoit 3 millions de dollars d'une fondation pour certifier son contenu

La Sloan Foundation, une organisation à but non lucratif créée en 1934 par le PDG de General Motors, annonce qu'elle procède à un don de 3 millions de dollars à Wikimedia, une autre "fondation" qui possède Wikipedia. Ce don servira notamment à financer une nouvelle fonctionnalité de l'encyclopédie collaborative. Annoncé en 2006, cet outil permet à des "éditeurs expérimentés" de noter la qualité des articles, et valider ainsi les contenus jugés exacts.

- Yahoo rejoint Google dans l'alliance OpenSocial

Yahoo a annoncé officiellement qu'il rejoignait OpenSocial, l'initiative de Google pour attirer les développeurs et contrer Facebook. Au passage, elle prend la forme d'une association dont Google cède le contrôle. Le signe peut-être d'un rapprochement avec Google, grand concurrent de Yahoo et qui pourrait représenter une alternative à un rachat par Microsoft.


- Le P4P, une fois et demie plus rapide que le P2P ?

A gauche, le schéma des échanges selon le mode traditionnel du serveur : un émetteur (le serveur de données) envoie les informations demandées aux postes qui ont établi une communication avec lui. Les données transitent par Internet, les routeurs régionaux et les réseaux de proximité (edge network). Au centre, le P2P actuel, sans gestion (unmanaged P2P). Les échanges ont lieu sans serveurs, entre les ordinateurs eux-mêmes. Les liaisons empruntent des chemins quelconques. Un fichier demandé par un ordinateur marseillais pourra provenir de Buenos Aires même s'il en existe une version identique à Toulon. A droite, le schéma montre le P4P au travail. Les routeurs privilégient les liaisons à courtes distances. L'ordinateur marseillais recevra le fichier toulonnais et ne récupérera à Buenos Aires que les données qui n'existent pas plus près de la Canebière.

« Les résultats du test ont été phénoménaux, s'enthousiasme Douglas Pasko, responsable technique de Verizon. (...) Ce nouveau système (...) offre des téléchargements jusqu'à six fois plus rapides. En moyenne, les vitesses de téléchargement, par rapport aux autres méthodes, sont augmentées d'environ 60 % ».

On constate au passage que l'ambiance n'est plus à fustiger les échanges par peer-to-peer mais à en reconnaître l'utilité et même, pour les industriels, à chercher à en tirer profit...


- Le moral des Français atteint des planchers

Ce n'est que l'un des 15 risques qui menacent la croissance mondiale (récession, faillite des banques, des assureurs de crédit, de villes américaines, de fonds d'investissement, éclatement des bulles de l'immobilier et des prêts aux entreprises, retour de l'inflation, du chômage, etc.). On nous parle de l'effondrement de l'automobile ou des services mais bizarrement pas du principal, l'effondrement du dollar qui est la véritable menace.

- Moins de travailleurs très pauvres dans le monde

Le nombre de travailleurs extrêmement pauvres diminue depuis 10 ans. Cependant, l'évolution est plus contrastée selon les régions du monde.

Entre 1997 et 2007, le nombre de travailleurs très pauvres - vivant avec moins d'un dollar par jour - s'est réduit de 20%, soit 125 millions de personnes selon le Bureau international du travail (BIT). Un net progrès qui signifie une amélioration pour un nombre encore plus grand de personnes si l'on prend en compte tous ceux qui vivent d'un même revenu. Une évolution décisive dans la lutte contre la pauvreté au niveau mondial.

Cependant, la situation est contrastée selon les régions. Le nombre de travailleurs très pauvres a augmenté de 27 millions en Afrique subsaharienne en dix années. Mais l'emploi a encore plus progressé, du coup la proportion de travailleurs pauvres a légèrement diminué. Au Moyen-Orient le nombre augmente plus vite que l'emploi et donc la proportion de travailleurs très pauvres s'accroît. La baisse est particulièrement sensible en Asie, notamment en Asie du Sud où le nombre de travailleurs très pauvres aurait diminué de 50 millions, réduisant la part de 53 à 33 %. On notera que la part de travailleurs très pauvres a été divisée par trois dans les ex-pays de l'Est.