Thématiques > Revue des sciences

Revue des sciences octobre 2007

Le 3  octobre 2007 par Jean Zin

 

Revues : Pour la Science - La Recherche - Science et Vie
Brèves : Physique - Biologie - Santé - Technologie

 



Pour la Science no 360, Le singe doué de raison ?


Pour la Science

-  Les créances douteuses finissent toujours mal !, p8
Ivar Ekeland

Les produits soi-disant miraculeux comme la "titrisation" des créances douteuses (junk bonds) sensés les rendre plus sûres et liquides (puisqu’on peut vendre ces titres de créance sur le marché financier) finissent toujours par se retourner, en augmentant finalement le risque financier (d’abord par augmentation des créances douteuses, ensuite par habitude de l’argent facile, enfin par la masse que cela finit par représenter) jusqu’à entraîner un risque systémique ! (j’ajoute que l’amusant, c’est de voir la bourse hésiter, s’effondrer devant la faillite du système, puis remonter en croyant pouvoir nier le problème dans un climat d’incertitude où il est bien difficile de se faire une idée de la situation, livrés aux fluctuations de l’opinion : la bourse est fractale et l’ampleur des fluctuations sur le long terme se répercute en fluctuations aussi importantes relativement aux échelles de temps plus réduites, qui sont donc annonciatrices de l’ampleur de la crise).

En ingénierie financière, l’histoire bégaye : la prise de risque, notamment l’achat de titres de créances douteuses, est très profitable, jusqu’à ce que le risque se matérialise en catastrophe.

Comme toujours, si le titre est très risqué, il faut que le rendement attendu soit très élevé pour que les investisseurs en prennent. Normalement, ils devraient les panacher avec d’autres, moins risqués, pour constituer un portefeuille équilibré, mais les rendements élevés sont comme l’alcool, ils montent à la tête. La tentation est grande, surtout en période d’euphorie financière, de prendre le pari que cette année sera comme les autres : alors pourquoi ne pas prendre davantage de ce produit qui nous a fait tant de bien depuis 10 ans ? Quitte, bien entendu, à crier à la catastrophe imprévisible si l’épée de Damoclès leur tombe sur la tête !

-  Peut-on se fier à Wikipédia ?, p18

Si Wikipédia est une des plus grandes réussites d’internet et du travail collaboratif il semble qu’il atteigne un plafond à mesure même qu’il est désormais reconnu, étant devenu la cible de manipulations et de stratégies de communication. Il n’est pas si certain que la fiabilité soit aussi indispensable à Wikipédia qu’aux autres encyclopédies, puisqu’on peut croiser les informations sur internet, sa richesse tenant au contraire à son non-conformisme. Les tentatives d’améliorer la fiabilité pourraient donc se révéler contre-productives comme la prétention de Wikipédia-France d’établir des normes universelles qui mènent à une bureaucratisation et un appauvrissement du contenu (on voit des petits commissaires vouloir imposer une normalisation à des sujets qu’ils ne connaissent pas du tout !). Il y a tout de même un certain nombre d’outils destinés à améliorer la confiance qui sont intéressants même s’ils rétablissent une hiérarchie entre les contributeurs. Parmi les voies explorées, une des plus intéressantes consiste dans la création d’une version certifiée de Wikipédia. Citizendium créé par L. Sanger (un des fondateurs de Wikipédia) constitue un double de l’encyclopédie faite des articles qui ont été "certifiés" par des experts du domaine. La coexistence de plusieurs encyclopédies paraît bien plus souhaitable que de tarir la diversité à la source.

Pour le reste, voici ce qu’en dit internet-actu :

Le mois dernier, plusieurs outils indépendants de Wikipedia ont vu le jour comme WikiScanner (qui permet d’analyser la provenance de certaines adresses IP utilisées pour corriger une entrée et notamment d’identifier si ces corrections proviennent de grandes organisations, qui pourraient vouloir “arranger” l’information dans un sens qui leur convienne) ; Wikirage (qui permet de connaître quels articles ont été les plus modifiés et donc de distinguer les articles sensibles des articles qui le sont moins, la version française).

Plus intéressant encore : la mise à niveau de Wikipédia permettra d’attribuer automatiquement des estimations sur la confiance dans un article. Cela sera possible grâce à un ajout logiciel développé par Luca de Alfaro de l’université de Californie à Santa Cruz. Le système assigne à chaque contributeur un indice de confiance basé sur l’historique de leurs interventions. Ceux dont les contributions sont peu altérées obtiennent un bon indice, ceux dont les contributions sont rapidement remaniées un moins bon.

Au-delà de son caractère inédit, ce qui est intéressant dans cet exemple, c’est de comprendre la double piste que les animateurs de l’encyclopédie ont choisie pour restaurer la confiance. D’une part en augmentant le pouvoir de leurs meilleurs utilisateurs, qui vont pouvoir se distinguer de la masse en validant et labellisant certains contenus. Et surtout, en dotant l’encyclopédie d’outils qui permettent de rendre son fonctionnement toujours plus transparent. Des outils qui permettent d’observer le fonctionnement des mécanismes internes d’édition et de régulation : un monitoring du monitoring en quelque sorte.

-  L’os et le sucre, p27

Certaines cellules osseuses (les ostéoblastes) produisent de l’ostéocalcine, une molécule qui influe sur le métabolisme du glucose et le stockage des graisses. Elle favorise notamment la sécrétion d’insuline par le pancréas et augmente la sensibilité des cellules à celle-ci. Ainsi, elle préviendrait le développement du diabète de type 2. (Ajoutons que selon NutraNews : "Jouant un rôle dans l’activation de l’ostéocalcine, la vitamine K pourrait avoir un effet bénéfique dans la réduction de l’obésité et du diabète").

-  La raison des singes, p36

Pensée, esprit, raison, intelligence, états de conscience... Autant de mots pour désigner une réalité cognitive impalpable, autant de concepts différemment formulés qui soulèvent une question essentielle : les animaux ont-ils des capacités mentales semblables à celles de l’être humain ? Sans remonter à l’animal-machine de Descartes, le temps n’est pas loin où l’on soutenait encore qu’il n’existe pas de pensée sans langage. Mais la révolution cognitiviste est passée par là ; les travaux des dernières décennies indiquent que des animaux - et notamment les singes, nos plus proches cousins - possèdent des états mentaux, telles des pensées ou des croyances, et qu’ils construisent une représentation du monde.

Aujourd’hui, nous nous demandons si leurs décisions sont rationnelles : les singes (macaque, capucin, mangabé par exemple) et les grands singes (chimpanzé, bonobo, orang-outan, gorille) sont-ils capables de résoudre des problèmes autrement que par approximations successives ? Peuvent-ils planifier un événement ou expliquer des effets par leurs causes ?

L’article apporte peu de choses, nettement moins intéressant que celui du mois dernier sur la mémoire et le raisonnement, qui devrait suivre bien sûr le même mécanisme chez les singes et la plupart des animaux. Le fait de dénier toute pensée aux animaux m’a toujours paru un peu folle. Ce n’est certainement pas le point de vue de Darwin mais cette façon de se faire peur en gommant toute différence avec les animaux témoigne d’une totale incompréhension de ce qui fait la spécificité de la pensée humaine. C’est bien le langage qui nous distingue car il décuple la pensée, la mémoire et la conscience de soi en objectivant la pensée justement ainsi qu’en permettant de la communiquer. Cela ne veut pas dire que le langage crée la pensée et que les animaux ne pensent pas, n’ont aucune conscience de soi, ni ne communiquent, mais ils sont dans la même position que lorsque nous ne trouvons pas nos mots et sommes dans l’immédiateté, la stupeur voire la panique. Le saut qualitatif n’est pas seulement une complexification, c’est l’objectivation de la pensée dans un langage commun et la réflexion ou la discussion que cela permet qui constitue le support et la condition première de cet accès à une complexité bien supérieure : ce n’est pas la complexité qui émerge, c’est le langage qui multiplie les combinaisons en accédant à un niveau supérieur d’abstraction. La différence est là, dans le langage qui divise, multiplie les noms et se transmet aux générations suivantes : esprit vivant et matériel à la fois qui nous sépare de l’animalité et de l’immédiateté de notre présence au monde.

Mais, revenons à l’article. Je doute de certaines observations comme celle qui prétend qu’un chimpanzé ne ferait pas la différence entre un râteau entier et un râteau ostensiblement démonté ! Ni même qu’ils "n’arrivent pas à coopérer dans une tâche qui exige de saisir les objectifs de leurs compagnons". Je pense que cela dépend et pourrait s’appliquer à nous dans de nombreuses circonstances... Plus intéressant le fait que les singes peuvent "montrer du doigt" (jamais "se montrer du doigt") mais uniquement "sur un mode impératif, pour obtenir ce qu’ils désignent" (ce qui semble naturel lorsqu’il n’y a pas de langage pour articuler l’objet désigné, mais qui est peut-être un peu contestable dans certains cas. Ce qui est sûr, c’est que, contrairement au mot, le cri ne peut être détaché de l’émotion). Par contre, on peut trouver tiré par les cheveux les déductions sur les capacités météorologiques des singes qui font penser aux capacités qu’on prête aux paysans de prévoir le temps ! Plus intéressant, la conclusion sur notre rationalité limitée et le caractère collectif de l’intelligence. C’est notre manque d’informations et notre impossibilité de décider par nous-mêmes qui nous rend dépendants de l’opinion des autres pour assurer nos convictions, ce qui n’assure pas toujours une véritable "intelligence" collective ni l’action la plus appropriée...

La démarche évolutionniste, comme la démarche anthropocentrique, nous amène donc à la notion de rationalité limitée. Une décision n’est rationnelle qu’en référence à des conditions données, en dehors desquelles elle perd son sens. Le lieu de décision représente un facteur d’incertitude supplémentaire. En dépit de la logique cartésienne qui sépare le mental invisible du matériel visible, l’intelligence ne se réduit pas à une fonction enfermée dans le cerveau ; les comportements résultent des interactions des individus avec leur environnement.

Les relations entre partenaires jouent un rôle aussi important que leur mémoire ou leur motivation. C’est aussi dans cette optique d’intelligence distribuée qu’il faut considérer les stratégies de prospection des mangabés.

-  Les mouvements secrets de l’oeil, p56

L’œil est animé de mouvements imperceptibles, les microsaccades. Ces dernières sont nécessaires pour voir. Elles révèlent aussi les objets qui attirent inconsciemment l’attention.

Lorsque vous lisez ces lignes, vos yeux sautent rapidement de gauche à droite, se focalisant successivement sur chaque mot. De même, quand vous regardez le visage d’une personne, vos yeux se déplacent, s’arrêtant momentanément sur un œil, le nez, la bouche... C’est parce que des contractions fréquentes des muscles des yeux permettent de balayer du regard une page, un visage ou une scène.

Mais ces mouvements volontaires des yeux, nommés saccades, ne représentent qu’une petite fraction des contractions des muscles oculaires. Les yeux n’arrêtent jamais de bouger, même lorsqu’ils semblent fixer le nez d’une personne.

Ce n’est pas une découverte que notre regard peut nous trahir, ni que l’oeil bouge tout le temps puisque c’est ce qui nous distingue des reptiles, par exemple, qui ne voient que ce qui bouge car un signal répété n’est plus une information pour le cerveau. Pour voir l’immobile, il faut que l’oeil bouge. Il y a des illusions d’optique et des textes visuels amusant mais ce qu’on apprend est assez maigre :

On identifia 2 autres types de mouvements de fixation oculaire : les dérives et les tremblements. Les dérives sont des mouvements lents, sinueux, se produisant entre les microsaccades, qui sont quant à elles rapides et linéaires. Les tremblements sont de petites oscillations rapides, superposées aux drives. Les microsaccades sont les mouvements les plus amples ; elles transportent une image sur des dizaines, voire quelques centaines de photorécepteurs (...) Le tremblement est le plus petit des mouvements, il ne dépasse pas la taille d’un photorécepteur.

Il est certain que plus on en sait, plus on peut faire des systèmes qui nous espionnent, de là à "voir les pensées d’autrui" il y a une marge mais, cela ne laisse pas d’être inquiétant...

-  Réchauffement climatique : le temps des certitudes, p68

Voir l’article : "Le point sur le climat".

 

-  Mathématiques et sciences de la nature
CREA-CNRS, Paris. Francis Bailly et Giuseppe Longo, Hermann, 2007, 284 pages

Bien que je n’aie pas lu ce livre et ne puisse donc le critiquer sérieusement, je dois dire que je trouve aussi absurde de vouloir aborder le vivant comme un "état critique" que de le réduire à une "structure dissipative". Ces tentatives de réduction du vivant aux phénomène physiques sont fautives d’ignorer la fonction de l’information qui change complètement les perspectives et le type d’interaction, ce qu’Erwin Schrödinger n’avait pas si mal appréhendé avec le concept de néguentropie mais il faut introduire en plus mémoire, reproduction, questions-réponses, essais-erreurs...

Voici un livre peu banal, à la fois par la somme de compétences qu’il réunit et par son projet scientifique. Dans la lignée du Qu’est-ce que la vie ? d’Erwin Schrödinger (1944), le projet de F. Bailly et G. Longo consiste à confronter le statut théorique de la biologie à celui de la physique, de l’informatique et des mathématiques, pour proposer un cadre conceptuel nouveau permettant de relever les défis théoriques propres de la compréhension du vivant.

Pour suggérer des pistes de recherche nouvelles, les auteurs commencent par mener une enquête épistémologique approfondie sur la nature de l’objectivité dans les sciences de la nature. Deux points sont particulièrement mis en lumière : premièrement, les conséquences qu’ont les résultats d’incomplétude en mathématiques et en physique sur le statut de l’objectivité ; deuxièmement, la nature et l’évolution du déterminisme une fois établies, la possibilité d’un déterminisme non prédictif.

Dans le cas du vivant, il est nécessaire, pour rendre compte de l’évolution d’une forme biologique, de changer les observables en changeant d’espace de repérage, et ce de façon imprédictible au fur et à mesure que la forme évolue. Les auteurs proposent alors, en s’appuyant sur la notion physique d’état critique, de caractériser le vivant comme un état critique étendu : alors qu’une transition de phase est instantanée en physique, le propre du vivant est de la faire durer spatialement et temporellement à l’intérieur d’une zone dont il est possible de décrire les paramètres.

-  Grigori Perelman face à la conjecture de Poincaré
Donal O’Shea, Dunod, 2007, 314 pages

Ce récit romancé conte l’aventure intellectuelle de Grigori Perelman, qui a récemment démontré la conjecture énoncée en 1904 par Henri Poincaré, puis refusé la médaille Fields en 2006. Il mêle trois thèmes imbriqués : le développement, au travers des siècles, de la géométrie et de la topologie, depuis les Babyloniens jusqu’à Perelman ; l’évolution de la question de la forme de l’Univers, question à l’origine de la conjecture ; l’évolution du milieu des mathématiciens depuis l’Antiquité jusqu’à Internet. Malgré les nombreux aspects évoqués, le texte est facile à lire et donnera au lecteur une vision d’ensemble de l’une des grandes aventures de l’esprit humain.

 


La Recherche no 412, Le dictionnaire des idées reçues en science


-  Un câblage mâle et femelle dans chaque cerveau, p14 La Recherche

Le titre n’est pas très clair et veut dire que, au moins pour les souris, le cerveau n’est pas sexué ou plutôt qu’il est bisexué et ne présente pas de différences notoires entre les sexes (ce qui semble contredire d’autres recherches sur les différences, certes réduites, entre hommes et femmes). Ce qui déterminerait les comportements sexués, du moins pour les souris, ce ne serait que les phéromones (notamment le gène Trpc2 codant l’organe, dit "voméronasal", de perception des phéromones) et il suffirait de changer ce gène pour changer d’orientation sexuelle ! Cela manifeste à quel point les corps ne sont pas isolés mais font partie d’un système de communication qui détermine leur comportement de l’extérieur au moins autant que de l’intérieur (c’est l’homme qui fait la femme et la femme qui fait l’homme). Reste à savoir si c’est extrapolable aux humains qui ont largement remplacé les phéromones par un langage plus complexe et un peu moins impératif quand il se fait récit indirect...

(En tout cas, il semblerait bien que l’odeur est dans les gènes et qu’une odeur soit perçue comme agréable ou désagréable peut ne dépendre que de l’inversion d’un seul nucléotide (SNP) dans le gène du récepteur olfactif, en tout cas pour l’androstérone présente dans la transpiration des hommes et qui peut donc avoir un rôle de phéromone attirante ou repoussante selon les gens).

-  Glaucome et Alzheimer, p24

Il y aurait un rapport entre glaucome et maladie d’Alzheimer.

La protéine ß-amyloïde, qui forme des plaques dans le cerveau des personnes atteintes par la maladie d’Alzheimer, est aussi impliquée dans la destruction des cellules chargées du transfert de l’information visuelle de l’oeil vers le cerveau. Mieux, les traitements destinés à ralentir l’accumulation de cette protéine dans les tissus cérébraux semble réduire la pression oculaire des rats atteints.

-  Chroniques affligeantes, p113

C’est sans doute moi qui ai tort, mais je trouve les 2 chroniques du mois affligeantes. Elles sont pourtant écrites par de grands esprits d’habitude mieux inspirés. Dominique Lecourt réduit l’écologie au moralisme, ce qu’il appelle l’écomoralisme, et à la peur, lui-même voulant nous terroriser à l’idée que cette peur serait "le ressort de ce mouvement d’assujettissement universel". Il vaut mieux effectivement ne pas penser à l’avenir et croiser les doigts en priant la science toute puissante de nous tirer de tous les mauvais pas dans lesquels ont s’est mis ! Ceci dit, il est vrai qu’une grande partie de l’écologie sombre dans le moralisme le plus imbécile mais cela ne retire rien à notre responsabilité envers les générations futures ni à la prise de conscience des effets de nos actions sur leur environnement, sur les conséquences de nos actes, ni aux menaces qui se font de plus en plus pressantes. Ce n’est pas une question de morale mais de contraintes objectives, du réel dans ce qu’il a de fondateur.

Boris Cyrulnik, que j’apprécie normalement, défend ici une curieuse théorie qui ferait du "trouble de l’attention" (TDAH, "Trouble Déficitaire de l’Attention avec Hyperactivité" traité en général avec la Ritaline) un simple effet de la télévision !!

Il n’y a pas de syndrome hyperkinétique dans ces pays alors qu’en Occident l’OMS évalue à 5% le nombre d’enfants qui en souffrent.

Les bébés confiés à la nurse TV souffriront à l’âge de 7 ans, de syndrome hyperkinétique.

Il n’est pas impossible que ce soit vrai mais ce n’est sûrement pas la majorité des cas. Le déficit de dopamine peut avoir bien d’autres raisons et il est selon toute vraisemblance dû à la variabilité génétique, en partie au moins. On peut penser qu’il existe donc aussi dans les sociétés traditionnelles mais qu’ils trouvent plus à s’exprimer physiquement ou sont plus réprimés ? Enfin il me semble bien improbable que la télévision soit la cause de cette maladie de la modernité ! Ce genre d’interprétation sociale de la vulnérabilité individuelle a quelque chose de la pensée magique et semble jouer comme un exorcisme pour ce scandale qu’un médicament (une drogue) suffit à régler le problème...

Par contre, la page précédente qui célèbre l’anniversaire de "L’évolution créatrice" de Bergson en 1907, rappelle cette thèse centrale de Bergson sur la durée (biologique) qui se distingue de l’immédiat (physique) comme de l’éternité (théologique) par son imprévisibilité, comme la vie se distingue par sa créativité.

Critiquant le modèle implicite de la "fabrication" technique (la réalisation, en effet, d’un plan), Bergson lui oppose explicitement une autre expérience, non pas celle de l’imposition d’un sens préalable, mais de la découverte d’un sens imprévu, qui fait d’une vie notre vie.

 


Science et Vie no 1081, Spécial fin du monde


-  Le virus du rhume transforme les cellules souches en graisse !, p52

Très étonnant : les cellules souches infectées par l’adénovirus 36, virus commun du rhume, se transforment en cellules graisseuses ! Cela pourrait expliquer certaines formes d’obésité (un tiers peut-être) mais voilà qui montre le rôle des virus les plus communs dans les régulations biologiques.

-  Mauvais souvenirs, les refouler à volonté est possible, p84

Alors qu’on faisait état le mois dernier de la découverte d’une molécule pour "effacer la mémoire", il y aurait beaucoup plus simple : pour oublier, il suffirait de le vouloir ! En fait, ce ne serait rien d’autre que le mécanisme neurologique du refoulement qui consisterait à "faire le vide" pour ne pas penser à ce qu’on veut refouler, le noyer sous le bruit, empêcher toute connexion. On sait que ça ne suffit pas à s’en débarrasser mais la mémoire en devient inaccessible bien qu’elle ne soit pas effacée (il faut même que ce qui doit être refoulé soit reconnu à chaque fois par le surmoi pour empêcher le souvenir, ce pourquoi ce sont des mots qui servent de déclencheurs le plus souvent, d’indice de ce dont il ne faut pas se souvenir et de blocage de la pensée). Ce n’est certainement pas la bonne méthode, la multiplication de ces points aveugles menant à toutes sortes d’illusions et de névroses. Ne pas y penser ne règle rien alors qu’on sait au contraire que c’est au moment où l’on se rappelle un souvenir qu’on peut en modifier la charge émotive. "Plutôt que d’oublier un mauvais souvenir, mieux vaut en parler".

Avec un peu d’entraînement, on peut effacer, ou plutôt éviter de se remémorer des images vues seulement quelques minutes plutôt. Il suffit... de le vouloir.

Il est possible d’oublier un souvenir, ce qui ne le fait pas disparaître pour autant de notre tête. "Simplement en exerçant un contrôle sur lui, on lui barre l’accès à la mémoire de travail. Ce processus ’nettoie’ la conscience, mais sans effacer le souvenir".

Pendant l’examen IRMf, c’est en effet le cortex préfrontal, situé à l’avant du crâne, qui s’est révélé le plus activé lorsqu’il s’agissait de ne pas se souvenir d’une scène dérangeante.

On pourrait imaginer qu’ils s’efforçaient de penser à autre chose, histoire de détourner leur attention. Pas du tout ! Ils tentaient au contraire de garder "l’esprit vide" pendant cette période et se concentraient uniquement sur le contournement du souvenir.

-  Vacciner les plantes pour remplacer les pesticides, p 90

Ce n’est certes qu’un début prometteur mais une alternative aux pesticides serait de "vacciner" les plantes, c’est-à-dire de stimuler leurs défenses internes en les mettant en présence d’agents perturbants (dits "éliciteurs", ici un cocktail à base d’extraits d’algues, d’acides aminés et de matière fertilisante appelé Sémafort) stimulant au moins la production d’acide salicylique et d’éthylène. L’efficacité semble établie au moins pour la vigne que cela protège du mildiou. Le niveau de protection obtenu serait comparable à celui des pesticides (90%), sans aucun de leurs effets nocifs, seulement par le renforcement des plantes. Si cela se confirme, c’est une grande nouvelle étant données les ravages des pesticides...

Cette immunisation semble efficace contre un large spectre d’agresseurs.

-  Les équations fondamentales de la physique, p129

Il paraît que voilà un livre qui rend merveilleusement simples les équations de la physique inaccessibles au commun des mortels : relativité générale, supercordes, thermodynamique...

 
 


Courrier International no 881, Le réchauffement n’existe pas*



-  Le réchauffement n’existe pas

Voir l’article : "Le point sur le climat".

-  Ces peuples sans malades mentaux, p58

On peut s’étonner de l’affirmation que les populations africaines isolées de la civilisation ne connaîtraient pas la maladie mentale. Il y a de nombreux contre-exemples mais, ce qui est vrai, c’est qu’il y en a beaucoup moins que dans nos sociétés et surtout que la maladie mentale y est plus intégrée, elle y a une fonction, un sens (sensibilité, don, possession). Il ne fait aucun doute que la vie de chasseur-cueilleur est une vie plus saine et qui correspond mieux à notre espèce ! Cela ne veut pas dire que ce soit une vie plus désirable que la nôtre, la libération de l’individu de la pression du groupe n’étant pas uniquement négative, c’est une question d’équilibre plus que de retour en arrière.

Les peuples indigènes africains vivent dans des sociétés qui les protègent des maladies mentales comme la dépression, l’anorexie ou le stress, qui font des ravages en Occident. Leur manière de vivre en communauté, leur relation aux enfants ou leur respect des anciens sont davantage adaptés à l’histoire évolutive humaine que les nôtres.

Notre individualisme pathologique entraîne des problèmes que ces gens ignorent parce qu’ils vivent en petits groupes, comme l’être humain vivait il y a encore 5 000 ans.

 



Brèves et liens



Physique


cosmologie, astronomie, physique quantique

 

-  La structure du neutron

On savait que les neutrons comme les protons sont un assemblage de 3 quarks (udd pour le neutron uud pour le proton avec up=+2/3 et down=-1/3) mais leur structure interne serait différente de ce qu’on croyait. Entre autres, le fait que la couche externe du neutron soit chargée négativement pourrait expliquer sa liaison avec les protons.

Gerald A. Miller a encore frappé ! Après avoir montré que les protons n’avaient pas forcément une forme sphérique, le voilà qui remet en cause un des plus vieux modèles de la physique hadronique.

L’image qui émerge est bien celle d’un neutron avec une couche superficielle chargée négativement, mais le cœur lui-même est chargé négativement lui aussi. Ce qui bien sûr implique qu’une charge positive soit répartie entre les deux, afin que la somme totale soit nulle.

-  Création de molécules d’anti-matière avec du quartz

En fait, il s’agirait de de création de "positronium" (molécules formées uniquement d’un positron et d’un électron) à la surface d’un morceau de quartz soumis à un faisceau de positrons. Contrairement aux spéculations initiales l’anti-matière n’est pas une énergie négative qui remonterait le temps mais seulement une matière dont la charge est inversée (entre proton et anti-proton comme entre électron et positron) et dont l’annihilation produit un photon gamma, ce qui serait utile pour des lasers à rayons gamma.

Mills et Cassidy se sont servis des nano cavités du quartz comme de pièges à positrons. Une fois coincés, ces positrons se sont liés à des électrons pour former des atomes de positronium. Ralentis par la surface poreuse, ces atomes ont vécu suffisamment longtemps pour former des molécules de dipositronium (avec deux atomes).

La prochaine étape, précisent les deux physiciens, est d’utiliser une source de positrons plus intense pour créer un condensat de Bose-Einstein de positronium. Au-delà, le but est de créer des sources de rayons gamma de haute énergie pour étudier la matière à l’échelle du noyau atomique.

 

-  Baptistina à l’origine de la fin des dinosaures

C’est vraiment très spéculatif, la chute d’une météorite il y a 65 millions d’années serait la conséquence de l’éclatement d’un astéroïde il y a 160 millions d’années...

L’astéroïde qui a créé le fameux cratère de Chicxulub au Yucatan proviendrait en fait d’une famille de petits corps célestes située dans la ceinture d’astéroïdes entre Mars et Jupiter : la famille des Baptistina. On pense en effet généralement que la disparition de près de 70% des espèces vivantes, à la limite séparant le Crétacé du Tertiaire, résulte de l’action conjointe des gigantesques éruptions basaltiques du Deccan en Inde mais, surtout, de l’impact d’un petit corps céleste de 10 km de diamètre, plus probablement un astéroïde qu’une comète, dont l’effet sur une biosphère déjà éprouvée par les épanchements basaltiques des Trapps a été déterminant dans ce qu’on appelle la crise K-T.

Les observations au télescope et les simulations par ordinateurs suggèrent qu’un astéroïde de 170 kilomètres de diamètre environ, et de composition similaire aux chondrites carbonées, des météorites très primitives, a éclaté en plusieurs fragments il y a 160 millions d’années à la suite d’un choc avec un autre petit corps dont la taille est elle estimée à 60 kilomètres de diamètre environ. L’astéroïde 298 Baptistina, découvert par Auguste Charlois le 9 septembre 1890 à l’observatoire de Nice serait précisément le vestige du plus gros astéroïde.

 

Biologie


évolution, génétique, biodiversité, éthologie, anthropologie, neurologie

 

-  De l’intérêt d’être une grosse planète

Selon Ballhaus, l’apparition de la vie, du moins sous la forme que nous lui connaissons, repose sur trois conditions essentielles : de l’eau, une atmosphère et un champ magnétique protecteur. "Or", annonce Arno Rohrbach, un étudiant doctorant du Mineralogical Institute, "les planètes en dessous d’une certaine taille n’ont pratiquement aucune chance de former une atmosphère stable, car la faible pression dans leur manteau est insuffisante pour permettre à la roche d’emmagasiner assez d’oxygène et de le libérer ensuite en surface".

Il cite notamment la planète Mars, qui avec un diamètre de seulement 6.800 kilomètres (contre 12.700 pour la Terre), s’est refroidie rapidement de sorte qu’il n’existe plus aucun mouvement de convection dans son manteau. "La croûte de cette planète a ainsi perdu sa capacité à véhiculer l’oxygène et ainsi mettre à jour une atmosphère riche en oxygène", annonce le Dr. Christian Ballhaus.

Il évoque aussi le champ magnétique, qui ne pourrait perdurer sans une température interne suffisamment élevée pour maintenir un noyau métallique liquide. "Celui-ci se comporte comme un bouclier face aux vents solaires qui, au fil du temps, auraient balayé et dispersé l’atmosphère", conclut-il.

-  Les bases de la vie sont universelles

Comme on l’avait déjà conclu le mois dernier, dès lors que les briques de la vie auraient une origine extra-terrestre, il est probable que les bases de la vie sont les mêmes partout...

La vie se définit comme une information complexe et codée qui peut se répliquer, cette réplication devant se faire avec parfois des erreurs pour permettre l’évolution. Or, on n’a pas trouvé de meilleur support d’une information complexe que les chaînes carbonées de la chimie organique. On peut songer à plusieurs autres supports (des cristaux par exemple) mais aucun n’a la richesse des chaînes carbonées qui permettent des combinaisons à l’infini. La chimie du Silicium, par exemple, est très loin d’être aussi riche. De fait, on ne trouve comme grosses molécules dans le milieu interstellaire de notre Galaxie ou de galaxies très distantes, que des chaînes carbonées.

Selon la NASA, est vivant tout système délimité sur le plan spatial par une membrane semi-perméable de sa propre fabrication et capable de s’auto-entretenir, ainsi que de se reproduire en fabriquant ses propres constituants à partir d’énergie et/ou à partir d’éléments extérieurs. La vie terrestre nécessite la présence conjuguée de quatre facteurs. De l’énergie, généralement sous forme de rayonnement stellaire, le carbone, habituellement sous forme de CO, de l’eau à l’état liquide, qui est à la base de la vie, enfin un certain nombre d’éléments chimiques, principalement de l’azote, du phosphore et du soufre.

En s’appuyant sur ces 2 définitions on gardera à l’esprit que si la vie extraterrestre existe, il y a une très grande probabilité qu’elle se base également sur l’eau et la chimie du carbone. D’une part l’eau est une molécule très courante dans l’Univers tout comme cette chimie. Les observations les plus récentes de l’Univers ont révélé que les ingrédients de la vie se trouvent un peu partout dans l’Univers de sorte que l’on peut raisonnablement penser qu’un processus similaire au nôtre s’est déclenché quelque part autour d’une autre étoile.

-  Un test de grossesse pour détecter la vie sur Mars

Actuellement en orbite autour de la Terre, afin de prouver son bon fonctionnement dans l’espace, ce minuscule instrument, reposant sur le même principe que les tests de grossesse devrait partir pour Mars en 2011 avec l’expédition européenne.

-  Des bactéries découvertes... dans les salles stériles de la Nasa

Alors que les scientifiques s’attendaient à trouver une population raréfiée, ils ont au contraire mis au jour une superbe diversité bactérienne, avec de nombreuses espèces et des populations en pleine forme. Les staphylocoques et les sphingomonas, espèces communes, peuplent les trois endroits étudiés mais le reste des espèces bactériennes diffère d’un lieu à l’autre. La plus grande diversité a été détectée sur les surfaces de travail du centre spatial Johnson (alias « Houston »), au Texas, qui gère les vols habités de la Nasa, donc les navettes et la Station spatiale internationale .

Ce résultat devrait être une source d’inquiétude ou au moins de réflexion partout où l’on met en place des salles propres, dans les hôpitaux bien sûr mais aussi dans l’industrie des semi-conducteurs et dans le spatial lui-même. Des bactéries se trouvent probablement embarquées en nombre plus important que prévu dans les vaisseaux spatiaux.

Du coup, on envisage de faire des zones protégées sur Mars et la Nasa part à la chasse aux bactéries. A noter aussi que les bactéries qui reviennent de l’espace deviennent beaucoup plus virulentes...

 

-  Les première bactéries

Jusqu’à présent, on pensait qu’il y a 3,5 milliards d’années, certaines des premières bactéries tiraient leur énergie de la réduction des sulfates, comme elles le font aujourd’hui aux abords des sources hydrothermales au fond des océans. En analysant les proportions d’isotopes des composés soufrés dans des roches australiennes, les chercheurs de l’Institut de Physique du Globe de Paris et leurs collègues de l’Université du Maryland et du Geological Survey of western Australia concluent que ces anciennes bactéries tiraient leur énergie non pas du sulfate mais du soufre élémentaire.

-  Echanges génétiques bactériens

Les bactéries ont la capacité de modifier leur patrimoine génétique par l’intégration d’ADN issu d’un milieu extérieur. Cette transformation naturelle est un mécanisme d’échange génétique largement répandu chez les bactéries.

La transformation est considérée comme une forme de parasexualité réduite à sa forme la plus simple, l’un des partenaires étant la bactérie, et l’autre de l’ADN présent dans le milieu extérieur.

Ces équipes ont montré que la protéine DprA facilite la fixation sur le brin d’ADN entrant de la recombinase RecA, une enzyme indispensable à l’intégration de cet ADN dans le génome. Par ailleurs, ces équipes ont détecté la présence du gène codant pour la protéine DprA dans près de 85% des génomes complets bactériens séquencés à ce jour.

 

-  Simulation d’une accélération de l’évolution quand l’environnement change

Ce n’est qu’une simulation informatique mais qui montre que les probabiltés ne sont pas à manier comme on le croit, ce qui rendrait problématique l’évolution effectivement. Le simple fait de devoir s’adapter à plusieurs nouvelles contraintes à la fois modifie en effet complètement les probabilités.

-  Un dinosaure poids plume

Parmi les ancêtres des oiseaux, dans la famille des théropodes, existaient déjà de petits spécimens, comme en témoigne le dinosaure de 70 centimètres de longueur découvert dans le sud du désert de Gobi, en Mongolie. Le Mahakala omnogovae.

Sa petite taille montre que la ‘’miniaturisation’’ s’est produite chez les dinosaures bien avant l’évolution du vol, analysent les chercheurs, alors que le rapetissement de la taille est souvent considéré comme l’une des dernières étapes avant l’apparition du vol.

-  Les vélociraptors avaient des plumes !

La présence de plumes sur ce spécimen de Velociraptor, qui mesurait 1,5 mètre de long et pesait environ 15 kg, ne signifie pas pour autant qu’il était capable de voler (pas plus que les poules). On voit que les oiseaux ne sont pas le produit improbable de mutations simultanées mais que plumes, réduction de taille et allègement du squelette ont précédé de longtemps la conquête du ciel.

C’est maintenant confirmé, comme beaucoup de paléontologues le soupçonnaient depuis une dizaine d’années, les vélociraptors de Jurassic Park avaient des plumes !

Plus nous en apprenons sur ces animaux, plus nous réalisons à quel point il n’y pratiquement pas de différences entre les oiseaux et leurs ancêtres dinosaures comme ceux du genre des vélociraptors.

Si des animaux comme les vélociraptors étaient encore vivants aujourd’hui, notre première impression serait qu’il s’agit juste d’oiseaux un peu bizarres mais c’est tout !

-  L’homme de Flores n’est pas un homme !

L’examen du poignet de "l’homme de Flores", considéré comme une nouvelle espèce d’homme très petit, montre qu’il serait plus proche des australopithèques, bien que ce pourrait aussi être un descendant d’homo erectus.

Les os de ce poignet sont primitifs et le petit homme de Flores, âgé de seulement 18.000 ans, n’est pas un homme moderne. Il s’agirait donc bien d’une nouvelle espèce.

Après comparaison, ces os du carpe situés à la base du pouce et de l’index ressemblent à s’y méprendre à ceux des grands singes ou des premiers hominidés, comme les australopithèques, affirment aujourd’hui dans Science Tocheri et ses collègues australiens et indonésiens. Les hommes modernes et les Néandertaliens ont un poignet très différent de leurs ancêtres, expliquent les chercheurs. On estime que les caractères modernes de cette articulation datent de 800.000 ans environ.

-  De l’importance de l’amidon dans l’évolution humaine

La capacité des premiers hommes à se nourrir de végétaux riches en amidon, comme les tubercules, a peut-être été déterminante pour l’évolution de leur cerveau et leur expansion géographique. Une étude publiée cette semaine dans la revue Nature Genetics montre que les humains fabriquent beaucoup plus d’amylase dans leur salive, l’enzyme indispensable pour digérer l’amidon, que les chimpanzés. Cette multiplication du gène de l’amylase se serait produite il y a plusieurs centaines de milliers d’années.

Beaucoup plus facile à se procurer que la viande, les tubercules ont pu fournir à nos ancêtres et notamment à Homo erectus -qui fut vraisemblablement le premier à maîtriser le feu et la cuisson des aliments- le carburant indispensable au développement de sa boîte crânienne.

-  Des ossements humains datant de 1,8 millions d’annnées en Géorgie

Les fossiles d’hominidés découverts à ce jour correspondent à environ vingt individus et comprennent trois mandibules, trois crânes et plusieurs pièces diverses. Ceux-ci se révèlent être les plus anciens restes humains présentant clairement des affinités à l’Homo ergaster africain plutôt qu’à l’Homo erectus asiatique ou à l’hominidé européen.

-  Une mutation a modifié les muscles d’une partie de l’humanité
Le Figaro

Selon des travaux de Kathryn North et son équipe de l’université de Sydney (Australie), parus dans Nature Genetics, « 1 milliard de personnes dans le monde sont dépourvues d’une protéine musculaire qui favorise les efforts violents ».

En 1999, la chercheuse a découvert que « 18 % des personnes d’origine européenne sont dépourvues de cette protéine importante, l’alpha actinine 3 (ACTN3) », une protéine des muscles squelettiques « utilisée par les fibres à contraction rapide sollicitées lors d’un effort violent. Pourtant, toutes les personnes qui en sont dépourvues se portent bien ».

Poursuivant leur enquête, les chercheurs se tournent alors vers les athlètes de leur pays et découvrent que toutes les sprinteuses d’élite possèdent l’ACTN3. Chez les hommes, elle est toujours présente lorsqu’ils pratiquent un sport nécessitant un effort intense au niveau olympique.

Après avoir inactivé le gène de l’ACTN3 chez des souris, les chercheurs ont constaté que les fibres musculaires rapides de ces animaux étaient mieux adaptées pour utiliser l’oxygène. "Placées sur un tapis roulant, les souris mutantes parcourent 33 % de distance de plus que les autres".

Un métabolisme utilisant plus efficacement l’oxygène peut avoir aidé les hommes à survivre dans leur migration hors d’Afrique, une fois confrontés à la famine et à un environnement plus hostile et plus froid.

-  Epissage génétique du système nerveux

La différenciation des cellules, et donc de l’expression des gènes, dépendrait de la régulation de "l’épissage alternatif".

Une étude publiée dans le dernier numéro de la revue German Biology révèle qu’une étape de l’expression du gène, connue sous le nom d’épissage alternatif, s’avère plus hautement régulée dans un type de cellule et de tissu, que ce que pensaient les scientifiques : une grande part de cette régulation additionnelle intervient dans le système nerveux. L’étape de l’épissage alternatif est un processus par lequel un unique gène spécifie de multiples produits protéiniques. Lors de ce processus, les ARN transcrits à partir des gènes mûrissent pour devenir des ARN qui seront traduits.

Fait remarquable, souligne Blencowe : nombre de ces gènes assurent des fonctions importantes et spécifiques dans le système nerveux, incluant les rôles associés à la mémoire et à l’apprentissage. Cependant, dans la plupart des cas, les chercheurs travaillant sur ces gènes ne savaient pas qu’ils étaient régulés au niveau de l’épissage. Ils indiquent que les données recueillies procurent une base importante pour comprendre les mécanismes moléculaires par lesquels les gènes peuvent fonctionner différemment dans différentes parties de l’organisme.

Il s’agit désormais, pour les chercheurs, de comprendre comment le processus d’épissage alternatif se trouve régulé d’une manière spécifique dans une cellule ou un tissu. Les chercheurs indiquent avoir découvert ce qui apparaît être une partie d’un « code régulateur » qui détermine les caractères de l’épissage alternatif dans le cerveau.

 

-  Les engrais rendent les grenouilles difformes

Les grandes quantités d’azote et de phosphore déversées par les agriculteurs sur leurs champs contribuent au développement de difformités chez les amphibiens des lacs et des étangs en Amérique du Nord.

L’azote et le phosphore stimulent la croissance des algues qui à leur tour favorisent l’essor des populations d’escargots qui véhiculent un grand nombre de parasites, détaillent les chercheurs. Les larves de ces parasites forment des kystes dans les membres en développement des têtards, provoquant de sévères déformations chez les amphibiens.


-  Un virus à l’origine de la disparition des abeilles ?

En fait il s’agirait plus probablement de l’association d’un parasite comme le varroa (ci-dessus) de la famille des acariens, qui affaiblirait le système immunitaire des abeilles, ce qui les rendrait plus vulnérables à l’infection par un virus nouvellement identifié l’IAPV (Israeli acute paralysis virus), à l’origine de 96% des disparitions (effondrement des colonies). L’infection pourrait avoir pour origine la gelée royale importée de Chine utilisée pour démarrer de nouvelles ruches. Ensuite, la pratique du transport des ruches pour la pollinisation aurait pu favoriser l’épidémie sur une population soumise à de nombreux stress (pesticides, OGM, sélection). Ce serait cette conjonction de facteurs qui décimerait les colonies...

 

Santé


génétique, traitements, nutrition, hygiène

 

-  Un gène de l’obésité ou de la minceur

Un gène régulant l’accumulation de graisses dans l’organisme aurait été conservé au cours de l’évolution : présent chez l’homme, ce gène appelé Adp (pour adipose) contrôle le stockage de gras chez le nématode, la mouche drosophile ou la souris. Et probablement chez l’être humain.

Les animaux sont plutôt maigres, normaux ou enrobés en fonction des variantes du gène Adp. Celui-ci ne fonctionne pas sur un mode Marche/Arrêt mais plutôt comme un curseur que l’on déplace, précisent les chercheurs. D’un point de vue évolutif, l’existence de toutes ces variantes au sein d’une population multiplie les chances de survie en fonction de l’environnement.

-  Le tour de taille essentiel pour la santé

Taux de cholestérol et de triglycérides augmentés, tension artérielle élevée, glycémie à jeun perturbée : tels sont les facteurs associés à une "brioche" exacerbée et qui génèrent un risque de pathologies cardiovasculaires majoré.

Selon l’OMS, pour être dans la norme, un tour de taille ne doit pas dépasser 80cm chez la femme et 94cm chez l’homme.

-  L’activité physique modérée plus bénéfique que l’exercice intense

Faire un peu d’activité physique d’intensité modérée pourrait être plus bénéfique pour la santé cardiaque que faire beaucoup d’exercice intense.

Selon les résultats, les taux de LDL (« mauvais cholestérol ») et de triglycérides ont diminué chez les participants du groupe qui pratiquait « un peu d’exercice modéré ». Les chercheurs n’ont pas observé cet effet chez les sujets des deux groupes qui pratiquaient des exercices plus vigoureux.

En moyenne, les sujets qui faisaient beaucoup d’exercice vigoureux couraient environ 32 km par semaine et ceux qui faisaient un « peu d’exercice vigoureux », 12 km par semaine. Les participants du groupe « un peu d’exercice modéré » marchaient environ 12 km par semaine, soit l’équivalent de deux marches quotidiennes d’environ 15 minutes chacune, accomplies d’un pas vaillant.

 

-  Alcool et cancer

-  le risque de cancer de l’oesophage double presque dans les deux premières années suivant l’arrêt de la consommation d’alcool, soit une forte hausse dont la cause pourrait être le fait que certains individus n’arrêtent de boire que lorsqu’ils manifestent déjà les symptômes de la maladie. Le risque diminue toutefois rapidement et significativement après de longues périodes d’abstention.

-  le risque de cancer de la tête et du cou ne diminue significativement qu’après 10 ans d’arrêt.

-  Après plus de 20 ans d’arrêt, les risques de cancers étaient similaires à ceux observés chez les individus n’ayant jamais bu d’alcool.

Les chercheurs notent que l’effet cardioprotecteur de l’alcool est largement connu, en raison de la publicité dont il a été l’objet, contrairement à ses effets en terme de cancers.

-  Détecter les cancers du poumon

Un nouveau test ("Panacea test"), détectant une protéine HAAH pourrait permettre de détecter les cancers du poumon à leurs premiers stades. On se demande si c’est utile dès lors qu’on ne sait pas tellement bien soigner ces cancers encore...

-  Soigner le cancer en inoculant des globules blancs plus résistants

Parmi les causes des cancers, il y a un déficit du système immunitaire supposé éliminer les cellules cancéreuses, déficit qui pourrait être traité en inoculant des globules blancs plus efficaces mais la tolérance à un tel traitement n’a rien d’évident (contrairement aux globules rouges, les macrophages ne sont pas dépourvus de noyaux et portent donc un matériel génétique différent de celui du receveur).

Des chercheurs américains proposent d’isoler ceux qui ont les globules blancs, ou leucocytes, les plus résistants au cancer afin de les injecter chez ceux qui luttent contre les tumeurs.

Cependant beaucoup d’incertitudes demeurent sur la possibilité de transférer ces leucocytes d’un donneur à un malade, même après examen de la compatibilité des deux personnes. Ces cellules seront en effet injectées chez un individu dont le système immunitaire est affaibli et les effets de leur prolifération peuvent être néfastes.

-  Un micro ARN favoriserait les métastases

Dans un papier publié en ligne par la revue Nature, des chercheurs américains expliquent qu’un micro ARN (microARN) particulier est impliqué dans la capacité des tumeurs du sein à essaimer ailleurs dans l’organisme.

Pour fabriquer une protéine, les instructions contenues dans l’ADN sont copiées et transportées par un ARN messager. Les miARN peuvent se lier à un ARN messager et stopper sa mission. Ils régulent ainsi l’expression des gènes. De précédents travaux ont montré que certains microARN entraînaient une division rapide et incontrôlée des cellules, favorisant la formation de tumeurs.

Ils ont ainsi constaté que l’une de ces petites molécules, miARN-10b, était présente en plus grande quantité chez des cellules cancéreuses métastasées.

Les mécanismes par lesquels le miARN-10b induit la métastase ne sont pas encore clairs. L’une de ses cibles serait le gène HoxD10, précisent Weinberg et ses collègues, qui freine le processus de migration des cellules cancéreuses.

-  Mise au point de nanotubes radioactifs pour traiter le cancer

Tout cela semble un peu prématuré, en tout cas largement à tester...

Afin de mesurer le taux de rétention in vitro de ces composés radioactifs, les chercheurs ont immergé les nanotubes dans du sérum sanguin et dans un tampon phosphate salin (PBS). Les mesures ont révélé des taux de rétention respectifs de 85-93% de 72-85%, taux théoriquement suffisamment élevés pour détruire efficacement les cellules cancéreuses. A l’avenir, les chercheurs souhaitent tester l’efficacité des nanotubes radioactifs in vivo en attachant à leur surface des anticorps spécifiques qui permettront de cibler les tumeurs cancéreuses.

-  Une enzyme contre les biscuits cancérigènes

Ce n’est pas très rassurant d’apprendre que les biscuits seraient cancérigènes et que ce n’est pas pour demain qu’ils pourront l’être un peu moins !

Il est connu depuis 2002 que la poussière cancérigène d’acrylamide se trouve dans certains biscuits et certaines chips. L’acrylamide (NH2-CO-CH=CH2) se forme lors de la cuisson ou la friture des aliments, par la réaction de l’asparagine, un acide aminé.

L’entreprise néerlandaise DSM a découvert une enzyme, PreventASe, capable de réduire la teneur en acrylamide de certains aliments. Cette enzyme transforme le précurseur asparagine en un autre acide aminé, l’aspartate, et permet ainsi de réduire de 90% la formation d’acrylamide. Ajoutée pendant la préparation de la pâte, l’enzyme reste stable lors des étapes de la réaction et ne nécessite pas d’eau. Pendant la cuisson, à haute température, l’enzyme est inactive. De plus, elle ne modifie pas les caractéristiques du produit comme le goût.

DSM lance actuellement la production à grande échelle de cette enzyme. Mais la fabrication de biscuits à faible teneur en acrylamide n’est pas encore envisagée.

-  Brocoli et choux-fleurs contre le cancer de la prostate

On savait déjà que le brocoli était un des meilleurs aliments anti-cancers (même s’il ne faut pas en abuser car trop de choux peut provoquer un goitre), mais son action serait surtout significative contre le cancer de la prostate.

Les hommes qui mangeaient du brocoli plus d’une fois par semaine auraient réduit leur risque d’être atteints de la forme avancée du cancer de la prostate de 45 %, comparativement à ceux qui en consommaient moins d’une fois par mois. Cette proportion était de 52 % pour ceux qui mangeaient du chou-fleur plus d’une fois par semaine.

A noter que pour lutter contre l’hypertrophie de la prostate, qui est un effet du vieillissement qui n’a rien à voir avec le cancer de la prostate, il faudrait boire moins d’alcool, faire de l’exercice et contrôler mieux son diabète (Sciences et Avenir, p53).

-  La vitamine C contre le cancer

Linus pauling avait donc raison, même s’il est mort d’un cancer malgré les hautes doses de vitamince C qu’il prenait, mais à 93 ans tout de même... Les expériences ont été réalisées ici avec de la vitamine C ou de l’acétylcystéine (attention, un excès de vitamine C peut poser des problèmes rénaux pour certains).

Ils ont découvert que les deux antioxydants réduisaient la quantité d’une protéine dans les cellules cancéreuses, la protéine HIF-1. Or celle-ci aide les cellules en manque d’oxygène à convertir quand même les sucres en énergie. HIF-1 permet ainsi aux tumeurs de construire de nouveaux vaisseaux sanguins pour aller chercher de l’oxygène. Pour fonctionner, la protéine HIF-1 a besoin de radicaux libres, expliquent les chercheurs. C’est là que les antioxydants ont un rôle à jouer : en diminuant la quantité de radicaux libres disponibles ils freinent l’activité de la protéine HIF-1 et ralentissent la progression des tumeurs.

-  Consommer de la vitamine D augmenterait la durée de vie
Le Monde, 12.09

La consommation de vitamine D semble réduire les risques de mortalité prématurée due notamment à des affections cancéreuses.

La consommation quotidienne de vitamine D (à hauteur de 528 unités internationales) durant près de 6 ans réduit de 7 % le risque de mortalité.

-  David Servan-Schreiber : « Comment je combats le cancer »
Le Nouvel Observateur numéro 2238

Le Nouvel Observateur se penche sur le nouveau livre de David Servan-Schreiber (« Anticancer », chez Robert Laffont), dans lequel il « raconte sa lutte contre la maladie (une tumeur au cerveau), son enquête pour en comprendre les mécanismes et les méthodes qui l’ont aidé à surmonter l’épreuve ».

David Servan-Schreiber « a rencontré les plus grands cancérologues ou scientifiques, écumé les conférences, épluché la littérature scientifique. Il a voulu comprendre « comment naissent les tumeurs », et surtout comment on peut leur résister ».

Sans jamais remettre en question la médecine conventionnelle, qui lui a sauvé la vie, et après avoir testé sur lui-même les recommandations issues de la recherche de pointe, David Servan-Schreiber explique comment nous pouvons stimuler nos défenses naturelles contre ce fléau.

Le cancer est plus une « affaire de style de vie que de gènes. Et si nous avons tous des cellules cancéreuses en nous, nous avons aussi un corps fait pour les détecter et les contenir ».

La génétique joue très peu. On estime à seulement 15 % le rôle des gènes, et à 85 % l’influence de l’environnement, des habitudes alimentaires, des stress psychologiques.

David Servan-Schreiber conseille en outre de « ne pas croire aux recettes miracles, qui n’existent pas. Ne pas attendre que l’Etat, les industriels de l’alimentaire ou les laboratoires pharmaceutiques fassent leur révolution. Agir soi-même, se prendre en main, jouer sur tous les tableaux, ne renoncer ni aux avancées formidables de la médecine conventionnelle ni aux bienfaits des défenses naturelles du corps. Et de l’esprit ! (...) On connaît maintenant le poids des traumatismes psychologiques, des deuils et du stress - ou au contraire l’effet parfois étonnant d’une technique de relaxation ou de méditation - sur l’évolution des tumeurs ».

-  Réduire le stress
Les Echos, 25.09

Le poids du stress sur la santé est sous-estimé mais c’est la rançon d’une compétition effrénée et ne se règlera pas avec de bons sentiments...

Selon Olivier Galamand, médecin du travail chez IBM, « pour l’instant, les entreprises minimisent les risques psycho-sociaux, car ils n’ont pas de retombées directes sur leurs finances. En reconnaissant le stress comme maladie professionnelle, leurs cotisations à la branche accidents du travail et maladies professionnelles risquent de sensiblement augmenter. Elles vont alors se rendre compte des coûts directs de cette pathologie et être plus vigilantes sur les conditions de travail ».

-  Risque génétique, stress et déclin mnésique

Au cours de cette étude, les investigateurs analysèrent le génotype et le niveau de stress chronique chez 91 sujets âgés en bonne santé (moyenne d’âge 78,8 ans). De façon probante, les performances de mémorisation furent meilleures pour ceux qui avaient enduré un faible niveau de stress ou qui ne présentaient pas le facteur risque APOE-a4. Plus précisément, la détérioration mnésique était d’autant plus importante que les individus avaient connu de hauts niveaux de stress et qu’ils étaient positifs pour l’APOE-a4.

D’après Guerry Peavy, le plus important dans ces résultats tient au fait que pour certains aspects de la mémoire, l’effet nuisible du stress élevé ne s’exerce que chez les sujets porteurs de l’allèle APOE-a4.

-  Alzheimer : les aidants ont besoin d’aide
Le journal santé, vendredi 27 septembre

Ce n’est pas vraiment une nouveauté et ce n’est pas vraiment que la maladie d’Alzheimer soit contagieuse mais que d’avoir un malade à charge est un grand facteur de stress, jusqu’à diminuer les télomères et donc l’espérance de vie...

Les ravages d’Alzheimer ne touchent pas uniquement les personnes atteintes par la maladie. Les proches accompagnant ces malades peuvent également en être victimes. De précédentes études avaient révélé que s’occuper d’une personne victime d’Alzheimer favorisait le processus inflammatoire et affaiblissait le système immunitaire. Des chercheurs américains de l’institut du vieillissement de Baltimore ont recruté 41 personnes accompagnant un proche atteint par cette pathologie, dont ils ont comparé les chromosomes à 41 volontaires sans malade à charge. Résultats : les chercheurs ont découvert que les télomères des aidants étaient significativement plus courts. Cette observation a été faite sur les cellules du système immunitaire mais il y a fort à penser que les mêmes modifications interviennent sur les autres cellules de l’organisme. D’après les auteurs de l’étude, le raccourcissement des télomères se traduirait par une espérance de vie réduite de 4 à 8 ans chez les personnes prenant soin d’un malade d’Alzheimer. Une telle révélation pourrait inciter les responsables du plan Alzheimer à prendre en compte le cas des accompagnants dans leurs projets de recherche et de prise en charge.

-  La solitude mauvaise pour le système immunitaire

Voilà une explication de la surmortalité des personnes isolées. Bien sûr ce n’est pas le seul facteur, la moindre production de neurones et la plus grande incidence de la dépression jouent un rôle au moins aussi grand mais il est intéressant de voir que la solitude favorise les maladies auto-immunes, comme si les personnes isolées se détruisaient elles-mêmes. L’explication pourrait tenir simplement au fait qu’en présence des autres il faut se défendre plus contre les infections, ce qui équilibre le système immunitaire et le détourne des maladies auto-immunes.

L’équipe (qui comportait des scientifiques de l’UCLA et de l’université de Chicago) s’est focalisée sur l’expression du génome des globules blancs, témoignage de l’activité du système immunitaire. Les chercheurs ont suivi 209 gènes pour vérifier de quelle manière ils étaient lus, ou « exprimés », c’est-à-dire traduits en protéines. Le résultat est éloquent : tous ces gènes sont différemment utilisés par les deux groupes. Pour 78 d’entre eux, leur activité est surexprimée chez les solitaires, ce qui signifie que ces gènes, plus souvent lus, servent à synthétiser davantage de protéines. A l’inverse, 131 gènes sont sous-exprimés.

Parmi les gènes surexprimés chez les solitaires, beaucoup sont impliqués dans l’activation du système immunitaire et dans les réactions inflammatoires. Dans les 131 dont l’activité est moindre, on trouve des gènes intervenant dans la défense contre les virus et les anticorps.

-  Les mitochondries clés du vieillissement

Il se confirme que les mitochondries sont la clé du vieillissement et des maladies dégénératives (Alzheimer, Parkinson, problèmes cardiaques ou diabète de type 2). Stimulé notamment par le resveratrol, expliquant les bienfaits du vin, le rôle du gène SIRT1 dans les restrictions caloriques avait déjà été mis en évidence à la fois dans la prolongation de la vie et la lutte contre le diabète mais ce n’était que la partie immergée de l’iceberg de différents gènes SIRT qui peuvent empêcher les cellules de mourir (avec des risques de cancer ?). Je trouve fascinant pour ma part que notre longévité dépende largement de bactéries symbiotiques qui contrôlent nos cellules en leur fournissant leur énergie.

Amplifier des niveaux de l’enzyme de NAMPT augmente des quantités d’un produit chimique connu sous le nom de NAD, un cofacteur principal dans beaucoup de réactions métaboliques. Le NAD est également crucial pour la fonction des enzymes SIRT, qui ont été précédemment liés à la longévité. (Voir « la fontaine de la santé »). La survie des cellules semble dépendre surtout de deux de ces enzymes : SIRT3 et SIRT4, qui pourraient fournir de nouvelles cibles pour des médicaments contre les maladies du vieillissement, indique Sinclair. « Si vous pouvez trouver une drogue qui active l’enzyme SIRT3, vous pouvez maintenir des cellules vivantes alors qu’elles mourraient autrement, comme dans les maladies neurodégéneratives. »

-  L’ubiquinol, la forme antioxydante de la CoQ10

Ce serait une des clés pour ralentir le vieillisement et la perte dénergie des mitochondries.

Chez un homme en bonne santé, plus de 90 % de la coenzyme Q10 existe dans sa forme réduite appelée ubiquinol. La recherche montre que c’est également cette dernière qui neutralise le plus efficacement les radicaux libres et augmente la capacité de production d’énergie mitochondriale. L’ubiquinol a également une biodisponibilité bien plus élevée que la CoQ10 que l’on trouvait classiquement jusqu’à présent dans les suppléments nutritionnels.

-  Les oeufs protègent la peau

Des scientifiques de la Clinique Universitaire de la Charité viennent de montrer que les oeufs de poules élevées en plein champ peuvent protéger la peau contre le vieillissement et les cancers.

Cette propriété, ils la doivent aux caroténoïdes, pigments orangés retrouvés dans le jaune d’oeuf et deux fois plus représentés chez les poules de plein air que les poules de batterie.

Ces molécules sont particulièrement importantes puisqu’elles ont un grand pouvoir antioxydant : elles neutralisent les radicaux libres, ces espèces responsables du vieillissement cellulaire et parfois de cancers, notamment de la peau.

-  Le café bon pour la santé
La croix, 10/09

Le « petit noir » réduirait chez le sujet sain la possibilité qu’il contracte la maladie de Parkinson, le diabète, la cirrhose ou le cancer.

Les vertus sanitaires du café seraient dues à la présence de polyphénols, d’acide chlorogénique et de mélanoïdes. En piégeant les radicaux libres, ces trois substances exerceraient des propriétés antioxydantes et protègeraient les cellules.

Le café recèle une trentaine de substances potentiellement cancérigènes. Il n’empêche. Aucune étude n’est parvenue à établir un lien entre consommation de café et l’apparition de cancers.

Pour être totalement convaincantes, les futures études épidémiologiques auront intérêt à bien préciser la forme du café (long, court, sucré, décaféiné) et sa nature génétique, le robusta étant bien plus riche en caféine et en antioxydants que l’arabica.

 

-  Le recul de la mortalité infantile mondiale

Pour la première fois depuis que des statistiques mondiales existent, le nombre d’enfants décédés avant l’âge de cinq ans est inférieur à 10 millions : il est précisément de 9,7 millions par an contre 13 millions en 1990. Le chiffre était de 20 millions au début des années 60 pour une population mondiale moins importante.

Ces progrès s’expliquent par la mise en place de mesures simples comme la vaccination contre la varicelle, la généralisation de l’allaitement, la prise de vitamine A pour renforcer le système immunitaire des enfants et l’usage de moustiquaires imprégnées pour se protéger du paludisme.

En Chine elle est passée de 45 morts pour 1.000 naissances en 1990 à 24 pour mille en 2005 ; en Inde de 115 pour mille à 76 pour mille.

Aujourd’hui, 50% des décès d’enfants avant cinq ans surviennent en Afrique sub-saharienne.

-  Des additifs alimentaires suspectés d’accroître l’hyperactivité infantile
Le Monde 06.09.07

C’est surtout l’acide benzoïque (E211) qui pourrait favoriser l’hyperactivité de l’enfant.

"L’acide benzoïque pourrait intervenir indirectement en perturbant la production d’acides aminés essentiels et les mécanismes dopaminergiques".

-  L’ecstasy fait vieillir !

Bien que l’ecstasy soit classée comme une des drogues les moins dangereuse, sa neurotoxicité est connue depuis longtemps pourtant et cela fait presque 10 ans déjà que je relayais le conseil de prendre du prozac après pour s’en protéger. Rien de neuf donc, sauf d’avoir découvert que ce sont les mitochondries qui sont touchées, ce qui favoriserait les maladies neuro-dégénératives.

Nous pensons que le mécanisme que nous avons mis en lumière est de nature à pouvoir induire chez les consommateurs de cette substance psychotrope un vieillissement accéléré du système nerveux central et, par-là même, un risque accru de survenue de pathologies neuro-dégénératives, au premier rang desquelles la maladie d’Alzheimer."

La MDMA induit une destruction mitochondriale en prenant pour cible une structure - la monoamine oxydase B - qui est présente dans ces organites.

Certains travaux récents laissent en effet penser que l’antidépresseur Prozac pourrait être proposé comme agent protecteur contre ce type de toxicité neurologique.

 

-  Détection du H5N1 : un laboratoire dans une goutte

En moins de 30 minutes un médecin équipé d’un petit laboratoire portatif pourra détecter la présence du virus H5N1 de la grippe aviaire et réagir très vite en cas d’épidémie, selon des chercheurs de Singapour qui ont mis au point un ‘’laboratoire sur puce’’ capable de repérer rapidement la présence d’un ARN viral.

Pipper et ses collègues ajoutent que leur dispositif peut être élargi à d’autres virus (SRAS, VIH, hépatite B). Ils estiment aussi qu’il sera 40 à 100 fois moins coûteux que les tests actuels et qu’il pourra être mis à la disposition des chercheurs et des médecins dans les pays en développement les plus menacés par la grippe aviaire. Cependant jusqu’à présent aucun ‘’laboratoire sur puce’’ de ce type n’a été produit à l’échelle industrielle.

-  Transformée en ordinateur, la cellule analysera sa propre santé
Le Monde 10/09

Fabriquer des ordinateurs avec les cellules vivantes. Tel est le projet que Kobi Benenson, biologiste et informaticien israélien, mène au Centre pour les systèmes biologiques de l’université Harvard, aux Etats-Unis. Récemment, il a publié avec son équipe, dans la revue Nature Biotechnology, ses résultats sur des cellules rénales humaines. D’ici quelques années, des milliards d’ordinateurs biologiques pourraient donner des informations précieuses sur le fonctionnement des cellules du corps humain en détectant individuellement celles qui sont pathologiques.

"Nos ordinateurs sont fabriqués par les cellules elles-mêmes, explique Kobi Benenson. Tout ce que nous devons faire, c’est leur fournir des molécules d’ADN qui transportent, en quelque sorte, les "gènes" de l’ordinateur." Les chercheurs sont parvenus, pour l’instant in vitro, à tester ce principe de fonctionnement. Normalement, des molécules d’ADN données déclenchent la production de protéines correspondantes. Leur introduction dans une cellule permet ainsi de déterminer, en fonction de la réponse obtenue, si la machine cellulaire fonctionne correctement ou bien si, par exemple, elle contient une mutation génétique. La cellule devient alors un capteur d’informations sur son propre état. Une telle mesure de la santé cellulaire pourra servir, à terme, à déclencher des actions comme la destruction de cellules malades ou leur marquage en vue d’un traitement ultérieur.

Les chercheurs proposent donc un diagnostic qui ne repose plus sur des informations indirectes comme la fièvre, les maux de tête ou les frissons, mais sur une auscultation interne de l’organisme. "Avec des maladies comme le cancer, certaines cellules peuvent être "malades" tandis que d’autres restent saines, note Kobi Benenson. D’où l’intérêt d’un test individuel. Les médecins humains ne peuvent pas ausculter chacune des cellules qui composent le corps humain mais nos "médecins" moléculaires, eux, en sont capables." Dans les cellules rénales, les chercheurs ont affiné leur diagnostic en jouant sur différentes combinaisons de symptômes.

Si la cellule se transforme en véritable ordinateur, pourra-t-on l’utiliser comme ses homologues électroniques ? "Les ordinateurs à ADN pourraient, un jour, rivaliser avec les puces en silicium. Toutefois, ces applications dépassent le cadre de notre travail actuel, qui se concentre sur le biomédical."

-  Les antibiotiques produisent des radicaux libres

Le mécanisme d’action de tous les antibiotiques serait toujours le même : la production de radicaux libres "hydroxyles" qui tuent les bactéries. Qu’en est-il du reste du corps ? Ne serait-ce pas une raison de plus d’éviter les antibiotiques ?

-  Les propriétés anti-microbiennes des nanotubes

Ce qui est présenté comme une propriété positive des nanotubes de carbone semble plutôt une propriété négative puisqu’ils perforeraient les cellules ?

Un test simple a été effectué. Les chercheurs ont enfermé des bactéries bien connues, les E. coli, dans un incubateur avec des SWCNTs et ce pendant une heure environ. A leur surprise, les bactéries furent tuées mais seulement dans le cas d’un contact direct avec les nanotubes, ce qui fait penser aux chercheurs que ce sont les dommages causés par perforation des membranes par les nanotubes qui sont responsables de la mort des E.coli.

-  Des nanotubes de carbones pour des prothèses

Il s’agit de faire pousser sur une prothèse en titanium des nanotubes de carbones en rendant le métal légèrement poreux puis en applicant un courant qui va amener les nanotubes de carbone à se loger dans chaque pore. Une fois implantée, le courant électrique transmis par la prothèse permet de déterminer le type de tissu à son contact : os, tissu inflammatoire de cicatrice, ou biofilm bactérien dangereux.

« Non seulement les nanotubes servent de sondes, mais ils ont également favorisé la croissance d’os, et nous n’avions pas compté voir cela du tout ».

 

Technologie


biotechnologies, énergie, nanotechnologies, robotique, informatique, économie

 

-  De la glace chaude !

Il est déjà très étonnant d’arriver à faire de la glace chaude mais cela pourrait être utilisé pour des implants cardiaques !

Sur l’image ci-dessus, en rouge et blanc se sont les molécules d’eau, en bleu celles de sodium et enfin en vert celles du diamant.

En faisant une simulation numérique de dynamique moléculaire. Alexander D. Wissner-Gross et Efthimios Kaxiras ont modélisé ce qui se passerait si l’on recouvrait d’abord la surface d’un diamant avec des ions de sodium puis avec une couche de glace. D’après les calculs informatiques, l’eau resterait à l’état de glace sans aucun problème à une température de 42°C et pourrait même le rester au-delà de son point d’ébullition dans certaines conditions.

A l’origine, il s’agissait d’une étude de plus sur les nombreuses applications des films de diamants artificiels, que ce soit pour des implants médicaux ou des cellules solaires. L’addition d’une couche de glace chaude permet d’améliorer les performances de tels implants, non seulement en réduisant le taux d’usure des jonctions de certaines prothèses que l’on peut ainsi réaliser, mais aussi parce qu’elle inhibe la croissance des protéines sur les prothèses. De même, des films en diamants, à la base de certaines cellules solaires, pourraient avec un telle couche de glace devenir suffisamment performants pour se passer de piles au lithium pour certains dispositifs

-  Des porcs transgéniques herbivores

Il ne reste plus qu’à faire des hommes génétiquement modifiés pour ne plus manger de porc...

Pour que la croissance des porcs soit meilleure, on ajoute en général du phosphore à leur alimentation. Celui-ci est rejeté dans le fumier de ces animaux. Or, c’est ce rejet de phosphore qui constitue le facteur principal de pollution de la production porcine en provoquant l’eutrophisation des lacs. Deux enzymes spécifiques, la phytase, pour mieux absorber le phosphore contenu dans la nourriture, et la cellulase, pour digérer la cellulose, ont été successivement implantés dans ces cochons. Ils sont ainsi devenus totalement herbivores et ne mangent plus que des plantes ou des végétaux. Leur fumier est alors sans odeur et contient très peu de produits polluants.

 

-  Fusion contrôlée : après ITER voilà HiPER !

On sait que le projet ITER est une impasse (en particulier par l’impossibilité de trouver un matériau qui résiste aux neutrons rapides). Hiper ne vaut pas beaucoup mieux, notamment parce qu’il a besoin de tritium trop rare, mais il pourrait aboutir plus vite quand même (20 ans ?). La piste de la Z-machine semble bien plus prometteuse, pouvant utiliser du bore (beaucoup plus abondant), même si ce n’est pas pour tout de suite. L’énergie de fusion n’est pas pour demain, la seule énergie abondante, c’est le solaire...

L’Union Européenne vient d’approuver un plan de financement britannique de 500 millions de livres sterling (près de 740 millions d’euros) pour un programme de recherche consacré à la fusion nucléaire mais suivant la voie dite de la fusion inertielle par laser.

Le projet HiPER, pour High Power laser Energy Research, veut renouer avec l’axe de recherches des années 1970 pendant lesquelles les premiers travaux vraiment importants sur la fusion par laser ont été conduits.

On enferme dans une toute petite bille de quelques millimètres de diamètre un mélange de tritium (T) et de deutérium (D) et on soumet celle-ci aux feux croisés de plusieurs impulsions laser longues et très énergétiques afin d’exercer une pression uniforme sur toute la surface de la bille. Par ailleurs, la température élevée atteinte vaporise le matériel qui en s’échappant dans toutes les directions de la bille ajoute une pression isotrope supplémentaire.

Le résultat est l’obtention d’une densité de 300 gr/cm3 et une température 100 millions de degrés Celsius. La réaction de fusion, ou encore d’ignition, peut alors s’enclencher et tout le problème est d’obtenir plus d’énergie par ce moyen que n’en consomme l’allumage de la réaction de fusion.

-  Une pile à combustible à hydrazine, sans platine

Une des nouvelles les plus importantes sans doute : une pile à combustible très bon marché puisque le fait de se passer de platine baisse de 2700€ le coût de la PAC ! L’hydrazine pourrait donc concurrencer le méthanol pour remplacer l’hydrogène trop difficile à stocker.

Le constructeur automobile Daihatsu a développé une pile à combustible fonctionnant à l’hydrazine (N2H4) et ne nécessitant pas de métaux nobles comme le platine. Ce nouveau modèle peut fournir une puissance équivalente aux piles à combustibles classiques. Le développement a été réalisé en collaboration avec l’AIST (Advanced Industrial Science and Technology) au Japon.

Le combustible utilisé est l’hydrate d’hydrazine (N2H4,H2O) en solution aqueuse à 5%. La réaction à l’anode produit du N2 et de l’eau uniquement (pas d’émission de CO2). La puissance maximale fournie est de 500 mW/cm2 selon Daihatsu, équivalent des valeurs des PEMFC classiques. Théoriquement, cette puissance peut augmenter puisque la force électromotrice de la pile à l’hydrazine est plus de 25% supérieure à celles au H2 : 1,56V pour la première contre 1,23V pour la deuxième.

Après analyse, il s’est avéré que les métaux qui conviennent le mieux comme catalyseurs sont le nickel à l’anode (face combustible) et le cobalt à la cathode (face oxygène). L’utilisation de ces métaux revient à 500 yens environ par véhicule, contre 400.000 à 500.000 yens pour le platine (3 euros contre 2700 euros).

Dans les piles à combustibles à membrane d’échange de cations (PEMFC ) classiques, la réaction qui a lieu entre le H2 et le O2 se fait en milieu très acide et c’est pourquoi le platine, qui a une très grande résistance à la corrosion, est utilisé. Ici, la membrane d’échange est de type anionique, faisant circuler les ions OH- en milieu alcalin et permettant ainsi l’utilisation de métaux non nobles comme le cobalt ou le nickel.

-  De l’hydrogène à partir d’aluminium

Je suis un peu dubitatif sur le caractère opérationnel de cette production d’hydrogène à partir d’aluminium et surtout des arguments pour prétendre que ce serait plus efficace que le méthanol (le fait que le méthanol dégage du co2 n’étant pas un problème si le méthanol n’est pas produit à partir du méthane mais recycle du co2, servant juste à fixer l’hydrogène, encore plus lorsqu’on recycle ainsi du méthane "naturel" qui se serait dégagé dans l’atmosphère). Cela reste intéressant et à tester mais plutôt adapté aux productions faibles d’électricité, malgré ce que prétend l’article.

Il s’agit de faire pleuvoir de l’eau sur de l’aluminium, ce qui provoque une réaction chimique spontanée produisant de l’hydrogène gazeux (H2) et de l’oxyde d’aluminium (Al2O3). Mais cette méthode simple atteint vite une limite car l’oxyde forme rapidement une couche recouvrant l’aluminium et interrompant la réaction. Le chimiste américain empêche la formation de cette couche d’aluminate en ajoutant du gallium.

-  De l’hydrogène par micro-ondes à partir d’eau de mer

Ce n’est pas a priori très intéressant puisque ce n’est qu’une décomposition de l’eau salée par micro-ondes, un peu moins efficace énergétiquement (76%) que l’électrolyse mais qui pourrait devenir plus efficace... On peut voir une vidéo d’un tube rempli d’eau de mer qui s’enflamme.

 


-  Le solaire thermique plus efficace pour stocker l’énergie

Le talon d’Achille du solaire, c’est l’irrégularité de la production d’énergie qui dépend de l’ensoleillement, et la nécessité de la stocker, dans des batteries très polluantes quand il s’agit d’électricité. Le stockage de chaleur serait bien plus efficient écologiquement. Des centrales solaires thermiques pourraient ainsi fournir 90% de l’énergie électrique consommée à un coût compétitif (ici avec un système de miroirs ordinaires pilotés par ordinateur). L’idée reçue que seul le nucléaire peut remplacer les centrales thermiques est absolument injustifiée, d’autant que l’uranium est rare alors que le soleil n’est pas avare de ses bienfaits. Le temps du solaire serait-il enfin venu ?

-  Construction d’une tour solaire thermique unique en Allemagne

On ne voit pas bien en quoi cette tour solaire est unique au monde car elle ressemble à plusieurs centrales existantes (Almeria, Font-Romeu), on suppose que c’est au niveau du pilotage informatique...

Couvrant une surface au sol d’environ 16 ha (l’équivalent de 3 terrains de football) et totalisant une surface réfléchissante de près de 20.000 mètres carrés, l’installation expérimentale se présente sous la forme de 2.500 héliostats qui renvoient et concentrent le rayonnement solaire sur un récepteur de 22 mètres carrés placé au sommet d’une tour de 50 mètres de haut. Ce récepteur est constitué d’éléments céramiques poreux. En circulant à travers ces éléments céramiques, l’air environnant se réchauffe jusqu’à atteindre une température d’environ 700°C. Cette chaleur est ensuite transférée à une chaudière de récupération, où l’eau qu’elle contient est alors transformée en vapeur. Cette vapeur actionne une turbine, convertissant ainsi l’énergie thermique en courant électrique. En fonctionnement nominal, la centrale fournira une puissance de 1,5MWe. Un accumulateur de chaleur servira à palier aux aléas du rayonnement solaire (lors du passage de nuages) pour assurer une production d’électricité moins fluctuante. Au total, 1.000MWhe devraient ainsi être produits chaque année et injectés sur le réseau électrique.

-  Le retour du concept de centrale solaire spatiale

Ces dernières années, on a fait des progrès techniques immenses dans ce domaine, a dit M. Mankins. Par exemple, le rendement des centrales solaires et de la transmission de l’électricité sans fil a plus que quadruplé, ce qui permet de réduire fortement la taille et le coût des centrales solaires.

Un petit projet de démonstration d’une centrale solaire spatiale pourrait contribuer à convaincre les sceptiques et à fournir de bonnes justifications sur le plan politique pour de tels investissements. M. Mankins estime probable que Washington reprenne l’idée de centrales solaires spatiales grâce à la multitude de ses avantages et de ses applications, dont l’une serait de fournir de l’énergie aux engins spatiaux et aux installations d’exploitation commerciale des ressources spatiale.

-  Amélioration du rendement photovoltaïque

On ne peut plus simple (et ce n’est pas si extraordinaire)...

Des scientifiques de l’Institut Fraunhofer de l’énergie solaire (ISE) en Allemagne sont parvenus à améliorer le rendement des cellules photovoltaïques (PV) multicristallines en soudant les connexions électriques sur sa face arrière. Le concept consiste à réduire le nombre de contacts électriques sur la face avant de la cellule en en transférant une partie sur sa face arrière.

"La diminution (de près de moitié) de la métallisation de la face avant de la cellule permet de réduire la surface masquée donc d’augmenter la quantité d’électricité produite et d’accroître significativement le rendement de la cellule", explique Ralf Preu, Directeur de département à l’Institut ISE. Les premières cellules MWT sorties de l’installation pilote de montage de l’institut atteignent un rendement supérieur à 16%, soit près de 0,5% de plus que les cellules PV standards obtenues par sérigraphie à partir du même matériau multicristallin.

-  Le photovoltaïque enfin rentable

Une technologie en fine couche à base de séléniure de cuivre-indium-gallium (CIGS) se révèlerait beaucoup moins chère que les cellules à base de silicium. Il y a d’autres annonces comme le photovoltaïque micromorphe. L’énergie solaire commence à être une technologie mature (attendre 2008 tout de même...).

 

-  Produire du courant électrique à partir de la chaleur du corps humain

"La production d’électricité à partir de chaleur peut se faire partout où intervient une différence de température : que ce soit à la surface du corps humain, sur les systèmes de chauffage pour calculer les coûts de chauffage, dans les climatiseurs, ou encore pour contrôler la chaîne du froid dans le transport d’aliments réfrigérés".

-  Améliorer la production d’éthanol avec des aimants

Cette amélioration du rendement de la production d’éthanol grâce à des aimants ne fait pas des biocarburants de meilleures solutions au réchauffement climatique pour autant mais prouve bien l’influence des ondes électro-magnétiques sur les mécanismes biologiques...

Les chercheurs à l’université de Campinas, au Brésil, ont amélioré le rendement de la production d’éthanol de 17% tout en économisant deux heures de fermentation sur les 15 heures habituelles, simplement en ajoutant six aimants. « Le temps de fermentation peut être réduit, et par conséquent, le coût de production peut également être réduit, ».

-  Biogaz : de l’or noir tiré de nos poubelles pour les bus lillois

Le seul biocraburant acceptable est le biocarburant produit localement avec les déchets agricoles, domestiques ou forestiers.

"Utiliser une ressource locale pour la flotte locale", tels sont les termes employés par Eric Quiquet, vice-président de la Communauté urbaine de Lille (CUDL) chargé des transports urbains, lors d’une visite au Centre de Valorisation organique (CVO) à Sequedin (Nord), qui a été officiellement inauguré ce jeudi.

Cette déclaration pourrait devenir la devise du Centre, qui vient d’ouvrir officiellement cette véritable usine de traitement des déchets organiques triés en les transformant en biogaz destiné à alimenter les services de transports en commun de l’agglomération.

-  La faim, la bagnole, le blé et nous
Fabrice Nicolino, Fayard

Les biocarburants, arme de guerre et de mort, sont d’ores et déjà une tragédie planétaire.

Le déferlement de plantations industrielles - palmier à huile, soja, canne à sucre - s’attaque aux ultimes forêts tropicales de la planète. L’Indonésie trucide ses derniers orangs-outans en faveur des biocarburants, sur des millions d’hectares. Des millions d’hectares. Le bassin du Congo, en Afrique, est gravement touché. L’Amazonie - le cerrado comme la forêt -, la Patagonie et sa pampa, se couvrent de soja, de canne à sucre industrielle et même d’arbres transgéniques, plus mous que ceux que nous connaissons. Pour en extraire plus facilement la cellulose, matière première de choix pour les biocarburants.

Plus dramatique que tout : la faim menace des dizaines de millions d’humains supplémentaires. Par une sinistre contagion, les prix des denrées alimentaires de base flambent.

 

-  Le dernier Boeing, dangereux en cas de crash !

Les matériaux composites utilisés dans le Boeing 787 Dreamliner pour alléger l’appareil et consommer moins de kérosène rendraient l’avion beaucoup plus dangereux en cas d’atterrissage forcé...

La possibilité de survie des occupants en cas d’atterrissage forcé se trouve réduite par rapport à un avion entièrement construit en métal, car les matériaux composites innovateurs formant le fuselage du B787 se briseront trop facilement et brûleront en dégageant des vapeurs toxiques.

-  Un nouveau matériau ferait économiser des milliards à l’aviation mondiale

Une combinaison d’aluminium laminé et de résine ferait un matériau très résistant à la fatigue et plus léger pour la construction d’avions. Moins de maintenance et des poids plus faibles conduiraient à des économies importantes et à des consommations moindres.

Les scientifiques à l’origine du projet chiffrent à 75 milliards de dollars les économies que réaliserait le secteur de l’aviation dans le monde si tous les constructeurs adoptaient un nouveau matériau de leur invention. A base d’aluminium et baptisé Central (acronyme de Central Reinforced Aluminium), il présente comme premier avantage une grande résistance à la fatigue que connaissent toutes les pièces soumises à des efforts mécaniques importants. Il serait sur ce point bien supérieur aux classiques alliages d’aluminium mais aussi aux matériaux composites à base de fibres de carbone, les CFRP (carbon fibre reinforced polymer), comme ceux qui constituent le tout nouveau Boeing 787 Dreamliner.

 

-  Le microscope le plus puissant

Ci-dessus image du germanium, permettant de mesurer les distances entre atomes avec une grande précision.

C’est en combinant 2 technologies SEM (Scanning Electron Microscope) et TEM (Transmission Electron Microscope) que ce microscope arrive à une résolution de 0,05 nanomètre (0,5 Ångström).

-  Alimentation par vibrations de nanocapteurs

Pour auto-alimenter des systèmes à l’échelle nanométrique il faut des courants très faibles que les vibrations ambiantes pourraient fournir par effet piézoélectrique.

-  De l’ADN pour construire des nanostructures

Plus prometteur que l’assemblage atome par atome pour construire des nanostructures, utiliser de l’ADN !

Obliger des particules microscopiques à s’assembler d’elles-mêmes : c’est ce qu’ont réussi à faire des chercheurs américains en utilisant des brins d’ADN, ce champion de l’autoassemblage.

« On sait synthétiser des nanoparticules avec telles ou telles propriétés optiques, catalytiques ou magnétiques. Mais elles se présentent habituellement sous forme d’une suspension dans une solution. Pour devenir une structure fonctionnelle, elles doivent ensuite être organisées d’une manière précisément contrôlée en trois dimensions ou sur une surface. Nous voulons que les particules fassent ce travail elles-mêmes. »

-  Micro-machines auto-assemblées

Une méthode pour auto-assembler des micro-machines (MEMS) à partir de silicium et de plastique :

Pour créer des MEMS par auto-assemblage, Babak Parviz a commencé à fabriquer des composants de silicium de la taille du micromètre, en vrac, sous forme de poudre fine (à gauche). A droite, le dispositif fini auto-assemblé de silicium-sur-plastique. Parviz a conçu un substrat en plastique avec des récepteurs dont les formes sont complétées par ceux des composants de silicium. Quand le plastique a été immergé dans un fluide contenant les pièces de silicium, les composants ont trouvé leurs récepteurs et se sont placés au bon endroit.

-  Assemblage de nanoparticules par champ électromagnétique

Avec un champ électromagnétique alternatif et une poudre de particules métalliques, on peut contrôler finement l’écoulement d’un liquide.

En modifiant les caractéristiques du champ, les chercheurs parviennent à assembler les particules, en l’occurrence de minuscules sphères de nickel d’un dixième de millimètre de diamètre, qui s’alignent selon différentes formes.

L’auto-assemblage de formes contrôlées par un environnement électrique et magnétique ouvre des possibilités extraordinaires pour réaliser des systèmes à des échelles microscopiques

Sculpter des structures complexes sans contact, en manipulant simplement un champ électromagnétique, pourrait ajouter une technique à l’ingénierie des nanotechnologies.

Le fait de contrôler finement le flux d’une solution liquide peut servir à la conception de « laboratoires sur puce », en anglais lab-on-a-chip, des outils d’analyse chimique de petite dimension.

-  Grimper aux murs !

Nicola Pugno s’est fait connaître il y a quelques années par un article sur l’emploi des nanotubes pour réaliser le rêve d’un ascenseur spatial. Il récidive en explorant la possibilité de grimper aux murs comme Spiderman en employant, là aussi, des nanotubes en carbone. Ceux-ci seraient déposés sur des gants et des bottes imitant les propriétés adhésives des pattes de certains lézards bien connus, les geckos.

-  Intel atteint les 32 nanomètres en gravure

Les 32 nm ne sont encore qu’une démonstration et ne seront pas opérationnels avant 2009. Ce qui est étonnant, c’est qu’à ce niveau les circuits soient assez stables.

Dès le mois de novembre de cette année, Intel proposera Penryn, une nouvelle famille de puces gravées en 45 nm destinées à équiper à la fois les serveurs et les ordinateurs grand public. Equipées de 2 ou 4 cœurs, technologie alternative et intéressante par rapport à l’augmentation de la fréquence, elles devraient peu à peu supplanter les circuits actuels gravés en 65 nm. Les premières puces à huit cœurs (famille Nehalem) devraient faire leur apparition l’année prochaine, avec la même finesse de gravure donc reposant sur une même technologie de fabrication, ce qui laisse envisager une production de concert avant le grand saut vers une finesse de 32 nm, annoncée pour 2009.

L’objectif des fondeurs semble actuellement se diriger vers un procédé de gravure à 10 nm (soit la distance représentée par un alignement de 40 atomes), qui pourrait être atteint d’ici 2015 selon certaines sources, du moins sur un plan expérimental. Car il n’est pas certain que cette technologie équipe un jour nos foyers, les chercheurs travaillant déjà sur un transistor de nouvelle génération qui serait constitué non plus de silicium, mais d’un nanotube de carbone associé à une molécule organique. On ne parlera plus alors de semi-conducteurs, mais de supra-conducteurs et les premiers prototypes ont déjà été réalisés par une équipe de scientifiques de l’université de Columbia.

-  Des nano mémoires non volatiles 1 000 fois plus rapides !

Les chercheurs ont utilisé le processus d’auto-assemblage grâce auquel les réactifs chimiques cristallisent à basses températures à l’aide de catalyseurs métalliques pour former spontanément des nanofils de 30 à 50 nanomètres de diamètre et de 10 microns de longueur. Ils ont ensuite fabriqué des blocs mémoires sur des substrats de silicium.

Les essais ont montré une consommation d’énergie extrêmement faible pour le codage des données (0,7mW par bit). Les tests ont également indiqué un temps d’accès aux données 1 000 fois plus rapide (50 nanosecondes) que pour les mémoires Flash traditionnelles et permis de démontrer que le dispositif devait être capable de conserver les données sur une période d’utilisation d’approximativement 100 000 ans, avec une capacité mémoire de l’ordre du térabit.

-  Un pas de plus vers l’ordinateur quantique

L’équipe de Yale a conçu une source d’ondes électromagnétiques, dans la gamme des micro-ondes, qui génère un seul photon à la fois et le guide sur un circuit supraconducteur, à de très basses températures, juste au-dessus du zéro absolu.

Johannes Majer et ses collègues de Yale ont ensuite utilisé un photon pour transférer l’état quantique d’un qubit à un autre qubit, grâce à un câble -une cavité- guidant le photon.

Ces deux équipes sont les premières à démontrer que sur un circuit supraconducteur un ‘’bus quantique’’ peut transporter des données entre deux qubits. Les chercheurs estiment que ce principe peut être étendu à un très nombre de qubits afin de former une puce pour le futur ordinateur quantique.

 

-  Reportage vidéo : où en est la robotique ?

Pas extraordinaire mais le point sur le marché.

Au programme : l’évolution du marché de la robotique, ses axes de développement, comment se former à la robotique, les robots aspirateurs qui débarquent dans le foyer, ce qui différencie un robot d’un ordinateur...

-  Un robot chirurgien pour les interventions dans l’espace

-  Robots auto-reproducteurs

Enfin, il ne faut pas rêver, c’est extrêmement primitif et ne sert à rien...

 

-  Un exosquelette sans moteur

La nouveauté de cet exosquelette permettant de transporter facilement des charges lourdes c’est d’être dépourvu de tout moteur, ce qui le rend beaucoup moins cher et plus facilement opérationnel, en plus d’être silencieux.

 

-  Vidéoconférences pilotées à distance

Il s’agit d’un robot de vidéoconférence motorisé (autour de 1500€) qui permet à l’interlocuteur distant de piloter la webcam. Un autre produit curieux est une webcam dans la cuisine qui indique à la famille qu’on prend son repas pour le partager avec les autres membres distants...

 


-  Sylvia, interlocutrice artificielle

Un logiciel de reconnaissance vocale capable de comprendre la plupart des phrases, à ce qu’on prétend. Voir vidéo.

-  Parler à son téléphone

Les claviers de téléphone étant loin d’être pratiques, la solution serait tout simplement la reconnaissance vocale... C’est ce que propose Vlingo.

Les mots prononcés parviennent au serveur de Vlingo et sont retranscrits sur l’écran du mobile en quelques secondes : un outil d’édition, optimisé pour une utilisation depuis un mobile, permet alors de corriger son message si l’un des termes a été mal interprété, afin de minimiser la tape de texte. Le système apprend de vos corrections, puisqu’elles sont utilisées pour offrir de meilleurs résultats à vos prochaines requêtes et celles des autres utilisateurs (vidéo).

-  La téléphonie mobile en P2P ?

Le fonctionnement est assez simple : chaque téléphone, une fois équipé du logiciel, se transforme en routeur et relaie appels et messages de terminaux en terminaux équipés, dans un rayon de 2 km, jusqu’à 7 noeuds de communication. Aucun relai extérieur n’est nécessaire et le réseau peut fonctionner comme un réseau fermé, s’il n’y a pas d’accès au réseau mobile ou à l’internet à l’un de ses points. Pour joindre un numéro, l’appareil analyse d’abord si le correspondant recherché est joignable ou pas, s’il l’est, l’appel est transmis et les personnes mises en relation.

Selon les concepteurs du système, leur technologie pourrait être utile pour communiquer là où il n’y a pas de réseau mobile justement, dans les régions isolées, sur une zone de catastrophe ou dans les pays en développement - la société teste actuellement son système en Tanzanie et en Equateur. Mais pas seulement... La technologie permettrait facilement de passer un appel à l’échelle d’une ville, sans passer par un opérateur ou une antenne de télécommunication, et donc en toute gratuité.

On peut imaginer aussi que cela serve à contacter les gens autour de nous, un peu comme la CB ?

-  Un virus crée un réseau gigantesque

La formidable efficacité de ce virus pourrait être utilisée pour mobiliser d’énormes possibilités de calcul réparties sur des millions d’ordinateurs.

Storm Worm a réussi à constituer un gigantesque réseau commandé à distance dans un but malveillant. La totale décentralisation de cet énorme dispositif, qui n’est pas sans rappeler le réseau internet lui-même, a jusqu’ici empêché les experts informatiques d’en déterminer l’origine ou même le pays d’où il provient.

La puissance phénoménale ainsi obtenue par accumulation inquiète de plus en plus les experts, américains entre autres. Le réseau assemblé par Storm Worm dépasse largement en capacité de traitement le plus puissant superordinateur actuel, l’IBM BlueGene/L de 280 téraflops comportant 131 072 processeurs. Si l’on considère l’hypothèse de 2 millions d’ordinateurs infectés (alors que l’estimation la plus pessimiste en dénombre 50 millions), comportant chacun un processeur de 2 GHz et 1 Go de mémoire vive, on arrive à une puissance supérieure à l’ensemble du Top500 mondial ! (Approchant les 5 pétaflops en juin 2007).

-  L’internet sans fil municipal en perte de vitesse ?

Les réseaux wifi municipaux ne rencontreraient pas assez de succès dans les grandes villes et pourraient être abandonnés. Par contre dans les petites villes qui développent des applications locales c’est un succès : l’internet municipal ne se justifie qu’à offrir des services spécifiques.

 

-  Les moteurs de recherche locaux

De nombreuses études rappellent en effet que les consommateurs utilisent l’internet pour se renseigner avant d’aller acheter dans les magasins du coin ce qu’ils ont repéré sur la toile. “L’internet n’a pas émergé comme une plate-forme de transaction, comme beaucoup l’avaient prédit, mais avant tout comme une plate-forme marketing”,

Pour ShopLocal, Krillion ou NearbyNow, l’internet est autant une chance qu’une menace pour le commerce local. Reste que l’inventaire des biens disponibles est encore à accomplir - et à rendre disponible en ligne et sur le mobile notamment.


-  Yahoo va mal !

Suite à la distanciation de Yahoo par Google, de nombreux départ de dirigeants, surtout dans le domaine publicitaire qui est devenu le nerf de la guerre !

Depuis le début de l’année, les départs de dirigeants se sont multipliés, signe du profond malaise que traverse le groupe qui affiche des résultats financiers en forte baisse. La crise a éclaté en juin avec la démission du PDG, Terry Semel, remplacé par Jerry Yang et Susan Decker.

Mais depuis, les démissions de têtes exécutives du groupe s’enchaînent encore. Le JDN a recensé une dizaine de départs entre juin et septembre

-  Après Google, IBM se convertit à la gratuité

Converti depuis quelques temps aux logiciels libres, IBM vient de mettre en ligne une version gratuite de la suite bureautique Lotus Symphony, comprenant un traitement de texte, un tableur et un logiciel de présentation. Ces trois logiciels sont ceux que l’on connaît déjà dans l’actuelle suite - payante - Lotus Notes 8, sortie tout récemment.

-  Acer condamnée à rembourser des logiciels non utilisés (windows xp)

L’acheteur d’un ordinateur portable Acer de type Aspire 3613WLMi 80 a réussi à se faire rembourser le montant du système d’exploitation de Microsoft (Windows XP) ainsi que d’autres logiciels préinstallés qu’il n’utilisait pas.

Cette décision que l’on peut qualifier d’historique dans le monde informatique ne fait pourtant que confirmer les promesses du fabricant lui-même, dont le contrat de vente stipule clairement qu’un acheteur peut se faire rembourser les logiciels dont il n’a pas besoin. Oui mais voilà, les procédures sont particulièrement contraignantes, exigeant que le client n’active pas l’ordinateur et renvoie celui-ci à ses propres frais.

Malgré les protestations d’Acer, le Juge du tribunal de proximité de Puteaux (France) a décidé de couper court en condamnant la firme à non seulement rembourser le plaignant de la somme de 311,85 €, valeur commerciale des programmes dans leur version complète, mais aussi de lui allouer 500 € de dommages et intérêts ainsi que 150 € pour frais engagés. Ce qui, reconnaissons-le, représente une remise intéressante pour une machine payée 599 €.

 

-  Le grenelle de l’environnement en vidéo

 

-  Jean Tirole couronné par le CNRS

Jean Tirole, nobélisable à ce qu’on dit, est un économiste libéral assez classique. Il a travaillé avec Jean-Jacques Laffont dans les années 1990 sur les droits d’émission de CO2. Il était aussi l’auteur, avec Olivier Blanchard, du rapport sur "La protection de l’emploi" pour le Conseil d’analyse économique en 2003 où il défend, entre autres, une taxe de licenciement (pourquoi pas une prime de licenciement ?) et le contrat unique de travail (voir sa page).

Jean Tirole n’est que le second économiste récompensé par la médaille d’or du CNRS depuis sa création. Le premier s’appelait Maurice Allais et il fut ensuite couronné par un prix Nobel...

Jean Tirole travaille sur de nombreux aspects de la vie économique qui intéressent directement les décideurs, comme la réglementation financière, la régulation des grands réseaux industriels (chemin de fer, énergies, poste), la gouvernance et l’organisation des entreprises ou encore les stratégies industrielles.

Ses recherches s’appuient sur deux concepts : la théorie des jeux et la théorie de l’information. La première tente de prédire les comportements d’individus interdépendants ayant chacun des objectifs précis et divergents. La seconde s’intéresse à l’utilisation de l’information -stratégique- par ces individus.

Jean Tirole s’est aussi attaqué à la gouvernance et à la finance des entreprises, ainsi qu’aux performances des industries. C’est dans ce dernier domaine, celui de l’économie industrielle, que l’économiste né à Troyes a publié l’un de ses best-sellers, The Theory of Industrial Organization, en 1988. Depuis une dizaine d’années, Jean Tirole s’intéresse aussi aux apports de la psychologie à la compréhension des comportements en économie.

A signaler aussi en 1993 (A Theory of Incentives in Regulation and Procurement) et en 1999 (Competition in Telecommunications). Enfin, un de ses derniers articles, en anglais, sur le besoin de croire à un système économique juste et la différence des concepts de justice selon les pays : Belief in a Just World and Redistributive Politics.

-  La fin des Hittites

J’ai été très frappé par ce documentaire sur les Hittites (Qatna à feu et à sang). Jusqu’à très récemment on savait peu de choses sur les Hittites qui ont pourtant joué un rôle considérable puisque l’empire hittite a pu menacer l’Egypte. Le déchiffrage de tablettes apporte un éclairage singulier sur ce peuple indo-européen dont l’organisation peut être qualifiée de totalitaire et militariste exigeant une obéissance totale à leur roi et réprimant durement toute révolte. Il faut ajouter qu’ils ont gardé pendant plus de 100 ans le secret du fer mais ils étaient aussi maîtres dans l’art du combat de char.

Ce qui est intéressant, c’est qu’après avoir gagné la bataille de Quadesh contre le jeune Ramsès II, leur civilisation s’est écroulée car le roi se défiant du général vainqueur a voulu l’écarter ce qui a déclenché sa rebellion mais une fois le roi déchu toute la société s’est délitée, jusqu’à abandonner leur capitale qu’ils auraient eux-mêmes livrés aux flammes... La leçon à en tirer est intéressante puisque c’est leur puissance elle-même qui s’est retournée contre eux et non leurs adversaires !