Thématiques > Revue des sciences

Revue des sciences (01/09)

Le 1er  janvier 2009 par Jean Zin

Pour la Science, qui mérite bien d'être à l'honneur cette-fois, l'affirme haut et fort : "La science est pavée de nombreux domaines d'ignorance". Voilà ce qu'on répète depuis longtemps et qui semble devenir un lieu commun enfin ! C'est en tout cas un des meilleurs articles du mois à propos du théorème de Gödel qui démontre les trous du savoir mathématique sur le monde, et non seulement qu'on ne sait pas tout mais qu'on ne sait pas grand chose par rapport à l'étendu des possibles, et qu'on ne sait pas à l'avance ce qu'on n'a pas encore démontré (l'incomplétude ne veut pas dire qu'il n'y a pas de progrès effectif de la connaissance mais qu'il ne s'arrête jamais). C'est le grand mensonge de la mathématisation financière qui fait comme si l'avenir était prévisible en écartant toute rupture systémique. A l'aube d'une année qui s'annonce sombre et agitée, la question est bien de savoir, comme pour notre univers, si c'est le Big Bang ou si c'est parti pour le Grand Rebond ? ou bien s'il faudra que le désert gagne et que nos conditions de vie empirent pour qu'on s'améliore encore et qu'on fasse un nouveau saut cognitif dans l'évolution, peut-être ? à quel prix ? En tout cas, ça chauffe, les nouvelles du climat sont assez paniquantes alors même qu'on est dans une phase la nina un peu moins chaude qui devrait se terminer bientôt. Rien de bien neuf, dira-t-on, mais le mois est riche de confirmations importantes même s'il n'y a pas de grande révélation. Il est tout de même intéressant de savoir que l'énergie noire est probablement une énergie du vide et que l'ancêtre de la vie (LUCA) aurait bien été à base d'ARN (sans ADN) ce qui exclue des environnements trop chauds. Ou que les premier spermatozoïdes constituaient une protection contre les virus ! Enfin, la disparition de Néandertal serait effectivement reliée à la compétition avec Cro-Magnon qui se termine en Espagne. Pas grand chose du côté de la santé en dehors des promesses de la reprogrammation cellulaire et, peut-être, la pilule électronique de Philips. On apprend tout de même que la Ritaline se répand beaucoup plus qu'on ne croyait jusqu'à devenir une sorte de supercafé !


Pour la Science - La Recherche - Sciences et Avenir

<- Revue des sciences précédente

Brèves du mois: physique - climat - biologie - santé - technologies



Pour la Science no 375, Big Bang ou grand rebond ?


Pour la Science

- Le brillant avenir de l'énergie solaire, p16

D'ici 10 à 15 ans - c'est-à-dire demain -, l'électricité photovoltaïque sera compétitive avec les autres sources d'électricité.

Chaque mètre carré de sol reçoit entre 0,8 mégawattheure par an en Finlande et 2,9 au Sahara (1,3 en moyenne en France). Cela représente entre 80 et 290 litres d'équivalent pétrole : c'est considérable. L'énergie solaire reçue par la Terre chaque année représente environ 10 000 fois la consommation énergétique mondiale.

Le débat reste cependant encore très vif, et le potentiel des énergies renouvelables notablement sous-estimés.

- Modèles économiques et morale, p17
Ivar Ekeland

Les modèles économiques sont orientés vers une finalité définie par le politique. Dans la crise actuelle, devons-nous sauver les banques ou les paysans africains ?

En ce moment, les conversations se portent vite sur la crise : « Ivar, toi qui fais de l'économie, peux-tu nous dire ce qu'il faudrait faire pour s'en sortir ? » À quoi je réponds : « Mais qui veux-tu qui s'en sorte ? Les banquiers ou les ouvriers ? Les actionnaires ou les salariés ? L'Union européenne ou l'Afrique ? Dis-moi d'abord à qui tu t'intéresses, et je te dirai comment faire. »

L'économie, comme la guerre, est la continuation de la politique par d'autres moyens.

Le malheur, c'est que ces priorités sont bien souvent inavouables. Il est donc préférable de les taire et de faire comme si elles allaient de soi.

Si par malheur on est contraint d'avouer ses priorités (...) le remède est de les faire passer pour des nécessités, militaires ou économiques, bref de prétendre qu'il n'y a pas autre chose à faire : "There is no alternative", selon la fameuse formule de Margaret Thatcher.

- Risques financiers : quelle modélisation mathématique ?, p24

La récente crise financière a suscité des interrogations sur le rôle des modèles mathématiques en finance. Ces modèles sont indispensables, mais il faut connaître leurs limites.

Les médias en France ont accusé les mathématiques financières d'être la cause de nos maux, en citant pêle-mêle la formule de Black-Scholes et la surmathématisation de l'économie... Des propos faciles qui, en gonflant le rôle des modèles quantitatifs, évitent de réfléchir aux racines économiques de la crise.

L'origine de la crise financière actuelle se trouve dans l'éclatement de la bulle spéculative immobilière aux Etats-unis. Loin d'être un phénomène "sans précédent", comme on a pu l'entendre, cette crise répète un schéma familier pour les économistes et a connu de multiples précédents historiques, bien avant l'apparition des "mathématiques financières" ou du moindre produit dérivé.

En fait les mathématiques financières supposent depuis Louis Bachelier que "Le marché n'obéit qu'à une seule loi, le hasard", aussi aléatoire que le mouvement brownien. Il suffirait d'un indicateur simple pour évaluer le risque : la volatilité, mesurant l'écart-type des variations de la valeur. Benoît Mandelbrot qui a inventé les fractals à partir de l'étude des cours de la bourse a contesté dès 1963 cette conception du hasard excluant les valeurs extrêmes au profit de ce qu'il qualifia de "hasard sauvage". A cela il faut ajouter que l'approche statistique suppose une liquidité infinie et ne tient pas compte des rétroactions ni des effets en chaîne, ni des risques systémiques liés à la défaillance d'un noeud important du réseau financier (comme la banque Lehman Brothers).

La conjonction des événements rares et des effets de rétroaction peut conduire à une amplification encore plus impressionnante des risques.

Ces cas, loin d'être isolés, montrent qu'une approche purement statistique ne traduit pas bien la nature du risque financier : la volatilité et la corrélation ne sont pas des données figées.

Alors que ce sont surtout des questions idéologiques qui ont dominé le débat sur la régulation, entre partisans et opposants d'une régulation plus stricte des marchés financiers, il nous semble que la question est plutôt celle - non triviale - de savoir comment concevoir des méthodes de surveillance et de contrôle efficaces pour un système aussi complexe.

Le plus grand reproche qu'on peut faire à cet article, c'est de vouloir expliquer le risque alors que c'est la bulle précédente qu'il faudrait expliquer et qui est la véritable cause du krach. Sans parler de leur automaticité, le défaut originaire de la mathématisation financière, dont on ne peut pas plus se passer que pour les assurances, c'est de s'imaginer pouvoir remplacer la compréhension fine des mécanismes économiques, sociologiques, politiques par des fluctuations quantitatives purement aléatoires et statistiquement significatives (voir De la statistique à l'organisation sociale). Cela n'empêche pas la pertinence des modèles mathématiques à court terme dans un environnement calme, un peu comme la météo, mais il est impossible d'y intégrer des catastrophes systémiques car dans ce cas les valeurs sont englouties dans l'effondrement économique et si le risque systémique était reconnu, il serait évité !

La faille dans les modèles sera toujours une ignorance qui s'ignore, produisant une pluralité d'idéologies qui s'affrontent sans pouvoir se convaincre comme il y a une pluralité des religions, toutes fausses bien sûr mais qui permettent de faire paraître l'avenir un peu plus prévisible en organisant les sociétés sur des modèles relativement stables. En fait l'homme est un animal dogmatique et il n'y a que dans ces moments de basculement qu'on doit l'admettre et penser un peu plus dialectiquement. Cela ne dure pas en général, juste le temps d'installer un nouveau dogme, une nouvelle bulle, jusqu'au prochain krach...

- L'Univers rebondissant, p28

Notre Univers ne serait pas né avec le Big Bang : un univers préexistant se serait effondré sur lui-même, avant de rebondir et d'entrer de nouveau en expansion. C'est ce que suggèrent certaines propriétés de la théorie de la gravitation quantique à boucles.

On avait déjà signalé dans les brèves ces conclusions de Martin Bojowald à partir de la théorie de la gravitation quantique à boucles. En fait cet article très clair permet de comprendre que tout tient tout bêtement au fait que la théorie de la gravitation quantique à boucles suppose des grains d'espace-temps (de 10 puissance -35 mètres) qui ne peuvent contenir qu'une quantité finie d'énergie, ce qui a pour résultat logique qu'au-delà de sa capacité d'absorption l'énergie devient répulsive, inversant la force gravitationnelle. Dès lors, on comprend bien qu'en s'effondrant sous la force de gravitation on arrive à ce moment où elle s'inverse quand la densité d'énergie atteint son maximum et devient explosive. C'est ce qui correspondrait à l'inflation, supposée à l'origine du Big Bang mais inexpliquée par les modèles actuels, ainsi que l'expansion qui suit. L'article n'en parle pas mais il semblerait que le même phénomène devrait se reproduire avec les trous noirs qui devraient exploser aussi en nouveaux univers (fontaine blanche), à moins qu'il ne faille atteindre une densité d'énergie supérieure à celle des trous noirs pour devenir explosif ("mille milliards de masses solaires dans une région de la taille d'un proton") ? A noter qu'il pense que la théorie de la gravitation quantique à boucles est complémentaire plus que concurrente avec la théorie des cordes.

La théorie des cordes est par exemple utile pour apporter une vision unifiée des interactions élémentaires, en incluant la gravité quand le rôle de cette dernière reste limité. Quand on cherche à comprendre ce qui se passe quand la gravité est intense, la gravitation quantique à boucles me paraît plus utile.

Cette théorie a été développée dans les années 1990, en deux étapes. Les physiciens ont d'abord reformulé mathématiquement la relativité générale afin qu'elle ressemble à la théorie électro-magnétique ; les boucles de la théorie de la gravitation quantique à boucles sont les analogues des lignes de champ électrique et magnétique. Puis, en s'inspirant de la théorie mathématique des noeuds, ils ont appliqué les principes de la mécanique quantique aux boucles. La théorie quantique résultante prédit l'existence d'atomes d'espace-temps.

Dans la gravitation quantique à boucles, le vide est l'absence d'espace-temps - une notion difficile à concevoir ! -, et chaque quantum d'énergie ajouté à ce vide engendre un nouvel atome d'espace-temps.

Si l'espace-temps est bien de nature quantique, les fluctuations à petite échelle devraient perturber la propagation de lumière. Une onde lumineuse devant s'ajuster à la matrice discrète de l'espace, plus sa longueur d'onde est petite, plus elle sera sensible aux fluctuations, comme les roues d'une poussette sont plus sensibles aux chaos de la route que les pneus d'un camion.

- La régulation des gènes, moteur de l'évolution, p48

Sans que ce soit complètement nouveau il est crucial de déplacer le regard des gènes eux-mêmes à leur régulation comme moteur principal de l'évolution. En effet, on avait déjà établi qu'avec la complexification des organismes il devenait hautement improbable qu'une mutation d'un gène ne soit pas délétère, la complexité ne se construit pas sur le pur aléatoire mais sur le changement de combinaison de briques vitales, sur l'utilisation d'outils disponibles, d'une bibliothèque de routines préprogrammées, un stock de protéines déjà données. Les séquences "non codantes", ne contenant pas l'information à recopier, seraient celles du code justement, du programme de commande et donc déterminantes bien qu'illisibles sans le "code source" ! Ce qu'on avait pris pour le programme n'était que la bibliothèque. Le programme lui-même peut consister dans un simple obstacle qui dévie la lecture de l'ADN et qu'il faudrait suivre pas à pas mais toute la complexification de l'évolution se ferait au niveau du programme plus que des données, d'une régulation de plus en plus fine et de moins en moins aléatoire ou auto-organisée par toute une série d'inhibitions et d'inhibitions de l'inhibition (promoteur, répresseur). Cela semble bien contredire les théories darwiniennes de l'expression des gènes sauf que cela n'empêche pas du tout que de larges zones restent aléatoires si la compétition suffit à obtenir l'avantage de survie et qu'il n'y a pas besoin de l'intervention d'un régulateur. Cependant, l'aléatoire coûte souvent trop cher en énergie perdue, ce pourquoi l'erreur doit être minimisée et le hasard guidé (régulé).

Des séquences d'ADN régulatrices, qui commandent où et quand les gènes sont activés, ont joué un rôle majeur dans la création de la diversité des formes animales.

On s'attendrait à ce que des animaux très différents morphologiquement aient peu de points communs dans leurs génomes. Les apparences sont trompeuses : leurs répertoire de gènes sont en réalité très similaires. Par exemple, ceux de mammifères aussi différents que la souris, le rat, le chien, l'homme et le chimpanzé sont remarquablement proches. Le nombres approximatif de gènes dans chacun de ces génomes (environ 20 000) et leurs positions relatives sur les chromosomes sont peu changé depuis la divergence des mammifères placentaires il y a 100 millions d'années.

L'expression de la plupart des gènes est régulée au niveau transcriptionnel ; les cellules ne gaspillent pas d'énergie à produire des ARNm et des protéines dont elles n'ont pas besoin. De nombreux gènes sont donc exprimés spécifiquement dans un organe un tissu ou un type cellulaire particulier.

Or certaines séquences d'ADN non codant jouent un rôle central dans l'expression des gènes, en déterminant où et quand ils s'expriment. Ces séquences sont dites cis-régulatrices, pour signifier qu'elles contrôlent l'expression de gènes voisins.

Chaque gène a au moins une séquence cis-régulatrice. Contrairement aux gènes eux-memes, dont les régions codantes sont faciles à identifier en raison de la syntaxe relativement simple du code génétique, les séquences cis-régulatrices ne peuvent être reconnues à la seule lecture des lettres d'ADN qui les composent. Elles doivent être identifiées expérimentalement.

L'existence des séquences cis-régulatrices permet qu'un même gène soit exprimé de nombreuses fois dans des contextes différents, augmentant ainsi notablement la variabilité fonctionnelle de chaque gène.

Ainsi, une des différences entre l'homme et le chimpanzé serait la régulation des endomorphines notablement surexprimés chez l'homme sans que la protéine change mais seulement sa production. Entre autres choses cela pourrait expliquer les tendances exploratoires et addictives de l'homme, d'en faire toujours un peu trop, quoique le langage en soit plus sûrement la cause mais n'est-il pas notre première drogue qui nous enivre de mots ? On peut faire l'hypothèse aussi que ce serait nécessaire pour supporter les douleurs de l'accouchement à cause de notre grosse tête ? Ou encore que cela renforcerait l'attachement ?

- Des assemblages d'ADN rompus au jeu et au travail, p68

Des portes logiques constituées d'ADN pourraient un jour être introduites dans le sang d'une personne, détecter des anomalies et réagir en conséquence. Pour l'heure, on les fait jouer in vitro au morpion...

Ce n'est pas très nouveau. Il s'agit d'arriver à combiner plusieurs conditions pour déclencher un événement (délivrer un médicament par exemple). L'originalité c'est de démontrer les possibilités de calcul en programmant un jeu de morpion...


- Les marges de désert, berceaux des civilisations, p76

Depuis la dernière glaciation, des épisodes arides ont contraint l'humanité à s'adapter, donc à innover. C'est aux marges des déserts que les efforts d'adaptation des populations humaines et leurs conséquences ont été les plus spectaculaires.

Pourquoi ? Notre planète est sortie de la glaciation il y a 18 000 ans. La température moyenne terrestre est alors passée de 10 à 15 °C en neuf millénaires. Cette évolution a d'abord amélioré la vie des hommes des époques postglaciaires. Toutefois, une fois la Terre réchauffée, les fluctuations climatiques ont eu un fort impact sur les cultures et les civilisations. Or, alors que la température moyenne actuelle est de 15 °C, on nous annonce qu'elle augmentera de 1,1 à 6,4 °C en un siècle...

En fait ce n'est pas tant la rapidité du réchauffement qui est inquiétante que le fait qu'on soit en haut de cycle et qu'on dépassera dans les prochaines années les anciens maxima mais ce que montre cet article, c'est que les conditions exceptionnelles (d'un véritable jardin d'éden) il y a 8 000 ans, avec un climat plus humide, ont permis une augmentation considérable des populations puis, lorsque le temps est devenu plus froid et sec, vers 5650 et 2350 ans, ces populations se sont regroupées autour de fleuves comme le Nil ou le Tigre et l'Euphrate et c'est pour nourrir ces populations trop nombreuses que se sont développés l'agriculture et l'élevage, puis l'irrigation. L'auteur insinue que l'irrigation et l'écriture auraient été inventées en Egypte alors qu'on l'attribue plutôt aux Sumériens normalement mais l'intéressant ici, c'est que l'explosion démographique, la sédentarisation et le regroupement en cités n'auraient pas été une conséquence mais une cause du néolithique ! On peut penser que c'est aussi la menace sur les conditions exceptionnelles qui ont permis l'explosion démographique qui nous obligera à passer à un stade supérieur de civilisation, de culture, de production de nos propres conditions, conscience écologique réflexive prenant en compte les conséquences globales de nos actions.

Ajoutons cette brève sur les périodes de sécheresses en Israël autours des années 100 et 400 qui met en relation cette baisse des précipitations dans la région avec la baisse d'influence de l'empire romain mais on pourrait relier cette sécheresse plutôt à la diaspora des juifs dans tout l'empire qu'on attribuait de façon exagéré à une expulsion par les Romains après l'écrasement de 135 ?

- Presque tout est indécidable !, p88
Jean-Paul Delahaye

Article passionnant et plus compréhensible que d'habitude, faisant la synthèses des récentes avancées prolongeant le théorème de Gödel (ce que Lacan exprimait par l'expression "il n'y a pas de métalangage" et qui est proche de l'impossibilité en mécanique quantique de soustraire l'observateur de l'observation). Il serait contradictoire d'en conclure que "tout est indécidable" pour autant, ce que l'existence des mathématique réfute même si cela ne représente qu'une infime partie de l'univers. Au fond c'est l'introduction de la philosophie dans les mathématiques, d'un savoir en progrès à égale distance du scepticisme et du dogmatisme. Il faut connaître son ignorance pour apprendre, ignorance qui augmente à mesure du savoir, multipliant les questions irrésolues.

Grâce aux notions probabilistes, les logiciens démontrent que l'incomplétude de Gödel est beaucoup plus grave et incontournable que tout ce que l'on pouvait craindre.

L'incomplétude est l'incapacité, découverte et démontrée par Kurt Gödel, de concevoir un système mathématique qui capte toutes les vérités mathématiques. Le hasard est l'incapacité, que chacun a expérimentée, de prévoir ce qui va arriver. Quels sont les liens entre ces deux concepts centraux de la philosophie et de la science moderne ?

À cette question, les logiciens proposent aujourd'hui trois faisceaux de réponses. Chacun d'eux suggère des idées en opposition avec la conception traditionnelle des mathématiques comme science dont les connaissances s'acquièrent par la démonstration.

Tout système raisonnable de preuves possède des trous. A y regarder de près, l'incomplétude de Gödel affirme un peu plus que la présence d'un trou dans tout système de preuves imaginable, elle affirme une "incomplétabilité".

L. Levin a montré que même en utilisant un algorithme probabiliste, on ne réussit jamais à compléter un système raisonnable de preuves : le hasard ne permet pas de boucher le trou de l'incomplétude.

Pour lui, aucun système physique (même s'il fonctionne durant un temps infini) ne pourra compléter un système raisonnable de preuve : soit il donnera des contradictions, soit il laissera des trous. L. Levin conjecture un principe d'indépendance entre la physique et le monde mathématique s'appuyant sur une loi de conservation de l'information : aucun procédé physique ne crée de l'information avec suffisamment d'efficacité pour compléter un système incomplet. Pour lui, cette loi est aussi fondamentale que d'autres lois de conservation de la physique.

Plus grave : avec tout système raisonnable de preuves, les formules vraies démontrables sont une proportion négligeable des formules vraies. L'essentiel de ce qui est vrai est inaccessible. Non seulement tout système de preuves est troué, mais topologiquement, un tel système n'est qu'un immense trou !

Notons que cette impuissance est démontrée par un raisonnement mathématique...

Le troisième lien entre l'incomplétude et les probabilités est que tout ce qui est aléatoire est "essentiellement indécidable".

Le hasard et l'incomplétude sont deux formes différentes de l'ignorance forcée que la science moderne a dû admettre et qu'elle essaie de comprendre.




La Recherche no 426, Les 10 découvertes de l'année


- Les 10 découvertes de l'année

  1. Le graphène, matériau de l'année
  2. Sputnik, le premier virus de virus
  3. Les gènes de l'autisme
  4. Les applications thérapeutiques des cellules iPS
  5. Un étrange corps céleste
  6. La bascule ultrarapide du climat
  7. Les supraconducteurs à base de fer
  8. Les ARN interférents moins prometteurs que prévu
  9. Le plus vieil Européen de l'Ouest
  10. Les clones humains

D'accord pour le graphène, voire pour le virus de virus mais les gènes de l'autisme c'est aller un peu vite en besogne et la bascule du climat qui a eu lieu à la fin de la dernière glaciation en une dizaine d'années devrait faire les premiers titres ! Pour l'Association américaine pour l'avancée de la science (AAAS), c'est une reprogrammation cellulaire pleine de promesses qui est la vedette de l'année.


Sciences et Avenir no 743, La Bible, le vrai et la légende


Rien de bien neuf par rapport au compte-rendu que j'avais fait de "La Bible dévoilée" en 2002. Rappelons que tout le numéro est en ligne :

- Retour à Megiddo, sur les terres d'Armageddon

- «Les textes sacrés ne sont pas des références historiques»


- Une électrode cérébrale rend la parole

La vidéo est étonnante : un homme de 25 ans atteint d'un «locked-in syndrome» - incapable de bouger et de parler, mais conscient - parvient à reproduire des sons par la seule force de sa pensée. Pour réaliser cette expérience, une électrode a été implantée dans son cerveau, puis reliée à un ordinateur, lui-même connecté à un synthétiseur vocal. «Ecoute», lui dit l'ordinateur, avant d'émettre une séquence sonore «OO» à répéter. Quelques secondes plus tard, on entend le synthétiseur articuler le son que le patient a «imaginé».

A ce jour, le patient a réussi à dire trois voyelles. Les chercheurs espèrent que d'ici à cinq ans, ce sont des mots que les patients, jusqu'ici enfermés dans leur propre corps, pourront émettre.

Voir http://speechlab.bu.edu/prosthetics.php.

- «La première révolution industrielle, est fondée sur l'animal»
Eric Baratay, La société des animaux

Tout provient alors des animaux. A tel point qu'à Paris et dans les grandes villes européennes, la première révolution industrielle - entre 1780 et 1880 - est essentiellement fondée sur l'animal. Le lait et la viande se démocratisent, on trouve de plus en plus de laine, de cuir, de fourrure. Se développent également les fabriques de colle, de savons, de chandelles, d'engrais, de parfums... Les animaux vont transformer la vie urbaine. A Paris, toutes les compagnies de transport calent leurs horaires et leurs cadences sur le rythme des chevaux. Les odeurs, le bruit des animaux... font partie du quotidien. Leur mort également. Pour récupérer les cadavres de chevaux laissés en pleine rue, morts de fatigue par exemple, la voirie de Paris met en place un service de ramassage spécifique. De même pour les charognes de chiens que les gens jettent sur les tas d'ordures ou à la rivière.

Nous ne cessons de plaquer nos normes sur la condition animale. L'augmentation de la taille des enclos dans les zoos est ainsi directement corrélée avec celle des habitats humains. Inversement, la dégradation de la condition animale est la conséquence de la dégradation de la condition humaine.



Brèves du mois : physique - climat - biologie - santé - technologies