Innovations technologiques (11/08)

1er  novembre 2008 | par Jean Zin


-  Les biotechnologies à portée de tous...
-  Un bioordinateur dans la cellule
-  Des mutations génétiques contrôlées par laser
-  De l’électricité à partir de cellules d’anguilles

-  Amélioration de la synthèse de méthanol
-  Des piles à combustible donnent 20 heures d’autonomie aux portables
-  Les cellules solaires en plastiques passent à la production de masse
-  Des cellules solaires cylindriques
-  Une centrale solaire près de Bordeaux
-  Se servir du soleil pour la climatisation
-  Les énergies renouvelables de la mer
-  Le stockage par air comprimé

-  Des vélomoteurs à air comprimé
-  Une petite voiture électrique pour jeunes
-  Miles miles à l’heure !

-  La lumière à la place du WiFi
-  Bientôt des écrans en plastique ?
-  Les écrans 3D de Nec
-  Sharp présente le plus petit tuner TV du monde

-  Commander le curseur par la voix
-  Windows Cloud

-  L’empire de Google
-  Panne de Google Apps : 24 heures sans mail ni applicatif
-  Google Street View : les villes françaises photographiées de l’intérieur
-  Préserver droits d’auteur et livres en ligne

-  Le web de plus en plus concentré
-  Le local dans le monde numérique
-  La géolocalisation se généralise
-  L’espace urbain numérique
-  Les réseaux glocaux d’innovation
-  L’expansion de l’ignorance

-  La communication télépathique pour les militaires
-  Les exosquelettes arrivent...
-  Un robot-webcam de surveillance

-  Une arme contre les tsunamis : l’invisibilité !

-  Finir sa vie sur Mars

-  Découverte du feu : elle daterait de 790 000 ans
-  L’innovation, véritable cause des migrations humaines ?


Brèves du mois : physique - climat - biologie - santé - technologies

Revue des sciences 11/08



biotechnologies, énergie, nanotechnologies, robotique, informatique



- Les biotechnologies à portée de tous...

Voilà qui pourrait être assez effrayant, la diffusion des biotechnologies dans la population, à portée de n'importe qui, pouvant manipuler les gènes de n'importe quoi n'importe comment ! C'est peut-être inévitable mais ce serait vraiment jouer aux apprentis sorciers et prendre des risques insensés, jusqu'à preuve du contraire !

En tout cas, dès aujourd'hui, à l'ombre des grosses sociétés pharmaceutiques ou agroalimentaires, un nouvel “underground” s'active : biopunk, biologie de garage , DIYbio (DIY pour do it yourself, c'est-à-dire “faites le vous-même”), biohacking, peu importe le nom qu'on lui donne, tout un courant de docteurs Frankenstein en herbe s'active pour battre les grands laboratoires à leur propre jeu à l'aide d'outils à peine plus complexes que des ustensiles de cuisine.

Pour le célèbre astrophysicien Freeman Dyson, la création d'organismes vivants inédits pourrait bien devenir le loisir des enfants de demain, expliquait-il dans la livraison de juillet 2007 de la New York Review of Books. “Concevoir des génomes deviendra une activité personnelle, une nouvelle forme d'art comme la peinture ou la sculpture. (...) L'étape finale dans la domestication de la biotechnologie sera la création de jeux biotechs, conçus comme des jeux vidéos pour les enfants à partir de la maternelle, mais joués avec de vrais oeufs et de vraies graines au lieu d'images sur un écran. Le gagnant sera le gamin qui créera les graines engendrant le cactus le plus épineux, ou celui dont l'oeuf donnera naissance au dinosaure le plus mignon.”

Première étape, la plus facile, extraire l'ADN. De l'eau, de l'alcool et du savon devrait suffire à l'opération, quoique une version plus sophistiquée conseille aussi, surprise, l'usage de jus d'ananas ! Vient ensuite l'amplification, ou PCR. Son but est de multiplier une chaine d'ADN spécifique après extraction, afin de mieux pouvoir la manipuler. Cela demande des produits chimiques comme l'ADN polymérase ou les “amorces”, des composants spécifiques qu'on peut toujours commander en laboratoire, mais également l'usage d'un “four” particulier, capable de faire varier la chaleur de manière précise pendant différentes périodes de temps. Un tel objet coute quelques milliers d'euros, mais les bricoleurs peuvent trouver le moyen d'en fabriquer un avec un micro-contrôleur d'environ 165 euros. La troisième étape est l'électrophorèse. Elle permet de trier les brins d'ADN qu'on possède dans un tube à essai en fonction de leur taille. L'électrophorèse sert notamment à établir des empreintes génétiques. Là aussi, du matériel est nécessaire, mais la revue Make nous explique comment le réaliser avec tournevis, morceaux de carton et matériel électrique de base.

- Un bioordinateur dans la cellule

Des scientifiques de Californie ont créé des bioordinateurs moléculaires qui sont capables d'auto-assemblage de bandes d'ARN dans les cellules vivantes. Finalement, ces ordinateurs peuvent être programmés pour manipuler des fonctions biologiques à l'intérieur de la cellule, l'exécution de différentes tâches dans des conditions différentes. Une application pourrait être des systèmes intelligents de délivrance de médicaments.

"Ce que ce nouveau travail montre pour la première fois c'est la capacité à détecter la présence ou l'absence de molécules dans la cellule."

Cela ouvre la possibilité de dispositifs de calcul qui peuvent répondre à des conditions spécifiques dans la cellule. Par exemple, il pourrait être possible de développer des systèmes de délivrance de médicaments qui ciblent les cellules cancéreuses de l'intérieur par détection de gènes servant à réguler la croissance cellulaire et la mort. "Vous pouvez le programmer pour libérer de la drogue lorsqu'il y a les conditions requises, au bon moment et au bon endroit".

Les biocomputers Smolke and Win sont construits à partir de trois composants principaux - capteurs, actionneurs et transmetteurs - qui sont tous constitués d'ARN. Les capteurs sont fabriqués à partir d'aptamères, des molécules d'ARN qui se comportent un peu comme les anticorps en se liant étroitement à des cibles précises. De même, la production de composants, ou d'actionneurs, se fait avec des ribozymes, molécules d'ARN catalytique qui ont des propriétés semblables à celles des enzymes. Ces deux composants sont combinés avec une autre molécule d'ARN qui sert de transmetteur, qui est activée lorsque le capteur reconnaît une molécule chimique d'entrée, ce qui déclenche, à son tour, la production d'une molécule active.

Smolke and Win ont programmé leurs ARNs pour détecter la tétracycline et la théophylline dans les cellules de levure, produisant alors comme signal une protéine fluorescente. En combinant les composants d'ARN d'une certaine façon, les chercheurs ont montré qu'ils peuvent les amener à se comporter comme les différents types de portes logiques - éléments de circuits communs à n'importe quel ordinateur. Par exemple, un AND déclenche une action seulement lorsqu'il y a détection de la présence des deux substances, alors qu'un NOR ne produit un signal que si aucune substance n'est détectée.

- Des mutations génétiques contrôlées par laser

On pourrait à la fois réparer des génomes déficients et utiliser ces mutations contrôlées par laser pour la programmation à base d'ADN (biologie artificielle), mais on n'en est pas encore là.

En testant de multiples configurations d'ADN de synthèse, ces deux chercheurs ont mis en évidence, pour la première fois, une variabilité de la réaction du brin d'ADN selon la succession des bases. En d'autres termes, les différentes régions du code génétique ne sont pas toutes aussi résistantes à la lumière UV. « L'ADN atteint sa grande photostabilité grâce à sa structure en double hélice, conclut Friedrich Temps. Les interactions entre les bases successives et les liaisons gène entre les deux brins jouent un rôle essentiel. »


- De l'électricité à partir de cellules d'anguilles

Jian Xu cherche actuellement à réaliser ces pseudo-électrocytes à partir de membranes lipidiques artificielles. Si lui ou d'autres réussissent, on pourrait bientôt voir des implants et autres dispositifs électroniques tirant leur énergie du glucose présent dans le sang... Les chercheurs pensent en particulier à des implants rétiniens.

- Amélioration de la synthèse de méthanol

Cela fait longtemps que je pense que le méthanol est le meilleur substitut au pétrole mais sa production à partir du méthane était peu rentable nécessitant des températures de 600°. C'est donc un grand progrès d'avoir trouvé un catalyseur à base de fer permettant une oxydation du méthane à 50° seulement.

Ils ont mis au point un nouveau catalyseur de la réaction constitué de deux atomes de fer. Ce catalyseur a réussi, alors que les autres avaient échoué, à s'associer à l'eau oxygénée. Et l'espèce chimique ainsi obtenue s'est mise à oxyder le méthane avec une très grande efficacité.

Petit bémol tout de même: les chimistes ne sont pas encore parvenus à stabiliser le méthanol ainsi obtenu qui a continué à se transformer en d'autres produits chimiques.

- Des piles à combustible donnent 20 heures d'autonomie aux portables

Comme les piles à combustible utilisées dans les voitures à propulsion électrique, une DMFC produit du courant grâce à la réaction de l'hydrogène et de l'oxygène pour donner de l'eau. Mais, différence de taille, l'hydrogène n'est pas stocké dans un volumineux réservoir. Il est fourni sous forme de méthanol (CH3-OH) en solution dans l'eau.

Elle prend la forme d'une batterie pour ordinateurs portables. Pesant 370 grammes, cette pile offre - dixit Panasonic - 20 heures d'autonomie avec 200 centimètres cubes de méthanol. Quand la panne sèche s'annonce, il suffit de faire le plein...


- Les cellules solaires en plastiques passent à la production de masse

Konarka va produire 1 GigaWatt de cellules photovoltaïques en plastique souple, soit l'équivalent d'une centrale nucléaire.

- Des cellules solaires cylindriques

Ces cellules cylindriques seraient idéales pour mettre sur les immeubles.

- Une centrale solaire près de Bordeaux

Une centrale photovoltaïque de 100 kW vient d'être inaugurée à Martillac, en Gironde.

« L'énergie solaire va supplanter les autres énergies. C'est une énergie que l'on n'utilise pas assez, alors qu'elle est idéalement répartie et en quantité suffisante. Il faut savoir la capter mais et elle est inépuisable à l'échelle humaine »

De vastes champs de capteurs solaires sont parfaitement concevables à l'image des parcs éoliens, avec l'avantage d'être plus compacts, faciles à installer, moins coûteux à entretenir et offrant une meilleure résistance au vent (qu'adviendrait-il d'un champ d'éoliennes soumis à des rafales de vent de 277 km/heure telles qu'en a connues la France en décembre 1999 ?).

- Se servir du soleil pour la climatisation

Faire du froid avec la chaleur du Soleil : c'est ce que permet le climatiseur solaire, sans aucune consommation électrique ni aucune partie mobile. Idéal ou presque, ce principe reste paradoxalement peu usité. En Allemagne, une installation de grande envergure vient d'entrer en phase de test.

Imaginer se servir du Soleil dans les moments où il chauffe le plus pour faire fonctionner un climatiseur peut sembler tomber sous le sens. A l'inverse d'un climatiseur électrique, qui a d'autant plus de mal à refroidir qu'il fait chaud dehors, le modèle solaire, lui, fonctionne mieux quand le Soleil est plus fort... Techniquement, la réalisation est assez simple et fait classiquement appel à la circulation d'un fluide, comme dans un réfrigérateur, qui passe alternativement de l'état liquide à l'état gazeux dans un évaporateur et dans un condenseur. Il n'y a aucune partie mobile et l'engin ne consomme pas énergie.

Alors que les climatiseurs solaires les plus courants, dits à absorption, utilisent de l'eau et du bromure de lithium, celui-ci est dit à adsorption et utilise un fluide (qui peut être de l'eau) circulant sur un solide présentant une grande surface spécifique (une grande surface dans un petit volume), comme le charbon actif ou la zéolithe. Le système fonctionne en deux cycles distincts, le froid étant produit durant la nuit. C'est le gros inconvénient du principe de l'adsorption, qui exige un volume tampon, par exemple un réservoir d'eau.

- Les énergies renouvelables de la mer

Ce site de veille est indispensable et vraiment complet. Un peu trop même (on n'a pas le temps de tout suivre mais heureusement, il y a les lettres mensuelles). On y trouve toutes sortes de technologies pour produire de l'électricité en mer, éoliennes, hydroliennes, Waveroller, biomasse, etc. Je recommande en particulier l'article sur des récupérateurs d'énergies marines peu connus.

- Le stockage par air comprimé

Ecologique (pas de métaux lourds) et économique (durée de vie plus longue), le stockage par air comprimé n'est pas nouveau mais il est resté à ce jour peu exploité car son rendement est faible. En effet, la compression de l'air entraîne son échauffement et par conséquent des pertes thermiques, aboutissant à un rendement de l'ordre de 25% seulement.

Enayris propose un système à base non plus de piston mécanique mais de piston liquide. L'eau utilisée permet de réguler les flux thermiques et améliore nettement l'efficacité des batteries pour atteindre désormais les 60-65% (soit quasiment le rendement d'une batterie au plomb, qui est de 70%).

L'air est comprimé au moyen d'un moteur électrique couplé à un compresseur hydropneumatique et stocké dans des bonbonnes reliées les unes aux autres. Lorsqu'un besoin en électricité se fait sentir, l'air est extrait pour alimenter la même machine qui fonctionne cette fois comme alternateur.


- Des vélomoteurs à air comprimé

Il y a ceux de Jem Stansfield (ici en photo) et ceux du professeur HWANG Yean-Ren dont on sait seulement que le prototype actuel se compose d'un réservoir de 9,5 litres d'air comprimé, fixé sur le côté du véhicule et qui permet pour le moment une autonomie d'environ un kilomètre à une vitesse moyenne de 30 kilomètres par heure. L'objectif est maintenant d'augmenter le volume du réservoir par trois ou quatre ainsi que la pression de l'air qu'il contient pour obtenir une autonomie minimale de 30 kilomètres !


- Une petite voiture électrique pour jeunes

La C-Zen n'est officiellement pas une voiture mais un quadricycle. Son conducteur peut donc l'utiliser à partir de ses seize ans avec un permis B1.

Sa carrosserie en plastique est montée sur un châssis en tubes d'aluminium, complétées par un arceau. Son moteur de 12 kW, alimenté par 100 kg de batteries lithium-ion, emporte la voiture (480 kg sans ses passagers) jusqu'à 90 km/h, une vitesse limitée par construction. A 50 km/h, l'autonomie annoncée est de 160 kilomètres. Elle embarque quelques perfectionnements techniques séduisants, comme un GPS à traceur (avec autoradio compatible Ipod...) et un afficheur « tête haute », c'est-à-dire par projection sur le bas du pare-brise, indiquant vitesse et pression des pneus. A l'arrière, une caméra filme sur 160°, avec vision de nuit, et transmet les images à l'écran installé sur le tableau de bord. La clé de contact est remplacée par un détecteur biométrique, avec lequel on peut définir un groupe d'utilisateurs autorisés, ou que l'on peut désactiver, la mise en route imposant alors de taper un code.

- Miles miles à l'heure !

Lancé par le ministre britannique de la recherche et piloté par une université, un projet un peu fou vise à battre le record de vitesse au sol pour atteindre Mach 1,3 à l'aide d'un véhicule à roues équipé d'un réacteur et d'un moteur de fusée...

Ce projet qui s'étalera sur trois années vise en effet à construire un véhicule terrestre supersonique capable d'atteindre 1.000 mph (miles per hour), soit, si l'on convertit exactement, 1.609 km/h. La vitesse du son au sol étant d'environ 1.200 km/h, l'engin devrait donc filer à Mach 1,3.

« Pomper une telle quantité d'un liquide volatil est une affaire incroyablement dangereuse, confie-t-il dans le communiqué de l'université Leeds. Si cela ne fonctionne pas correctement, on peut avoir une explosion à tout moment. Les efforts que subira le véhicule vont au-delà de tout ce qui a été expérimenté jusqu'à présent. (...) C'est un territoire complètement nouveau. »

Le projet est donc scientifique et technologique, constituant un excellent banc d'essai dans de multiples domaines.


- L'éclairage à diode à la place du WiFi

On l'appelle déjà Smart Lightning. Cette technique, que commence à étudier l'université de Boston, consiste à moduler la lumière émise par des diodes électroluminescentes (Led) pour transmettre des informations. Ces minuscules fluctuations seraient imperceptibles pour les yeux humains mais pourraient être détectées par des capteurs installés sur les ordinateurs ou d'autres appareils communicants. Ces Led servant aussi à l'éclairage des locaux, on disposera ainsi d'un système discret, efficace et éliminant au passage les ondes radio.

Voir aussi techno-science.

- Bientôt des écrans en plastique ?

Peu chers et peu gourmands en énergie, ces écrans en plastiques pourraient généraliser les écrans muraux.

Ils y décrivent le prototype d'un écran couleur en matière plastique basé sur un principe assez peu exploré et baptisé upconversion (UC). Son intérêt : permettre de réaliser des écrans souples de bonne taille, pour un coût modéré et consommant peu d'énergie. La technique UC est connue depuis les années 1950. Elle consiste à exciter un matériau à l'aide d'un faisceau lumineux cohérent, un laser donc, pour lui faire émettre une lumière de plus petite longueur d'onde, c'est-à-dire de fréquence plus élevée, d'où le terme anglais upconversion. Un laser dans le proche infrarouge peut ainsi déclencher une lumière visible. L'énergie d'un rayon lumineux étant proportionnelle à sa fréquence, cette conversion se paie par une puissance réémise plus faible. Plus précisément, il faut plusieurs photons excitateurs pour en réémettre un seul de fréquence plus élevée.

Dans le prototype présenté par l'équipe, dont on peut voir une démonstration (en monochrome) dans une vidéo et qui a fonctionné une centaine d'heures sans détérioration, l'affichage est obtenu par le balayage d'un rayon laser. Il y a encore loin avant la réalisation d'une version commercialisable mais les chercheurs nous promettent la possibilité d'écrans de toutes tailles et d'une fabrication très simple.

- Les écrans 3D de Nec

Le fabricant japonais Nec vient de présenter des prototypes d'écrans LCD offrant un affichage en 3D perceptible à l'œil nu (sans lunettes).

Sur un écran LCD classique, chaque ligne comprend une succession de pixels composés de triplets de points monochromes, ou sous-pixels, rouges, verts et bleus. Si l'on veut obtenir un effet de relief à l'aide d'un système optique créant deux images, un pixel sur deux servira à l'un des yeux et la résolution finale sera donc divisée par deux. Sur un écran HDDP (voir le schéma au bas de cet article), chaque pixel est organisé verticalement et les sous-pixels monochromes sont moitié moins grands. Sur une ligne se succèdent des points d'une même couleur, alternativement destinés à l'œil gauche et à l'œil droit. Il faut donc trois lignes pour afficher toutes les couleurs horizontalement.

- Sharp présente le plus petit tuner TV du monde

Il tient sur le bout du doigt et son poids doit se mesurer en grammes. Le VA3C5CZ933 est pourtant un récepteur de télévision dans la gamme 470 à 798 MHz et il ne mesure que 9,0 x 9,0 x 1,7 millimètres. Il répond à la norme CMMB (China Mobile Multimedia Broadcasting), destinée à la télévision numérique sur mobile, disponible en Chine dans 37 villes depuis le mois de juillet, c'est-à-dire depuis les Jeux Olympiques. Sa production de masse démarrera en décembre, pour un prix annoncé d'environ 150 euros. Ce mince téléviseur est également peu gourmand puisqu'il consomme 93 milliwatts.

- Commander le curseur par la voix

Pour aller en haut faite "ai", pour aller en bas faites "haut" ! pour aller à gauche faites "heu !", pour aller à droite faites "Hououou !". Cela ne doit pas être très pratique quand même mais peut être utile dans certaines circonstances. On peut voir une vidéo du système et même une peinture faite à la voix ! Sinon, d'autres imaginent de parler latin pour commander aux objets, l'utilisation d'une autre langue pour la magie évite effectivement les ambiguïtés avec notre langue ordinaire et de provoquer ainsi des réactions sans s'en rendre compte...

- Windows Cloud

Windows Cloud, permettant de faire travailler ensemble plusieurs PC, devrait sortir d'ici quelque temps. C'est un tout nouveau domaine pour Microsoft et cela pourrait faire décoller le cloud computing. Pour l'instant le leader était Amazon avec son Elastic Compute Cloud (EC2).


- Panne de Google Apps : 24 heures sans mail ni applicatif

Une panne du service de mail Gmail proposé par Google d'au moins 24 heures a eu des conséquences importantes sur l'accès au service de courrier et au service Google Apps cette semaine.

Dans les entreprises, des administrateurs des Google Apps, service en ligne qui héberge des solutions utilisées par des entreprises, ont dû faire face à l'impossibilité d'accéder à leurs données, et les usagers de ces services ne pouvaient pas non plus les utiliser. Les emails n'étaient eux aussi pas consultables.

Notons que Google ne connaît pas la crise mais ces pannes constituent un premier revers face à Microsoft car l'externalisation sur le réseau dépend de l'accessibilité. La puissance de Google est fonction de la fiabilité du réseau alors que celle de Microsoft s'appuie sur la fiabilité du matériel. On arrivera sans doute à un compromis entre données locales et stockées sur le réseau.

- Google Street View : les villes françaises photographiées de l'intérieur

La fonction Street View est désormais intégrée à GoogleMaps. Elle montre des rues, photographiées depuis des voitures (les Google Cars), de cinq grandes villes françaises et de nombreuses autres communes.

L'utilisation est simple. Une fois sur Google Maps, il faut cliquer sur le bouton Street View pour faire apparaître les zones bleues. Ensuite, un zoom sur l'une d'elles mène aux photographies. Un mouvement de souris permet alors de déplacer la vue à 360° et même, également, un peu en hauteur ou vers le bas. Des flèches apparaissent en surimpression, servant à suivre une direction et effectuer une vraie promenade.

On peut voir certaines des images les plus insolites, parfois très indiscrètes...

- Préserver droits d'auteur et livres en ligne

L'accord signé le 28 octobre après 2 ans de négociations est selon Paul Aiken, directeur de l'Authors Guild, le "plus grand accord aux Etats-Unis dans l'histoire de l'édition". Il prévoit que Google verse 125 millions de dollars (98 millions d'euros) pour financer un registre auquel les détenteurs de droits d'auteur pourront s'inscrire pour toucher des dividendes. En échange, le moteur de recherche pourra mettre en ligne plusieurs millions de livres et documents issus des bibliothèques universitaires américaines partenaires du programme. Et les deux associations mettront fin à leurs poursuites sur la violation des droits d'auteur.

"L'accord reconnaît les droits et les intérêts de détenteurs de droits d'auteur, leur donne un moyen efficace de contrôler l'accès en ligne à leur propriété, et leur permet d'être rémunérés pour l'accès en ligne à leurs œuvres", ont déclaré les trois parties dans un communiqué. De plus, la totalité des bibliothèques universitaires et publiques américaines auront accès à un portail gratuit regroupant les textes de millions de livres épuisés.

- Le web de plus en plus concentré

Cela n'empêche pas "la longue traîne" mais la concentration du web augmente avec le nombre de sites et d'internautes, ce qui était observable depuis longtemps dans un domaine où le premier rafle tout...

“Les statistiques montrent que le trafic web est de plus en plus concentré sur les sites les plus importants, alors même que le nombre total de sites continue d'augmenter. Une récente étude a révélé que, à mesure que l'usage du web augmente chez les gens, leur activité se concentre de plus en plus sur un petit ensemble d'outils, de sites de base. (...) Plus le web décolle, plus nous sommes attirés vers de gros objets. Le centre nous tient.”

On pensait que “le web serait résistant à la centralisation”, “qu'il avait aplati le terrain de jeu des médias pour de bon”. Mais c'était une illusion. Même à l'époque de l'origine du web, la force centrifuge du web était en train de se construire. La création de liens hypertextes a été la boucle de rétroaction qui a servi à amplifier la popularité des sites populaires... des boucles de rétroaction devenues plus puissantes lorsque les moteurs de recherche comme Google ont commencé à classer les pages sur la base des liens, du trafic et d'autres mesures de popularité. Les outils de navigation qui étaient utilisés pour donner de l'emphase à l'éphémère se sont mis à le filtrer. Les routes pour s'éloigner ont commencé à nous ramener.

Cela n'empêche pas le P2P de se développer fortement...


- La géolocalisation se généralise

Jusqu'à présent, si la géolocalisation faisait miroiter ses promesses à la téléphonie mobile, elle touchait peu nos ordinateurs. Voilà qu'avec Geode, un module additionnel au navigateur Firefox que viennent de lancer les laboratoires de Mozilla, la géolocalisation de nos ordinateurs pourrait prendre un tour différent. A terme, Geode sera capable de déterminer votre position en utilisant tout type de services (module GPS externe, carte de téléphonie mobile...).

- L'espace urbain numérique

Comme on le verra aussi dans la brève suivante, il faut revenir sur l'illusion que la dématérialisation numérique annulerait le monde matériel et nous sortirait de notre lieu d'existence, voire de notre temps alors qu'il nous ouvre au contraire, sous de nouveaux modes, à notre environnement et sur le long terme. Selon le mouvement dialectique, les premières illusions, qui disent quelque chose d'un nouvel objet de connaissance, doivent inévitablement être réfutées ensuite, non sans qu'il en reste quelque chose d'ailleurs...

Le concept de “Long ici” (Long Here) fait référence au Big Here de Kevin Kelly, c'est-à-dire au fait que désormais, où que vous viviez vous êtes un petit point imbriqué dans un espace plus grand. Mais pour Greenfield, c'est bien de Long Here dont il parle, en faisant référence à l'ancrage, à la persistance d'un historique de tout lieu qu'on traverse. Chaque lieu, spécifié par ses coordonnées, possède désormais un historique, une profondeur dans le temps, accessible via sa seule localisation. Le meilleur exemple qu'on puisse en donner, ce sont les photos géotaggées qu'on accumule sur Flickr, capable de donner un véritable historique des lieux où l'on passe. Avec des cartographies sur la criminalité, comme Oakland CrimeSpotting, vous avez accès à l'historique de la criminalité d'un quartier, d'une rue, d'un immeuble.

L'autre concept qu'il évoque, le “Gros maintenant” (Big Now) fait référence à la Long Now Foundation, qui veut regarder notre évolution culturelle sur le très long terme. Le Big Now auquel nous sommes de plus en plus confrontés en est exactement l'inverse : les données en temps réel montrent le présent et la réalité tangible de la ville.

A l'heure où nos espaces urbains commencent leur transformation, apparaissent des espaces “furtifs” (qui ne peuvent pas être trouvés), “glissants” (qui ne peuvent pas être atteints), “piquants” (qui ne peuvent pas être confortablement occupés), “croustillants” (qui ne peuvent pas être saisis), “nerveux” (qui ne peuvent pas être utilisés sans être sous surveillance) pour reprendre des termes qui font références aux travaux de l'architecte-géographe Steven Flusty, auquel il ajoute le terme “brumeux” pour décrire des espaces qui ne peuvent être cartographiés ou qui n'existent pas sur votre GPS.

- Les réseaux glocaux d'innovation

Il est impossible de faire comprendre que la relocalisation est une nécessité de la globalisation, on passe pour un attardé, et pourtant, c'est l'évidence que la production reste localisée même si elle peut être éclatée en différents centres. En élargissant la concurrence à toute la planète, on ne fait que valoriser les avantages comparatifs qui sont locaux. Il y a "les régions qui gagnent". Plutôt qu'une déterritorialisation, il n'y a qu'une abolition des distances et des frontières mais c'est la réalité locale qui reste d'autant plus déterminante, ses externalités positives, ainsi que les rapports de face à face. Les explications données ici, sont un peu simplistes mais elles ont le mérite d'exister...

Ce qui caractérise ces réseaux d'innovation, c'est leur “glocalité”, c'est-à-dire quand ils composent avec des interactions à la fois locales et globales. Pour asseoir sa démonstration, Pekka Himanen produit une carte de la production globale de contenu sur l'internet qui montre combien la production de contenu est concentrée. Les Etats-Unis produisent 50 % du contenu de l'internet alors qu'ils ne représentent que 5 % de la population du monde. Même aux Etats-Unis, le contenu n'est pas produit d'une façon uniforme. Il y a quelques centres meneurs comme la Silicon Valley, New-York, Los Angeles, Boston et Chicago. 5 villes qui produisent 20 % des contenus mondiaux d'internet. Même à New-York, cette production est concentrée essentiellement sur Manhattan.

Pour expliquer ce phénomène, Pekka Himanen introduit deux concepts tirés de l'oeuvre du sociologue américain, Randall Collins : l'énergie émotionnelle et le capital culturel. C'est dans des interactions de face à face qu'on peut créer la plus forte “énergie émotionnelle”.

La vraie logique de la créativité repose sur une concentration locale qui libère le capital culturel et l'énergie émotionnelle, et qui s'auto-alimentent l'un l'autre, vague technologique après vague technologique.

- L'expansion de l'ignorance

Rien de bien nouveau puisque c'est ce que je martèle depuis toujours mais qui remonte au moins à l'ignorance docte de Nicolas de Cues, sinon à Socrate, et qui est même à la base de la cybernétique contrairement à ce qu'on croit ! Il est tout de même bon que ce soit redit pour dégonfler toutes les divagations sur l'extension de notre savoir jusqu'à la prétendue "singularité" d'un véritable savoir absolu bien plus délirant que celui d'Hegel ! Le fait que la connaissance dévoile l'étendue de notre ignorance constitue la réfutation aussi bien des technophiles que des technophobes.

Même si notre connaissance est en expansion exponentielle, nos questions connaissent également une expansion exponentielle plus rapide. Tous les mathématiciens vous le diront, l'élargissement du fossé entre deux courbes exponentielles est lui-même une courbe exponentielle. Cet écart entre les questions et réponses représente la courbe exponentielle de notre ignorance.” A croire que la science est une méthode qui développe plus notre ignorance que notre connaissance.


- La communication télépathique pour les militaires

L'armée américaine vient d'accorder à l'université de Californie d'Irvine un fond de 4 millions de dollars afin de développer un système de “télépathie synthétique” qui permettrait aux combattants sur le front d'envoyer des messages directement depuis leur cerveau.

Le système consisterait en une interface neurale directe qui détecterait certaines manifestations cérébrales. En réception le contenu serait affiché en mode texte ou converti en message vocal. Le système proposé reposera essentiellement sur la détection d'ondes cérébrales (EEG).

Cela reste très primitif pour l'instant mais c'est quand même le début de la télépathie...


- Les exosquelettes arrivent...

Comme elle l'annonçait depuis plusieurs mois, Cyberdine, une entreprise japonaise spécialisée dans la robotique, vient de débuter la production en série de HAL, un exosquelette motorisé d'assistance musculaire.

D'une taille de 1,60 mètre pour un poids de 23 kg (dont 15 kg pour la partie destinée à la marche), HAL-5B est alimenté par une batterie de 100 volts qui lui assure une autonomie de 160 minutes en fonctionnement continu. L'éventail des tâches qu'il lui est possible d'accomplir est vaste, et comprend les gestes du quotidien, comme par exemple marcher, grimper ou descendre des escaliers, soulever une masse ou porter des objets lourds.

La principale innovation de HAL réside dans ses deux modes de fonctionnement, soit contrôlé par la personne soit autonome.

En mode dit de contrôle bio-cybernétique, HAL perçoit, à l'aide de capteurs répartis sur la peau, les faibles flux électriques émis par le cerveau et destinés à transmettre les ordres de mouvement aux muscles du porteur. Routées vers un microprocesseur, ces informations aident HAL à déterminer la nature du mouvement à générer, ainsi que son ampleur et la puissance adéquate à y consacrer. Le système informatique embarqué commande ensuite les unités motrices actionnant les articulations de l'appareillage, et cela avant même que les muscles véritables de l'utilisateur entrent en action. Un second mode est dit autonome, car il se base sur les informations déjà stockées dans la mémoire de HAL.

Cyberdine prévoit dans un premier temps une production en série de 500 unités par an, qui seront proposées en location aux hôpitaux, centres de soins ou maisons de repos voire les salles de sport.

- Un robot-webcam de surveillance

Voici le Rovio, la webcam dernière génération. Mobile, autonome, dirigeable à distance via internet ou le téléphone, il sera commercialisé début octobre 2008 et sera compatible avec le nouveau service "homelook" d'Orange.

Doté d'une caméra VGA montée sur une tête mobile, le Rovio envoie les sons et les images captés par sa caméra directement sur un serveur Web.

Avec le nouveau Rovio, vous ne serez plus jamais absent de chez vous : ce robot autonome monté sur 3 roues, équipé d'une caméra et d'un GPS embarqué peut en effet remplacer vos yeux et vos oreilles à distance. Il vous prévient par SMS ou sur son site internet lorsqu'il détecte tout changement. Vous pouvez aussi le diriger facilement depuis votre ordinateur, votre PC, votre PDA, votre télépone ou votre console de jeux. Enfin, il vous permet de communiquer grâce à son haut-parleur. Ce petit appareil simple d'usage et accessible, inaugure ainsi une nouvelle ère, à la fois plus pratique mais aussi un peu effrayante. Avec un prix annoncé aux alentours de 350€ et une offre couplée avec les forfaits Orange, le Rovio devrait être en vente début octobre 2008.

Voir le site de Robopolis mais aussi le petit Spykee dont on a déjà parlé.


- Une arme contre les tsunamis : l'invisibilité !

Comme on peut le voir sur la photo ci-dessous, le cylindre est constitué de 100 secteurs et de 7 anneaux concentriques réalisés avec des barreaux. L'expérience a parfaitement bien réussi et paradoxalement, un tel dispositif en déviant le mouvement des ondes pour leur faire éviter la région centrale est plus efficace qu'une barrière destinée à stopper la propagation d'une onde de tsunami. En pratique, et comme l'indiquent des simulations numériques, il suffirait d'un seul hémisphère construit sur le même schéma pour protéger une zone côtière.


- Finir sa vie sur Mars

Le voyage vers Mars serait un voyage sans retour, d'une part à cause de l'exposition aux rayonnement qui devrait réduire drastiquement la durée de vie, d'autre part à cause du temps nécessaire à fabriquer le carburant pour le retour. Embarquer pour Mars ce serait aller mourir sur Mars (s'y reproduire ?), quitter ce monde pour toujours...

En fait, pour la Nasa, qui vient d'obtenir une rallonge budgetaire pour ne pas se trouver distancée dans l'espace, le séjour sur Mars devrait être d'au moins 1 an, mais c'est son coût qui obligerait à une durée bien plus longue. De toutes façons, on ne sait toujours pas comment revenir, avec quel carburant ? (On pourrait imaginer que le vaisseau spatial reste en orbite, il n'y a plus qu'à le rejoindre...).

- Découverte du feu : elle daterait de 790 000 ans

On pensait jusqu'à présent que les ancêtres des hommes actuels maîtrisaient le feu depuis, sans doute, 400.000 ans. Une équipe israélienne estime qu'il faut doubler cette datation.

L'homme et ses ancêtres maîtrisent le feu depuis longtemps, comme en attestent des traces de foyers associés à des activités humaines. Cependant, l'interprétation de ces traces d'incendie est extrêmement délicate et les indices sont très ténus. Il est difficile de savoir si le feu était intentionnel et entretenu.

En Israël, sur le site archéologique de Gesher Benot Ya`aqov, au bord du Jourdain, de telles traces avaient été retrouvées et ont été datées de 790.000 ans. En 2004, Nira Alperson-Afil et son équipe avaient déjà affirmé qu'il s'agissait bien de restes de feu entretenu, mais cette analyse était contestée. La confirmation sur le terrain est devenue difficile depuis 1999, quand des travaux d'aménagement pour l'irrigation des cultures environnantes ont sérieusement endommagé ce site.

L'équipe récidive aujourd'hui dans Science. Une nouvelle analyse de l'occupation humaine à Gesher Benot Ya`aqov sur une longue période montrerait la succession de douze cultures différentes, avec, selon les chercheurs « un usage continu et maîtrisé du feu ». En témoigneraient, explique l'équipe, des silex taillés et des restes de végétaux appartenant à six espèces dont trois comestibles (olivier, orge et vigne).

Selon Nira Alperson-Afil, l'endroit était privilégié, situé sur une voie de migration entre l'Afrique et l'Europe et la maîtrise du feu aurait joué un rôle dans ces flux migratoires.

- L'innovation, véritable cause des migrations humaines ?

Selon de nouvelles études, l'innovation technologique et l'organisation sociale, plus qu'un changement environnemental, semblent avoir poussé l'homme moderne hors de l'Afrique.

Deux industries se sont développées sur un laps de temps assez bref, celle d'Howieson's Poort durant environ 5 000 ans et celle de Still Bay sur beaucoup moins longtemps, et toutes les deux au cours de la période critique où l'homme est sorti d'Afrique il y a entre 80 et 60 000 ans. De plus, l'apparition de ces industries ne semble pas en rapport avec un changement climatique connu, ce qui suggère que ces innovations n'auraient pas pour origine des facteurs environnementaux.

D'autres, comme Meave Leakey, prétendent pourtant qu'il y a bien eu une grande sécheresse à cette époque. Sinon, cela rend encore plus étonnant qu'on descende selon certaines études génétiques d'une toute petite population (2000 ?) qui aurait donc eu un avantage décisif, peut-être technologique mais qui pourrait aussi être cognitif, le passage au langage narratif par exemple puisque c'est peu après cette période qu'il y a enterrement des morts. Cela n'explique pas pourquoi ils se sont dispersés...




Brèves du mois : physique - climat - biologie - santé - technologies

Revue des sciences 11/08


Thématiques