Dossiers

Nanotechnologies


Pourquoi l’infiniment petit fascine-t-il autant ?

par Dorothée Benoît Browaeys

Pourquoi l¹idée de piloter l’agencement des atomes pour créer de nouveaux matériaux ou des « machines moléculaires » fait-il tant rêver ? Pour beaucoup de scientifiques, l’accès aux composants élémentaires de la matière et leur manipulation constituent « la levée du voile », le point ultime de la maîtrise matérielle. Jean-Marie Lehn, prix Nobel de chimie, considère que « si la matière s’auto-organise et que l’on peut comprendre comment cela se fait et passer aux commandes, nous pouvons refaire à notre façon tout ce qui existe » Même déclaration chez ceux comme Carlo Montemagno, à Los Angeles, qui tentent de copier les moteurs moléculaires inventés par les organismes vivants. Et Jim Gimzewski, pionnier chez IBM en nanochimie, ne cache pas son enthousiasme en lâchant « Celui qui contrôle l’auto-organisation, contrôle le futur ». Alors des projets mirobolants peuvent pleuvoir.

C’est pourquoi dans ce secteur, on assiste à une mobilisation financière sans précédent. En 2005, près de 10 milliards d’euros ont été investis dans les nanotechnologies au plan international. Cette inflation évoque une spéculation sur des technologies dont on nous fait miroiter les multiples bienfaits attendus pour la santé (diagnostics, prévention, puis thérapies ciblées, amélioration de fonctions ou d’organes déficients, voire de performances humaines...) et l’environnement (stockage de l’énergie, dépollution...), les capacités à améliorer considérablement les performances pour le traitement de l’information (rapidité, capacité, intégration) et à à multiplier les outils extrêmement sophistiqués, contrôlables à distance, mais invisibles...

Cet engouement laisse perplexe. D’autant que l’on assiste à une véritable cacophonie entre ceux qui annoncent des inventions révolutionnaires et des « incrédules », comme le physicien de Stanford, Robert B. Laughlin, prix Nobel de physique, qui parle de « nanobabioles ». Espoirs et dérisions dans un secteur où prospère le mélange des genres, où s’estompent les repères entre science et fiction, entre monde académique et monde des affaires. Le point ultime d’interrogation concerne le phénomène de convergence d’échelle qui promet pour certains d’établir un continuum entre information électronique, biologique et neuronales. La validation de cette promesse reste à faire....

Reste à savoir aussi pourquoi nous développons ces techniques lilliputiennes. Quelles en sont les finalités ? Quelle idée poursuit-on avec ce réductionnisme absolu qui abolit les frontières entre l’inerte et le vivant, le naturel et l’artificiel, le cerveau et les machines ? Enfin se pose la question centrale pour nos démocraties. Qui pilote ces choix industriels ? Alors même que l’on ignore tout des impacts sanitaires des nanoparticules - qui font fi des barrières pulmonaires, hémato-encéphaliques ou placentaires et ont une surface d’interaction considérable au regard de leur taille - des produits nanostructurés sont déjà fabriqués et diffusés dans notre environnement. Des perspectives d’interaction avec nos corps s’amorcent aussi avec des implants identifiants, des stimulateurs cérébraux intégrés, des cartes de paiement sous-cutanées...Pourtant, les populations connaissent bien peu de ces projets techniques. On ne voit pas d’élus ou de politiques s’emparer de ces choix et demander la mise à plat de ces perspectives pour une compréhension et un choix démocratique.

Pour éclairer ce vaste champ des nanosciences, qui recouvrent des champs scientifiques très divers quoiqu’investissant la même échelle de la matière, nous proposons quatre articles complémentaires. Tout d’abord, Claire Weill pointe la confusion qui règne sur le termes utilisés pour décrire le nanomonde. En second lieu, nous avons tenté de faire le point sur les avancées scientifiques majeures dans le domaine nanométrique en interrogeant le physicien Rémy Mosseri. En troisième lieu, Philippe Aigrain et Claire Weill présentent un éclairage critique des projets de société qui sous-tendent les promesses affichées dans le domaine des nanotechnologies biomédicales. Enfin, Dorothée Benoît Browaeys aborde la question de la mise en débat des enjeux des nanotechnologies.



Nanodébats : la société civile est maintenue hors du jeu politique

le 17 janvier 2006  par Dorothée Benoît Browaeys

Le train des Nanos est lancé. Ses objectifs, sa direction, ses moyens de développement ont été définis par une série de rapports d’experts, le plus souvent scientifiques. En France, des académiciens ont donné leur avis sur le plan technique ( [1]), des sénateurs ont planché sur les questions biomédicales et industrielles ( [2])( [3]). Mais la population n’est pas mise au courant, n’est pas sollicitée pour envisager les perspectives et donner un avis... Pourtant les modes de vie et de consommation, les liens sociaux, les comportements, les communications, les possibilités de soins mais aussi les risques vont être transformés par les nanoobjets qui diffusent déjà dans des secteurs aussi variés que le textile, l’électronique, l’automobile, les médicaments, la surveillance, la dépollution, l’agro-alimentaire....De cette absence d’implication des citoyens résulte sans doute la radicale et prégnante contestation locale avec laquelle se débat aujourd’hui la ville de Grenoble, pôle de compétitivité.

Car, tout le monde n’adhère pas automatiquement aux nanotechnologies et au « monde » qu’elles inaugurent ou favorisent. Des questions émergent en effet....Et si les nanotechnologies concouraient à une perte de maîtrise d’objets répliquants ou capables d’auto-assemblage, à la baisse d’autonomie des individus, à la surveillance généralisée, à la concentration des pouvoirs, à une fuite en avant insensée, ou même à une aliénation croissante par la technique ? Qui pose la question des choix financiers et des alternatives ? Qui est en charge d’encadrer les risques et les usages dans une définition des limites face aux effets sociaux que ces innovations peuvent engendrer ? Quelles sont les tribunes où les politiques expliquent et rendent compte des orientations prises ? Sont-ils encore maîtres à bord ou bien les régulations économiques sont-elles seules aux commandes ?

Des processus d’interaction entre société civile, industriels, milieux académiques et pouvoirs publics ont été menés aux Etats-Unis, au Danemark ou en Grande-Bretagne et ils émergent à peine en France. Mais ces travaux et les recommandations qui en découlent restent à l’extérieur du système - hors-jeu politique- non incorporés à l’effort d’innovation. Les structures hexagonales comme l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST), les Académies, les Agences sanitaires, les Ministères fonctionnent sans considérer les dimensions sociales, collectives, intégrées et hiérarchisées. Pourtant il y a urgence... Les crises récentes (amiante, sang contaminé, OGM...) et la contestation de plus en plus radicale d’un développement mal maîtrisé, non durable ou socialement responsable, font grandir des rapports de force, propices à des affrontements violents de pouvoirs. Les nanotechnologies pourraient bien constituer le prochain bras de fer aux enjeux bien plus vastes que ceux des OGM....

1- Les changements qu’inaugurent les nanotechnologies

La descente de la technique vers le microscopique n’est pas sans incidence dans le champ social. Trois types d’impacts peuvent être distingués : les effets sur nos capacités de mesure et de maîtrise, les effets biologiques (sanitaires et environnementaux) et les effets sur les liens sociaux.

En premier lieu, l’usinage des objets à l’échelle atomique ne permet pas une connaissance immédiate des caractéristiques structurales du matériau construit. Seule une observation a posteriori permet de savoir ce qui a été réalisé. Ensuite l’échelle nanométrique est dominée par les comportements individuels des atomes : c’est le règne de la physique quantique. De ce fait, la stabilité des propriétés des objets nanostructurés ainsi que leur maîtrise posent problème. De même, leurs caractéristiques sont encore loin d’être stabilisées. Ainsi par exemple, les nanotubes de carbone, fabriqués selon des modalités différentes par une trentaine de firmes dans le monde, sont difficiles à décrire (présence ou pas de catalyseurs) et donc à normer. Plus difficiles encore, sont les problèmes que vont poser les systèmes (encore virtuels) capables d’autoorganisation donc d’évolution (notamment en parasitant le vivant comme les virus) et de réplication. À cet égard, il n’est pas sûr que les nanos changent la donne qu’ont d’ores et déjà amorcée les outils biotechnologiques....

Les innovations nanotechnologiques posent aussi des questions nouvelles en matière de risques pour l’environnement et pour la santé. Si les nanoparticules peuvent varier en taille, forme, surface, composition chimique, biopersistance...., elles sont toujours très réactives du fait de leur surface d’interaction. Deux problèmes se posent : premièrement, les nanopoudres - du fait de leur finesse - peuvent diffuser très facilement dans l’environnement mais aussi dans tous les compartiments du corps, alvéoles pulmonaires, sang, et passer la barrière placentaire ou la barrière hémato-encéphalique (qui protège le cerveau). Deuxièmement, la forme des nanoproduits peut être à l’origine d’effets toxiques. Ainsi, par exemple, les nanotubes de carbone peuvent se ficher dans les alvéoles pulmonaires et provoquer des pathologies similaires aux fibres d’amiante. Or, dans les procédures d’enregistrement des nouveaux matériaux, nous n’avons aucunement l’habitude de considérer la structure moléculaire ou « organisation dans l’espace des atomes » du produit (seule compte la description de nature chimique du matériau dans les inventaires européens ou internationaux). Il y a donc une révision drastique des modalités de mise sur le marché des nanoproduits si l’on veut pouvoir discriminer les risques.

Enfin, l’ingénierie lilliputienne qui est invisible et embarquable, possède un grand potentiel d’interaction avec nos corps et nos codes sociaux. Elle permet de connecter l’inerte et le vivant, le naturel et l’artificiel, le cerveau et les machines Ainsi le continuum entre informations physico-chimiques, électroniques, génétiques, neuronales se profile - sans être encore validée cependant - avec la possibilité de piloter des organismes vivants par des dispositifs techniques. Implants cérébraux réparateurs ou dopants, nanocapteurs de surveillance, marquages identifiants comme les « Radio Frequency Identification Devices » (RFID, technologie déjà ancienne et qui n’est pas d’échelle nanométrique, mais dont le déploiement en cours soulève des problèmes similaires) ...sont en mesure de réorganiser nos liens sociaux.

2- Qui s’empare de ces questions ? Quelles sont les structures de vigilance sur les usages ?

Il apparaît que nous sommes peu armés pour analyser les impacts des nanotechnologies. En matière de risques, nous l’avons vu, des catégories nouvelles - considérant la forme des structures moléculaires (et plus seulement la nature chimique) - sont à créer au sein du comité ISO-C29 qui vient juste de se mettre en place alors même que des nanotubes de carbone, des nanocosmétiques, ou autres nanoproduits sont déjà sur le marché ! En matière d’impact social des techniques, aucune agence, aucun organe des ministères n’est chargé d’une mission prospective sur les usages. À aucun moment dans les procédures de mise sur le marché, la question des bénéfices pour la société, n’est traitée. En absence de toute rétroaction, les processus d’innovation sont donc totalement découplés de la demande sociale ou de l’intérêt collectif.

Alors que la contestation des biotechnologies agricoles a montré l’importance de considérer les effets sociaux de l’usage des OGM (cohabitation des cultures, concentration des firmes, perte d’accès aux ressources avec les brevets...) nous ne disposons toujours d’aucun moyen structurel pour que les impacts sociaux des nanotechnologies soient considérés et « métabolisées » par le système. Pourtant, dès 2003, l’association canadienne ETC Group (pour érosion, technologie et concentration) connue pour sa vigilance en matière de biotechnologies et d’équilibre nord-sud, a publié un rapport, the « Big Down » qui mettait en garde :« Les nanotechnologies les plus puissantes émergent dans un espace presque dénué de règles et de politiques » écrivait son directeur Pat Mooney. « Comment les gouvernements et la société civile vont-ils traiter les impacts socio-économiques, environnementaux et sanitaires sans décourager l’exploration saine des perspectives bénéfiques ? Plus récemment le groupe canadien a demandé la mise en place d’une Convention internationale pour l’évaluation des nouvelles technologies (ICENT) sous l’égide des Nations Unies ( [4]]). Dans un rapport sur la Nanogéopolitique, paru le 28 juillet dernier, Pat Mooney, explique le projet en soulignant qu’il faut mettre fin au « cycle de crises » et concevoir avec le traité ICENT « un système d’alerte ou d’écoute précoce capable de contrôler n’importe quelle nouvelle technologie d’importance ». Dans un rapport précédent consacré à la propriété intellectuelle, il a aussi pointé le problème des brevets dans le champ des nanotechnologies qui peuvent inéluctablement glisser vers « l’accaparement par quelques firmes privées des éléments constitutifs de la matière (tableau de Mendeliev) ».

3- Des débats publics sans prise sur l’agenda politique

Au plan international, des processus d’interaction avec la société civile sur les enjeux des nanotechnologies, ont eu lieu depuis 2004. Mais aucun ne semble avoir donné lieu à de notables inflexions politiques. La première concerne les Britanniques qui, dans le cadre du rapport de la Royal Society et de la Royal Academy of Engineering, ont réalisé deux ateliers de discussion - en janvier 2004 - avec une cinquantaine de citoyens qui ont seulement répertorié les avantages des nanos. On sait que le gouvernement britannique n’a pas retenu les propositions les plus ambitieuses, édictées dans le rapport de la Royal Society. Le débat public danois de juin 2004, a été mené par le Danish Board of Technoloy (DBT), qui est un organisme politico-administratif, doté du même statut que l’OPECST français mais avec une mission de veille sur le débat social et d’éclairage par le public (public enlightment). Il a donc toute chance d’être « mouliné » par les législateurs qui ont l’habitude -au Danemark- de travailler avec ces avis publics. Au cours de ce débat danois, les citoyens ont demandé que les nanotechnologies servent en priorité, à lutter contre la pollution, à prévenir les changements climatiques, à développer de nouvelles sources d’énergie, de nouvelles thérapeutiques... Par contre, ils se sont montré opposés à des objectifs concernant l’allongement de la durée de vie, l’amélioration des biens de consommation et méfiants vis-à-vis des profits par le secteur privé souhaitant que soit considéré comme prioritaire, l’intérêt de la société. Aux États-Unis, une école des citoyens - conférence d’expert suivie d’une discussion- sur les nanotechnologies a vu le jour au printemps 2004, sur initiative de l’Université de Caroline du Sud. De son côté, l’Institut américain Loka, qui œuvre pour l’implication de la société civile dans le pilotage de la recherche (à l’instar de la Fondation sciences citoyennes en France), a mené en septembre 2004, deux jours de discussion associant militants, experts du monde académique, des affaires et de l’administration, Douze recommandations très concrètes ont été formulées notamment « réserver au moins 3% des budgets nano des agences fédérales pour des projets de recherche-action communautaire pour intégrer les besoins et préoccupations des populations. Toujours outre-Atlantique, en avril 2005, une conférence de citoyens s’est tenue près de Madison (Wisconsin) dans la logique de la « Loi R&D en nanotechnologies pour le 21eme siècle » adoptée en 2003 par le Congrès américain qui stipule que « la participation du public doit être intégrée au fonctionnement du programme de recherche par l’organisation régulière et continue de discussions publiques ». Treize citoyens ont exprimé leurs exigences : étiquetage des nanomatériaux, charge aux industriels de faire la preuve de l’innocuité de leurs produits, pas de marché sans information sur les impacts sanitaires et environnementaux, pas d’usage des nanotechnologies qui peuvent porter atteinte à la sphère privée dans les agences publiques... Rien n’est prévu outre-Atlantique pour que les politiques se saisissent de cette « expertise profane ». En Grande Bretagne, au printemps 2005, une opération NanoJury a été montée, sous l’impulsion de Doug Parr, membre actif de Greenpeace. Ce dernier a réussi à impliquer des chercheurs du Centre de recherche interdisciplinaire (IRC) sur les nanotechnologies de l’université de Cambridge, des sociologues de l’Université de Newcastle et le quotidien The Guardian. De mai à juillet, un groupe de seize personnes a consacré une dizaine de soirées à analyser les enjeux des nanotechnologies. Vingt recommandations (davantage de transparence dans les projets de recherche, meilleure protection de la santé, de l’environnement et égalité d’accès aux techniques) ont été adressées à divers responsables industriels et politiques dont Adrian Butt, responsable du « Groupe de dialogue sur les enjeux des nanotechnologies » au sein du Ministère britannique de l’industrie et du commerce. Mais aucune promesse d’interactions (auditions, rendez-vous ou débats politiques) n’a été recueillie.....

Au plan européen, l’opération NanoDialogue, financée par la Commission, s’apparente davantage à un effort de communication ou d’éducation qu’à un questionnement sur les sujets qui fâchent. Même si la Commission européenne a mentionné l’importance d’intégrer la dimension sociale et de formuler les attentes et les inquiétudes » dans son Plan d’action Nanosciences et Nanotechnologies 2005-2009, on constate que ces questions figurent toujours « en bout de chaîne » dans une posture de « vérification éthique » ou « d’acceptabilité », sans entrer dans un travail de réflexion sur les pratiques. De même, la consultation publique - en cours- à propos de l’opinion émise par le Comité scientifique sur les risques sanitaires émergents ou nouvellement identifiés (SCENIHR) constitué à la Direction « Sanco » (Santé des consommateurs) sur les méthodes d’évaluation des risques potentiels liés aux nanotechnologies apparaît déplacée tant il s’agit là de sujets d’experts !

4- Prendre au sérieux la critique radicale

En France, la communauté d’Agglomération de Grenoble (La Metro) prépare une démarche de concertation dans un contexte difficile puisque beaucoup de projets sont d’ores et déjà engagés (à part Nanobio et Minalogic). Elle s’appuiera sur les huit recommandations formulées dans le rapport « Démocratie locale et maîtrise sociale des nanotechnologies. Les publics grenoblois peuvent-ils participer aux choix scientifiques et techniques ? » qui a été piloté par P-B Joly, socioéconomiste à l’INRA ( [5]). Notons qu’une de ses recommandations est de réaliser avant fin 2006 une conférence de citoyens posant la question « Est-il souhaitable de poursuivre le développement des nanotechnologies à vocation civile ou militaire, à Grenoble ? Si non, quelles autres priorités de recherche ? Si oui, selon quelles conditions et dans quelles directions ? ». Pour explorer un tel « jeu des possibles » il faudra permettre de véritables investigations économiques et sociales. La question est de savoir, en amont, quels sont les chercheurs qui vont oser étudier de tels scénarios et trouver des financements sur de telles perspectives ?

Ainsi apparaissent les conditions d’un débat public authentique où sont révélés les enjeux, les acteurs et leurs engagements, les conflits d’intérêt. En résumé, et selon la vision du « conflit négociable soumis à l’arbitrage démocratique » évoquée par Paul Ricoeur ( [6]), la mise en débat des nanotechnologies exige des efforts sur cinq fronts :
-  permettre une expertise plurielle et interdisciplinaire dans le secteur académique pour étayer des scénarios alternatifs de développement,
-  faire sortir tous les arguments à partir des perceptions citoyennes en renouvelant les questions souvent « étriquées » formulées par les experts, et en évitant les postures dogmatiques de type propagande.
-  Révéler les implications financières, les intérêts industriels engagés, les rapports de force.
-  Mettre en perspective l’intérêt collectif et les responsabilités des acteurs ( [7])
-  Inscrire le débat public comme un passage obligé de l’analyse politique, pour une instruction complète ( intégrant l’expérience et l’approche intégrée citoyenne) du dossier

La Commission nationale de débat public (CNDP), autorité administrative indépendante, pourrait mettre en œuvre un débat sur la « problématique générale » des nanotechnologies si deux Ministères la saisissent. Mais qui a vraiment intérêt à exposer ce champ à haut potentiel concurrentiel à la discussion populaire ? On a vu combien l’OPECST a mal vécu la mise en œuvre d’un débat public sur les déchets nucléaires... « Nous n’avons pas besoin d’un nouveau débat car nous avons déjà organisé des auditions donc la prise en compte de la population » a déclaré un député. Il semble y avoir, dans ce propos, confusion entre consultation et débat interactif - moment qui change les postures et surtout la manière de décider. Le débat public s’impose aujourd’hui pour décrisper les oppositions claniques stériles, pour composer avec des logiques divergentes qu’il faut rendre durables, pour répondre à l’évidente interdépendance des acteurs....Il constitue un incontournable outil d’enrichissement de la démocratie représentative, capable de faire vivre une démocratie technique pour définir collectivement les finalités prioritaires qu’entendent poursuivre nos sociétés.

* L’association VivAgora, fondée en 2003, organise des cycles de débats publics sur les enjeux sociaux des développements scientifiques et techniques. Elle entend favoriser l’interaction entre acteurs académiques, publics, industriels et associatifs, le décryptage des conflits d’intérêt et la proposition de solutions responsables et humaines. Elle propose un cycle de débats publics sur le Nanomonde en 2006, à la Cité internationale universitaire de Paris (voir programme sur le site)


Nanotechnologies biomédicales : un éclairage critique

le 17 janvier 2006  par Philippe Aigrain, Claire Weill

Le domaine biomédical est un véritable révélateur des enjeux des nanotechnologies mais aussi de la confusion qui règne sur les bienfaits à en attendre. Les applications biomédicales potentielles des nanotechnologies constituent l’un des principaux arguments pour leur promotion. L’inventaire détaillé des application envisagées est cependant très hétéroclite. Il inclut par exemple des applications aussi variées que :

-  La réalisation de « nanoparticules » ciblées destinées à jouer soit un rôle de détecteurs précoces ou très précis de phénomènes pathologiques indétectables par les méthodes actuelles, soit le rôle dévolu actuellement à la pharmacopée dans la lutte contre ces pathologies. On propose souvent de combiner les deux approches pour réaliser des vecteurs intelligents, des nanomédicaments qui détectent les cibles d’une action médicamenteuse (par exemple des cellules cancéreuses ou d’autres cellules jouant un rôle dans la dissémination des cancers dans l’organisme). Avec la réalisation des technologies supports (par exemple appareils d’observation à l’échelle moléculaire), ce type d’applications constitue l’essentiel des applications soutenues dans le cadre des financements publics de recherche liés à la santé, par exemple dans le cadre du programme américain de lutte contre le cancer.
-  L’utilisation de puces à ADN pour la détection massive de « prédispositions » génétiques au développement de certaines maladies, associée dans la stratégie de certains acteurs pharmaceutiques à la recherche de médicaments « préventifs » du développement de ces pathologies. Cette stratégie constitue l’arrière-fond de la campagne publicitaire développée à grands frais dans la presse française par le groupe pharmaceutique Pfizer à l’automne 2004, campagne à laquelle divers intellectuels français ( [8]) ont alors prêté leur plume et qui entendait promouvoir ce modèle comme forme aboutie des mérites de la prévention dans une société où le grand âge se développe.
-  La réalisation de dispositifs bioniques (combinant contrôle informatique et couplage avec le système nerveux), notamment pour réaliser des prothèses afin de remédier à un handicap perceptif total ou à des paralysies. Dès 1991, Wim Wenders illustrait ce type d’applications dans son film « Jusqu’au bout du monde », faisant montre une fois de plus de sa capacité à identifier les fascinations fondamentales de notre époque.
-  L’utilisation de la biologie de synthèse pour réaliser des systèmes cellulaires artificiels capables par exemple de synthétiser des protéines ou d’autres molécules d’intérêt biomédical. Il ne s’agit là que d’une des utilisations possibles de la biologie de synthèse qui s’applique potentiellement dans d’autres domaines relevant de la chimie non médicale. On peut voir ce type d’applications comme un nouveau stade des travaux utilisant des OGM agricoles pour la production de molécules d’intérêt médical, la manipulation d’un organisme végétal existant étant remplacée par la construction ex-nihilo d’un système biologique.

Seule la première application citée plus haut (nanoparticules et ingénierie moléculaire de médicaments) présente une dimension « nanométrique » vraiment significative. Pour la seconde, c’est surtout l’industrialisation de la détection de gènes qui relève des nanotechnologies. Pour la troisième, les couplages biologique / système nerveux peuvent se faire à différentes échelles qui ne sont pas forcément nanométriques (comme par exemple pour les implants cochléaires existants). Enfin la quatrième relève d’un paradigme plus général, celui de l’ingénierie cellulaire et de la biologie de synthèse. La difficulté de réalisation, tout comme le potentiel d’application de ces projets sont très variés. Notre capacité à comprendre les bénéfices qu’on pourra en espérer ou les dangers qu’ils pourront présenter est également très différente. De telles incertitudes sont normales lors de l’abord de nouveaux champs, voire de la relabellisation sans complexes de recherches préexistantes. Comment explorer un champ et en débattre dans une telle situation ? Nous nous proposons de l’aborder en considérant les deux dimensions fondamentales du domaine biomédical : son ancrage dans le biologique comme produit de l’évolution et son couplage avec les systèmes mondiaux de santé publique.

La complexité biologique et l’ingénierie focalisée Ce que nous enseigne la compréhension évolutionniste moderne du biologique, c’est avant tout la prudence ! Les systèmes biologiques, qu’on les considère à l’échelle des cellules, des organismes ou des populations sont caractérises par l’arbitraire (le contingent), la complexité (des interactions et régulations), la redondance (des mécanismes contribuant à l’existence d’une fonction, des potentialités de changement). Ces caractéristiques constituent des défis importants pour l’application de la démarche finalisée et focalisée qui caractérise l’ingénierie technologique. Comme l’a déjà souligné Jean-Claude Ameisen dans la lettre d’information Transversales n°7 , une tension fondamentale existe entre la dimension « projet » de l’ingénieur humain et l’absence de projet du vivant en tant que tel. Alors que notre capacité d’action reste basée sur l’action ciblée et localisée, notre compréhension devient de plus en plus systémique et holistique. Cette tension s’est trouvée renforcée par l’extension des mécanismes d’appropriation des molécules et de l’information biologique (par les brevets) dans les 35 dernières années et par les modèles commerciaux et d’activité de R&D qui en ont résulté aussi bien chez les industriels que dans les laboratoires publics. Mais la tension n’est sans doute pas réductible à ce seul élément de contexte social, économique et juridique : même dans des champs comme l’immunologie où ont émergé des progrès dans la compréhension reposant sur la complexité des interactions systémiques, ce sont pour l’instant toujours des méthodes d’action focalisés sur des facteurs spécifiques qui expliquent l’essentiel des avancées médicales. S’agit-il d’une situation transitoire ou durable ? Il n’est pas sûr qu’on puisse aujourd’hui le savoir, mais le moins que l’on puisse faire est d’ouvrir les chemins du futur en installant des éléments de contexte social (limitation de l’appropriation par les brevets, débat et évaluation comparative des financements par rapport à d’autres stratégies non nanotechnologiques) qui équilibrent et ouvrent l’éventail de choix, y compris des stratégies.

Sans que cela ait fait l’objet du moindre débat, on est en train d’ajouter de nouvelles couches d’appropriation privée de mécanismes fondamentaux du vivant en laissant progressivement les brevets envahir encore plus avant les domaines moléculaires dans lesquels information et matière sont largement indistinguables. Si l’on poursuit cette voie, c’est un pan entier des savoirs et des techniques du futur que l’on condamnera, celui de la compréhension et des stratégies d’action systémiques dont l’exploration ne peut par nature se faire que lorsque les informations et entités essentielles sont librement accessibles et utilisables. Que l’on pense au simple fait que les détenteurs de brevets sur les molécules constitutives des multithérapies pour le SIDA ne parviennent pas à s’entendre pour les combiner en un médicament administrable en une seule prise, pourtant absolument nécessaire au traitement efficace dans les pays en développement et très utile dans les pays développés, et n’ont fait de timides progrès en la matière que sous la pression de la concurrence du domaine public générique ( [9]) (comprimé unique conçu par la société indienne CIPLA avec le soutien de fonds publics de pays en développement et associatifs). On aura alors une petite idée de la probabilité d’apparition de thérapeutiques dont la conception et la réalisation nécessitent l’accès aux droits d’exploitation sur des dizaines de composants et informations appropriées. S’il s’agissait des seules technologies et actes médicaux, ce serait sans doute déjà une grave erreur que de maintenir et d’amplifier les modes de propriété actuelle de l’information biomédicale (y compris les brevets sur les molécules). Mais lorsque l’on considère, comme nous le proposons ci-dessous l’ensemble du contexte social mondial de santé publique, ce serait une folie.

Vers l’explosion des systèmes de santé publique ?

Il existe des domaines sociaux dans lesquels les conséquences d’un développement technologique sont hélas prévisibles. Certes, nul ne sait combien de médicaments efficaces en matière de prévention du développement de maladies pour lesquels existent des prédispositions génétiques pourront être développés. Mais l’on peut d’ores et déjà être sûr que si on parvient à le faire, ou même si on peut simplement prétendre y être parvenu, de surcroît dans un contexte où le prix des médicaments correspondants est établi sur la base de monopoles de brevets, ce sera une véritable catastrophe sanitaire et sociale à l’échelle planétaire. Considérons en effet la situation ou les laboratoires X, Y et Z ont chacun au stade des essais cliniques finaux 2 ou 3 médicaments de prévention de prédisposition génétique pour des allèles (variantes de gènes) détectables par des puces à ADN et dont la fréquence dans la population est en moyenne de 20%. Il s’agit bien sûr de médicaments à prendre durant toute une vie. Le coût de traitement par patient dans une situation de monopoles de brevets risque de se situer quelque part entre 300 et 10000 euros par an et par patient. Les médicaments actuels qui ressemblent le plus à ce schéma de par leurs caractéristiques (prescription pour prévention d’un risque, faible concurrence de génériques) comme les statines (une variété de médicaments diminuant les taux de choléstérol sanguin) nous donnent une petite idée de ce qui nous attend. Un médicament comme le Lipitor représentait en 2004 5% des ventes totales de médicaments aux Etats-Unis et un chiffre d’affaires mondial sur les 3 derniers mois de l’année de près de 3 milliards d’euros, pour un coût annuel par patient qui varie de plus de 1000 euros aux Etats-Unis à 300 dans les pays les plus déterminés à refuser la fixation libre des prix pour les médicaments remboursables brevetés.

Qui peut croire que des évaluations cliniques pourront permettre de préciser un jour l’efficacité et les risques secondaires de ces médicaments « préventifs » alors qu’il y aura plusieurs dizaines de milliards d’euros en jeu pour chacun, et qu’efficacité et risques ne seront souvent tout bonnement pas évaluables avant des dizaines d’années ? Lorsque de tels médicaments seront le marché, une terrible tenaille se refermera sur ce qui restera des systèmes de santé publique : ceux-ci devront choisir entre naissance d’un marché dual (la consommation de ces nouveaux médicaments étant réservée aux riches à l’extérieur du système public) et gouffre financier. Les raisonnements pharmacoéconomiques seront impitoyables : ils affirmeront que le coût de l’année de vie saine supplémentaire offerte par ces médicaments n’est « que de » quelques milliers d’euros. Ces affirmations seront probablement erronées, mais comme il faudra au mieux près de 30 ans pour disposer d’évaluations fiables, on pourra influencer les choix médicaux et ceux des patients pendant une très longue période sur leur base. Qui va payer les sommes concernées (entre 15 et 500 milliards d’euros par an pour un pays comme la France si chacun devait prendre un ou deux de ces médicaments) ? L’utilisation démagogique de l’angoisse des consommateurs vis - à - vis des maladies dégénératives jouera à plein et permettra de les instrumentaliser contre les défenseurs des priorités de santé publique. Car le pire n’est même pas le fait que les citoyens des pays développés se mettent soudain à goûter la situation qui constitue la règle dans les pays en développement. Ce seront les occasions manquées ou détruites de faire de la vraie prévention, celle des comportements, des conditions et des modes de vie, et de l’action politique résolue sur les facteurs qui les influencent - de la sédentarité liée à l’automobile au stress dans les temps de travail et de vie familiale, des facteurs environnementaux à l’alimentation et son organisation industrielle et publicitaire.

Il ne s’agit là que d’un exemple parmi d’autres des façons dont la construction d’un contexte social, économique et juridique ainsi que le débat citoyen sont essentiels pour que nous progressions de façon raisonnable dans les incertitudes liées aux nanotechnologies bio-médicales. Ecartons dès à présent l’absurde et le nuisible, et gardons l’esprit ouvert pour le reste. Nos gouvernements et plus généralement l’approche actuelle des choix politiques ne se donnent pas les moyens d’une politique des choix technologiques. Ils s’en remettent au privé sous le diktat de l’impératif de croissance et de création d’emplois, même quand tous les signes semblent indiquer qu’une stratégie dont les industriels réclament le soutien produira des résultats inverses, ou qu’elle présente des risques importants. Ainsi, les puces ADN peuvent aujourd’hui donner accès à des polymorphismes qui sont les cartes génétiques d’un grand nombre d’individus. Ce qui pose un problème c’est l’interprétation de telles données. On peut en effet avoir accès à une description des probabilités de risques d’origine purement génétique, par construction. Or, à de rares exceptions près (existent-elles ?), les facteurs environnementaux jouent toujours dans l’expression d’une maladie. On peut avoir le gène codant une maladie donnée et ne jamais l’exprimer. Il y a donc des risques énormes à tirer des conclusions de tels tests, tout d’abord en termes de diagnostic, puis de traitements préventifs. La révision en août 2004 de la loi de bioéthique a prohibé les usages des tests génétiques hors thérapeutique ou recherche médicales, ce qui interdit par exemple leur usage par les compagnies d’assurances. Cependant, comme nous l’avons vu, il existe également des risques dans le champ proprement médical. La vigilance s’impose donc pour encadrer l’exploitation de techniques aujourd’hui accessibles, très utiles pour la recherche mais pour lesquelles existent d’ores et déjà des projets d’application commerciale fondés sur des techniques non fiables et des principes inéquitables, qui soulèvent des questions éthiques et sociales majeures.

Remerciements particuliers à Véronique Kleck pour avoir avoir attiré notre attention sur les rapports du groupe canadien ETC Group et sur la politique du National Cancer Institute (NIH, US) en matière de nanotechnologies biomédicales.


Vous avez dit « nano » ? Qu’est-ce que « nano » ?

le 17 janvier 2006  par Claire Weill

En quelques années, moins de dix ans, les efforts de recherche, d’innovation et de développements technologiques à une échelle inférieure au micron - le millionième de mètre qui est aussi mille fois plus grand que le nanomètre - ont littéralement explosé. Aujourd’hui, les progrès de la science et de la technique permettent de « voir » et de manipuler les atomes et les molécules individuellement, en particulier, et ce n’est pas rien, une molécule d’ADN, dont la taille est un peu supérieure (tiens !) à une dizaine de nanomètres. On progresse dans la synthèse d’objets de très petites tailles (nanoparticules, nanotubes de carbone) - démarche « bottom-up » et parallèlement dans l’usinage de structures de plus en plus petites - démarche « top-down ». Des domaines de recherche, autrefois situés à des échelles spatiales différentes, peuvent désormais interagir, de fait les projets scientifiques se multiplient entre chimie, biologie et physique. La biologie utilise les progrès obtenus dans la miniaturisation de la manipulation des molécules et dans le traitement de l’information. Si les innovations abondent, les risques associés aux nouveaux objets, systèmes, outils rêvés, en cours d’élaboration ou déjà sur le marché se multiplient : risques sanitaires liés à la dispersion de particules de très petites tailles, risques d’atteintes à la liberté individuelle, à la sécurité intérieure, risques de fortes inéquités dans l’exploitation privée des développements technologiques. Il s’agit à l’évidence d’être vigilants. L’information est ici stratégique, au plan militaire comme économique. Elle est par conséquent bien gardée. Dans les rapports officiels, les promesses des miracles pour l’humanité qu’apporteront à terme les nanotechnologies sont à la mesure des inquiétudes voire des peurs qu’elles suscitent. La mise de fonds est à la mesure des promesses, voire des fantasmes des lobbies, à la mesure de la crise économique et des besoins d’innovations pour relancer l’activité en panne : les moyens mis en jeux sont très importants, leur croissance est vertigineuse. Tout cela a été rendu possible par le truchement de discours extrêmement efficaces, qui ont joué un tel rôle d’amplification mais aussi de confusion qu’il est urgent de les analyser et de les déconstruire. Les confusions de langage, les glissements sémantiques, les affirmations péremptoires abondent, pas toujours étayées. Ainsi, au plan des promesses, ce qui se joue aujourd’hui dans le nanomonde devrait permettre de sauver l’humanité de ses maux principaux - épuisement des ressources naturelles, pollution locale et globale, maladies, vieillesse... Que signifie par ailleurs la « convergence » ou la « méta-convergence » entre les technologies de l’information et de la communication, les biotechnologies, les sciences et les technologies cognitives, et les nanotechnologies ? La notion de convergence semble, pour les non - avertis qui n’en connaissent pas l’origine dans le domaine des télécommunications et de l’informatique, évoquer un projet commun, un point focal vers lequel tendraient tout d’un coup comme par magie toutes les disciplines scientifiques et techniques capables d’investir les petites échelles de la matière. Pourquoi n’y aurait-il plus (ou encore moins qu’ailleurs) de frontière dans le nanomonde entre l’activité de chercheur, d’ingénieur, voire d’inconscient bricoleur (ou de savant fou ?) ? Une telle assertion ne peut être envisagée, encore qu’avec précaution, qu’en l’absence de cadre théorique, éventuellement dans certains cas pour les biotechnologies, là où la complexité est telle qu’elle donne aux scientifiques du fil à retordre.. Force est de constater que l’introduction du terme de « convergence » (qui plus si elle est « meta »...) a brouillé les pistes, provoqué des peurs là où elles n’ont pas lieu d’être (sur l’auto-organisation de la manière inerte, par exemple), permis de rebaptiser nano ce qui ne l’est pas, et aussi conduit à sous-estimer les dangers liés à l’exploitation de dispositifs techniques qui, l’arbre cachant la forêt, sont parfois bien plus imminents et par conséquent moins sophistiqués - comme l’exploitation des données génétiques obtenues sur des puces à ADN - que ceux liés à des dispositifs encore très loin de la réalisation, même en laboratoire (médicaments ciblés). Qu’est-ce qui a provoqué un tel dérapage, qui a pu faire naître l’idée chez les non avertis qu’un champ scientifique se définirait par une échelle de taille (une absurdité !), que l’homme est aujourd’hui capable non seulement de manipuler, mais de recréer du vivant, en le contrôlant, mais sans le maîtriser ? Le nanomètre n’est pas, et de loin, la plus petite échelle spatiale conquise par les scientifiques dans leur histoire. Or on parle d’infiniment petit... Dans tous ces excès de langage, la capacité à manipuler l’ADN et l’information génétique n’est certainement pas indifférente. Or, à l’heure où la connaissance du génome humain initie lentement une réorientation de la biologie moléculaire vers la recherche de nouveaux paradigmes( [10]), l’utilisation de techniques fondées uniquement sur l’information génétique, en particulier dans les domaines thérapeutique et assurantiel, doit être strictement encadrée. Par ailleurs, si les informations du nanomonde qui parviennent aux politiques comme aux citoyens regorgent de promesses chiffrées, de projets métaphysiques, ou de visions apocalyptiques, les initiatives qui visent bien humblement à fournir à ceux-ci un état de l’avancement des sciences, des techniques et des risques associés aux objets et systèmes nanométriques dont on envisage une production massive, dans des termes accessibles, ne sont pas légion. Il en est de même des efforts pour progresser dans la caractérisation de ces risques. Or, il y a urgence à dresser un état des lieux, pour permettre la définition et la mise en œuvre de politiques de précaution adaptées.

Je remercie très vivement Clarisse Herrenschmidt pour nos discussions tout autant éclairantes que passionnantes sur les terminologies employées pour décrire ce qui se joue dans le nanomonde.


3 Question à... Rémi Mosseri

le 17 janvier 2006  par Rémi Mosseri

Observe-t-on l’émergence de nouveaux paradigmes scientifiques et de ruptures technologiques majeures à l’échelle nanométrique ?

Cette question appelle un première précision. Dans l’histoire récente de la physique, les changements de paradigmes ont le plus souvent concerné des tailles extrêmes : c’était le cas au début du 19ème siècle, avec « l’infiniment petit » alors accessible aux physiciens pour la physique quantique, et l’infiniment grand de l’espace-temps pour la relativité. Or ce fameux « nanomonde » se déploie à l’échelle du nanomètre (milliardième de mètre), certes très petit au regard des objets de la vie courante (par exemple 30 000 fois plus petit qu’un cheveu), mais largement plus grand que ce que l’on observe dans les grands accélérateurs de particules. A bien des égards pourtant, cette échelle, au cœur de la frontière entre monde quantique et classique, recèle de nombreuses interrogations fondamentales. Les capacités accrues de fabrication et de manipulation d’objets, du micron (millionième de mètre) au nanomètre ouvrent donc des perspectives tout à fait exceptionnelles, y compris des potentiels d’applications, justifiant ainsi le célèbre « there is plenty of room at the bottom » prophétisé par Richard Feynman en 1959. De nombreux comportements des matériaux, à l’échelle macroscopique, obéissent à des lois descriptives, qualifiées de phénoménologiques en ce qu’elles décrivent bien le phénomène sans pour autant être directement dérivables à partir des grandes lois de la physique. A ces lois sont associées des échelles de longueur caractéristiques, qui définissent leur domaine de validité ; elles vont donc trouver leurs limites dès lors que ces dernières seront comparables, voire supérieures, à la taille des échantillons. Il en est ainsi pour les propriétés mécaniques, dès l’échelle sub-micronique, pour le prometteur champ de la micro-fluidique, où liquides et solides nano-structurés sont en contact, ou bien encore le transport électrique où la loi d’Ohm et les règles d’association des résistances seront périmés dans des nano-circuits où la diffusion électronique devra être traitée de façon quantique. Les effets de taille s’accompagnent également de possibilités nouvelles d’interactions avec des objets « uniques », qui contrastent avec les effets de moyennes inhérents aux assemblées macroscopiques. La plongée vers le nano-monde ne s’est pas faite toute seule, mais requérait que des verrous instrumentaux soient levés. Au premier rang, je citerais l’extraordinaire essor des microscopies à champ proche, qui ont permis de « voir » et manipuler des atomes individuels ; mais l’on ne saurait également oublier les méthodes de fabrication « couches par couches », comme l’épitaxie à jet moléculaire, qui ont conditionné et accompagné l’essor du domaine depuis deux décennies.

Pour désigner à la fois les modes d’analyse et de construction d’objets d’étude à l’échelle nanométrique, on évoque souvent les démarches "bottom up" et "top down" ? De quoi s’agit-il ?

La physique de la matière condensée se rapporte à l’étude des matériaux macroscopiques, faits de l’arrangement compact d’un nombre astronomique d’atomes. L’intérêt croissant des spécialistes de cette discipline pour la physique des surfaces et des interfaces, et la pression permanente vers une miniaturisation de l’électronique, se sont nourris de ces centrales technologiques, où des matériaux de grande qualité structurale sont produits dans des conditions propreté extrême, les fameuses « salles blanches », puis structurés (on pourrait presque dire « ciselés ») jusqu’aux échelles sub-microniques. Ces approches « descendantes » (« top-down »), poursuivent leurs progrès dans la réduction des tailles, guidés par des plans de progression (« road map ») ambitieux. Mais, à l’autre bout de la chaîne, se développe un tout autre mécano où le nano-matériau est assemblé depuis la brique atomique. Auto-assemblage, manipulations atome par atome, chimie douce, les formes prises par ces approches « descendantes » (« bottom-up ») sont très diverses. Elles doivent encore démontrer leur fiabilité, en particulier dans une perspective d’applications. Mais elles sont dans le même temps un superbe lieu de fertilisation croisée entre physique et chimie, et voient l’ingéniosité des expérimentateurs se frotter à des contraintes de nature très fondamentale.

Parmi les domaines de recherche à l’échelle nanométrique, quels sont ceux qui vous paraissent les plus les plus prometteurs en termes d’avancées scientifiques ?

Le champ ouvert par les nanosciences est évidemment très vaste, et si je devais n’en retenir qu’un seul, ce serait, par goût personnel, l’interface entre mondes classiques et quantiques. On est là tout près d’une zone aux contours « flous », où il faut maîtriser dans le détail les processus expérimentaux, et la physique des instruments de mesure, pour prédire ou décrire les phénomènes en jeu. On peut raisonnablement espérer qu’il sortira des efforts actuels et à venir une meilleure compréhension du phénomène de décohérence, qui sous-tend le problème de la mesure en physique quantique, ce qui pourrait contribuer à éclairer les fondements de cette discipline, toujours en débat. A partir de là, se forge aujourd’hui une interface très prometteuse entre physique atomique et physique de la matière condensée, dont le débouché ultime pourrait être cette maîtrise « quantique » de l’information, qui fait tant rêver malgré la complexité des problèmes à résoudre avant de lui donner corps. Maintenant, on pourrait citer de multiples domaines très actifs, en particulier plus proches d’applications à court terme, où le préfixe « nano » vient, à juste titre, précéder des champs plus anciens : les nanomatériaux, avec par exemple les nanotubes de carbone aux propriétés mécaniques, électroniques ou thermiques fort intéressantes ; le nanomagnétisme, nanoparticules individuelles ou nanostructuration organisée, avec en filligrane des progrès à venir importants pour les mémoires magnétiques. On peut enfin prédire sans risque que la biologie saura à l’avenir utiliser des nanosystèmes spécifiques, tant sur le plan de la recherche que sur la terrain thérapeutique.