Overblog
Suivre ce blog Administration + Créer mon blog
oeilinfo.com

science

Des physiciens font disparaître un événement dans une faille temporelle

2 Mai 2013 , Rédigé par Stéphane Publié dans #Science, #Technos, #Sécurité informatique

Des physiciens font disparaître un événement dans une faille temporelle

Pour camoufler un objet, deux approches sont privilégiées: la manipulation de l'espace et du temps. Dans la première solution, déjà exploitée, il faut jouer sur la réfraction de la lumière, et empêcher les rayons lumineux d'être réfléchis vers notre œil. Dans la seconde, les scientifiques manipulent la vitesse de l'onde lumineuse pour créer une irrégularité permettant de «cacher» un événement. Une équipe de l'Université Cornell de New York détaille ses avancées dans Nature.

Financée par le Pentagone, l'équipe de Moti Fridman a conçu un système d'«invisibilité temporelle» capable de rendre un événement totalement indétectable pendant une infime fraction de seconde. «Nos résultats représentent un pas significatif vers la réalisation d'une cape spatio-temporelle complète», estime Fridman.

L'exploit des physiciens utilise les propriétés du spectre lumineux visible et le fait que les différentes couleurs qui le composent se déplacent à des vitesses très légèrement différentes. Ils ont commencé par diffuser un rayon de lumière verte dans un câble en fibre optique. Ce rayon traverse ensuite une lentille qui le divise en deux fréquences distinctes: une lumière bleue qui se propage un petit peu plus rapidement que le rayon vert d'origine, et une lumière rouge légèrement plus lente. La différence de vitesse entre les deux rayons ainsi obtenus est encore accentuée en interposant un obstacle transparent.

Un train coupé en deux puis recollé

Au bout du compte, il se crée une sorte de «décalage temporel» entre les rayons rouge et bleu qui voyagent dans la fibre optique. Une faille minuscule, de seulement 50 picosecondes (50 millionièmes de millionième de seconde), mais suffisante pour y intercaler une décharge de laser d'une fréquence différente de la lumière passant dans la fibre optique.

Après cette brève décharge de laser, les rayons rouges et bleus subissent un traitement inverse : un nouvel obstacle accélère cette fois-ci le rouge et ralentit le bleu, et une lentille reconstitue les deux faisceaux pour produire un unique rayon vert.

Que se passe-t-il exactement? Robert Boyd et Zhimin Shi expliquent le phénomène par une comparaison avec le trafic routier. Imaginez qu'un train de 40 wagons voyage vers vous. Séparez le train en deux, accélérez la première moitié, ralentissez la seconde. Un espace est créé. Si un motard arrive au croisement, s'engouffre dans l'espace puis décampe, et que le train se recolle ensuite, un observateur n'y aura vu que du feu. Le passage du motard n'aura pas été détecté.

Applications en télécommunication

Il s'agit ici d'une preuve de concept. Mais Boyd et Shi estiment que cette invisibilité temporelle pourrait déjà avoir des applications immédiates pour sécuriser les communications. Le procédé permet de fractionner les signaux optiques et de les faire voyager à des vitesses différentes avant de les réassembler, ce qui rend les données particulièrement difficiles à intercepter.

La prochaine étape pour les chercheurs est de parvenir à accroître suffisamment la durée de la faille temporelle. Ils pensent pouvoir arriver au millionième voire au millième de seconde. Parvenir à la seconde n'est pas impossible, selon les lois de la physique. Mais il faudrait une machine de... 30.000 km.

Source:20minutes

Lire la suite

Le séquençage du génome n’explique pas tout

27 Avril 2013 , Rédigé par Stéphane Publié dans #Science

Le séquençage du génome n’explique pas tout

Une rencontre scientifique internationale vient de s’achever à Illkirch. Elle fait le point sur les dernières avancées de la recherche sur la dégradation de molécules intervenant dans des processus physiologiques normaux et pathologiques.

L’ADN du noyau de nos cellules est transcrit en ARN dit messager, qui va subir des étapes de maturation et sortir du noyau pour être traduit ensuite en protéines par une usine à fabriquer les protéines qu’on appelle le ribosome.

Des équilibres fragiles

« Il y a un équilibre très important à maintenir entre la formation de ces ARN messagers et leur destruction, pour éviter toute accumulation, ou au contraire pénurie de telle ou telle protéine qui peut être catastrophique pour la cellule, l’organe ou l’organisme tout entier » , explique Bertrand Séraphin, chercheur à l’Institut de génétique et de biologie moléculaire et cellulaire (IGBMC), qui dirige le laboratoire « Réseaux et complexes protéiques régulant la dégradation des ARN messagers eucaryotes » du département Génomique fonctionnelle & cancer de l’IGBMC.

Détenteur de plusieurs prix, dont la médaille d’argent du CNRS en 2007 et nominé inventeur de l’année en 2008, c’est en raison de la notoriété internationale de ses recherches que Strasbourg accueille la 5e édition de la conférence scientifique internationale sur la dégradation de l’ARN, organisée sous l’égide de l’EMBO, une organisation européenne de biologie moléculaire. Car cette dégradation constitue une étape clé dans les processus physiologiques, surtout quand il s’agit de se débarrasser de transcrits défectueux, potentiellement pathogéniques.

Une fonction catalytique

« Le séquençage du génome effectué il y a une dizaine d’années a montré que l’homme avait environ 30 000 gènes » , relève de son côté Imed Gallouzi, chercheur à Montréal et intervenant dans la rencontre scientifique internationale de l’EMBO organisée à l’IGBMC. « Ceci n’explique pas le nombre élevé de processus normaux et des maladies ni les différences existant entre l’homme et d’autres espèces animales avec lesquelles nous partageons pourtant 70 à 90 % de ce génome. »

Ce qui fait la différence et qui est très important, c’est ce qu’on appelle l’expression des gènes, c’est-à-dire la façon dont ce qui fait notre identité est traduit en ARN et en protéines. « Pendant longtemps, poursuit le chercheur, on pensait que l’ARN n’avait qu’une fonction d’intermédiaire entre le gène (ADN) et la protéine. » Mais dans les années 1980, Sidney Altman et Thomas R. Cech ont découvert que l’ARN pouvait avoir une fonction catalytique, comme les protéines enzymatiques, ce qui leur a valu le prix Nobel de chimie en 1989.

« On pense qu’il y a quelques milliards d’années , note Georg Stoecklin, qui travaille à Heidelberg, les premiers organismes n’avaient pas toute la palette de machinerie cellulaire observée aujourd’hui. C’est l’ARN qui avait des fonctions à la fois catalytiques et génétiques. Puis, avec le temps et l’évolution, les protéines ont pris l’action catalytique et l’ADN est devenu le support génétique ». Mais l’ARN a gardé certaines fonctions importantes. « Il y a un phénomène régulateur de l’expression de nos gènes qu’on appelle silencing ou extinction de certains gènes pour empêcher leur expression , explique Elisa Izaurralde, directrice scientifique à l’Institut Max Planck à Tübingen. Ce processus passe par l’action de toutes petites molécules d’ARN, ou micro-ARN, qui sont transcrits à partir de gènes mais qui ne sont pas traduits en protéines. S’il y en a trop ou pas assez, ou s’ils ont subi des mutations, ils vont provoquer des susceptibilités à certaines maladies, dont le cancer ou la maladie d’Alzheimer. »

Personnalisation des traitements

« Cela explique, renchérit Imed Gallouzi, que pour des cancers ou des maladies neurodégénératives, on connaissait l’existence d’un facteur génétique sans pour autant trouver le ou les gènes impliqués. Aujourd’hui, on arrive à bloquer ou à activer ces petits ARN et cela nous aide à mieux comprendre les mécanismes dans lesquels ils sont impliqués. »

Aujourd’hui, de nombreuses firmes pharmaceutiques développent des méthodes pour faire parvenir ces petites molécules dans les organes malades et avoir ainsi des propriétés thérapeutiques. « Ça marche dans l’œil ou sur la peau » , précise Bertrand Séraphin. Et il poursuit : « On utilise aussi l’analyse de l’expression de ces ARN pour suivre le développement de la maladie. Ceci nous donne des indications sur le meilleur traitement à appliquer à chaque personne, ce qui participe de la personnalisation des traitements, beaucoup plus efficaces. »

Source:lalsace

Lire la suite

Une nouvelle technique américaine pour rendre le cerveau plus lisible et faciliter l'imagerie cérébrale

21 Avril 2013 , Rédigé par Stéphane Publié dans #Science

Une nouvelle technique américaine pour rendre le cerveau plus lisible et faciliter l'imagerie cérébrale

Baptisée "Clarity" (clarté en français), la technique, mise au point aux États-Unis, devrait révolutionner les neurosciences. Il ne s’agit pas moins de rendre complètement transparent le cerveau afin de permettre d’effectuer facilement des images 3D d'une grande précision des neurones et de leurs connexions. Pour Thomas Insel, directeur de l’Institut national américain de santé mentale (Institute of Mental Health, Maryland), « il s’agit probablement de l’avancée la plus importante de ces dernières décennies dans le domaine de la neuroanatomie ». Le détail de cette méthode vient d’être publié dans la célèbre revue scientifique anglo-saxonne Nature, accompagné d’images parlant d’elles-mêmes.

Voir le cerveau dans ses plus petits détails

Pour contourner l’opacité naturelle du tissu cérébral à l’analyse, les chercheurs de l’Université de Stanford, emmenés par Karl Desseiroth, ont tout simplement retiré chimiquement les graisses, c'est-à-dire les lipides qui constituent la membrane des cellules. Un gel (appelé hydrogel) a été appliqué pour prendre la place des lipides éliminés. Il sert ainsi de support de substitution, sorte d’armature souple et transparente, afin de respecter l’intégrité des cellules.

Ensuite, différents marqueurs fluorescents, ciblant spécifiquement une cellule particulière (un neurone excitateur ou inhibiteur, entre autres) ont été injectés. La finesse obtenue du marquage est des plus remarquables puisqu’elle permet d’identifier un composant au niveau moléculaire, révélant, par exemple, la présence d’un neurotransmetteur ou d’une protéine donné(e) dans le cerveau.

Bien que les résultats révélés aient été obtenus pour du tissu de cortex de souris, l’engouement est fort dans la communauté scientifique. Car l’équipe de Deisseroth a réussi également à appliquer sa nouvelle technique sur des morceaux de cerveau humain.

On le comprend, les applications potentielles sont multiples. Certains chercheurs espèrent, par exemple, avoir ainsi accès un jour à la comparaison entre un réseau neuronal fonctionnel (sujet sain) et celui d’une personne atteinte d’une maladie ou incapacité neurologique. Avec, à la clé, une connaissance fine permettant de traiter une pathologie. Cependant, quelques années de recherche seront certainement encore nécessaires.

Source:faire-face

Lire la suite

Monsanto, la Biotech contre Mère Nature

16 Avril 2013 , Rédigé par Stéphane Publié dans #Santé publique, #Science, #international, #Politique

Monsanto, la Biotech contre Mère Nature

C'est inouï, Monsanto & Co. ne lâchent pas l'affaire. Ces entreprises biotech âpres au gain ont trouvé le moyen de prendre le contrôle exclusif de la source de toute vie -- la source de notre alimentation! Ils essayent de breveter plusieurs variétés de nos fruits et légumes de tous les jours comme les concombres, les brocolis et les melons, ce qui revient potentiellement à forcer les agriculteurs à payer pour les graines ou les exposer au risque d'être poursuivis en justice.

Mais nous pouvons les empêcher d'acheter Mère Nature. Les firmes comme Monsanto profitent des lacunes de la loi européenne pour obtenir des droits exclusifs sur des variétés classiques de graines. Il suffit donc de combler ces lacunes avant qu'elles ne créent un dangereux précédent au niveau mondial. A ces fins, nous avons besoin que des pays clés comme l'Allemagne, la France et les Pays-Bas -- où la contestation monte déjà -- appellent à un vote pour stopper les desseins de Monsanto. La communauté d'Avaaz a déjà renversé des votes, et nous pouvons à nouveau y parvenir.

De nombreux agriculteurs et politiciens s'y opposent déjà -- ne reste que le pouvoir citoyen pour obtenir de ces pays qu'ils empêchent Monsanto de faire main basse sur notre nourriture, affaire à suivre...

Source:avaaz

Lire la suite

Un système d’information décisionnel en 2014 à l’activité Aval de Sonatrach à Oran

14 Avril 2013 , Rédigé par Stéphane Publié dans #systeme d'information, #Informatique, #Science

Un système d’information décisionnel en 2014 à l’activité Aval de Sonatrach à Oran

L’activité Aval de Sonatrach à Oran adoptera, pour la première fois en fin 2014, un système d’information décisionnel en matière de gestion, a annoncé, mardi à Oran, le chargé du suivi du projet de conception et de mise en oeuvre de ce système, Omar Termoul.

Ce système fournira aux décideurs des données sur la gestion de l’entreprise dans les domaines de la production, des ressources humaines, de la maintenance et de l’approvisionnement, a-t-il indiqué à l’APS en marge des 9èmes journées scientifiques et techniques de Sonatrach qui se poursuivent pour la troisième journée à Oran.

Ce projet stratégique, qui sera adopté par l’activité Aval de Sonatrach, permettra aux dirigeants de prendre des décisions sur la base de données portées au système d’information décisionnel (SID).

Le chargé de la concrétisation de ce projet devra élaborer un plan de formation et d’accompagnement des techniciens et ingénieurs de l’activité Aval qui dirigeront ensuite le reste du projet, a ajouté M.Termoul.

Ce projet sera mis en oeuvre durant le quatrième trimestre de l’année en cours où un deuxième avisd’appel d’offres national et international sera lancé pour la conception et la mise en oeuvre du SID, après un premier avis infructueux.

Les 9èmes journées scientifiques et techniques de Sonatrach portent sur la présentation de communications et de tables rondes autour de sujets liés à l’énergie et animées par des experts et chercheurs du pays et de l’étranger, en plus de visites techniques aux complexes pétrochimiques de la zone industrielle d’Arzew.

Lire la suite

Une nouvelle étude révèle le coût considérable de la dégradation des sols et de la sécheresse

12 Avril 2013 , Rédigé par Stéphane Publié dans #international, #Science, #Economie

Une nouvelle étude révèle le coût considérable de la dégradation des sols et de la sécheresse

Selon une étude scientifique, la communauté mondiale perd jusqu'à 5 % de son produit intérieur brut agricole en raison de la dégradation des sols.

Intitulée " Économie de la désertification, de la dégradation des sols et de la sécheresse: méthodes et analyse en vue de la prise de décisions ", cette étude a été présentée lors de la deuxième Conférence scientifique de la Convention des Nations Unies sur la lutte contre la désertification, qui a débuté aujourd'hui à Bonn, en Allemagne.

La présidente du Groupe d'experts du Secrétaire général sur la viabilité mondiale, Tara Halonen, et le Secrétaire exécutif de la Convention, Luc Gnacadja, ont pris la parole lors de la séance d'ouverture de la Conférence, à laquelle plus de 600 scientifiques et représentants de gouvernements, d'organisations internationales et d'organisations de la société civile ont participé.

Selon Mme Halonen, " l'élimination de la pauvreté continuera d'être le but principal de la communauté internationale. Trois sujets %u2013 croissance verte, justice sociale et limites de l'environnement mondial %u2013 devraient guider les travaux relatifs aux objectifs en matière de développement durable après 2015. "

L'ex-Présidente de la Finlande a affirmé qu'" une gestion viable des sols, la prévention de leur dégradation et leur remise en état sont des moyens très efficaces et rentables d'éliminer la pauvreté rurale. La terre va offrir de la nourriture ainsi que des emplois et des revenus convenables aux ruraux. En outre, cette gestion est étroitement liée à la disponibilité d'énergie et de sources d'eau."

Elle a ajouté que l'intégration d'une gestion durable des sols en tant qu'élément essentiel des politiques de développement et de la coopération internationale sera avisée du point de vue économique, contribuera à l'amélioration des conditions de vie en milieu rural et atténuera les problèmes environnementaux.

De son côté, Luc Gnacadja a indiqué que l'étude est la première évaluation économique du coût de la désertification en plus de vingt ans. " Elle montre que la désertification, la dégradation des terres et la sécheresse sont des contraintes fondamentales qui s'opposent à l'obtention d'une résilience sociale et écologique, d'une sécurité alimentaire mondiale et d'une atténuation significative de la pauvreté. Si nous n'agissons pas, ces contraintes resteront le talon d'Achille du développement."

M. Gnacadja a ajouté qu' " il existe des possibilités importantes d'action, mais à moins d'approfondir la compréhension scientifique de la dégradation des sols et de la sécheresse, surtout dans le contexte de l'évolution du climat, la communauté mondiale sera mal placée pour lutter contre les incidences des changements. Continuer sans rien faire n'est plus une option."

L'étude montre que 4 à 12 % du PIB agricole de l'Afrique est perdu en raison de la dégradation de l'environnement. Le coût économique direct de la dégradation des terres varie largement, allant jusqu'à 6,6 % du PIB agricole au Paraguay, 9 % au Burkina Faso et 24 % au Guatemala.

Le prix social à payer est également énorme. Près de 870 millions de personnes souffrent de la faim de façon chronique dans le monde. En Ouzbékistan, le rendement de la production alimentaire a chuté de 20 à 30 % sous l'effet de la dégradation des sols, et en Afrique de l'Est, près de 3,7 millions de personnes ont besoin d'une assistance alimentaire en raison de la sécheresse de 2011.

La dernière évaluation économique de ce type de la désertification a été réalisée en 1992 au titre du Programme des Nations Unies pour l'environnement. À l'époque, le coût direct de ces phénomènes avait été évalué à 42 milliards de dollars par an.

Les conclusions de la Conférence scientifique, qui se termine vendredi 12 avril, seront transmises par le Comité de la science et de la technologie de la Convention à la Conférence des Parties à celle-ci, qui doit se réunir au deuxième semestre 2013.

Source:mediaterre

Lire la suite

Conférence internationale sur la médecine régénérative

10 Avril 2013 , Rédigé par Stéphane Publié dans #Science, #international

Conférence internationale sur la médecine régénérative

Ce matin, près la Salle de Presse du Saint-Siège, a été présentée la conférence internationale sur la médecine régénérative qui se tiendra au Vatican du 11 au 13 avril. On pris la parole le Cardinal Gianfranco Ravasi, Président du Conseil pontifical pour la culture, Mme.Robin Smith, Présidente de la Stem for Life Foundation et Déléguée de la NeoStem, et Mgr.Tomasz Trafny, du Département scientifique du Conseil pour la culture.

Ces assises, qui se pencheront sur ce changement fondamental de la science et de la culture, prennent place dans un projet développé par de nombreuses personnalités et bienfaiteurs du monde médical ou pastoral, journalistique ou culturel, soutenu principalement par la fondation Stem for Life. Il y a une clef de lecture à ce projet, a dit Mgr.Trafny, l’unité des principes fixés au congrès de 2011 : connaître, comprendre et étudier. « Nous entendons prévoir les éventuelles conséquences sociales et culturelles des découvertes en matière de médecine régénérative, et en particulier sur les cellules staminales adultes... On ne saurait comprendre la dynamique et les impacts culturels de cette recherche sans les connaître, et on ne les connaîtra qu’en les étudiant... Et ce principe d’étude et de réflexion permanentes doit accompagner la recherche, non la suivre ».

Dès avant le congrès de 2011, le trinôme : comprendre, connaître et étudier s’était imposé à nous, mais devait être complété par traduire, formuler et diffuser. En effet, il est apparu que la science a un langage de plus en plus impénétrable et hermétique aux non spécialistes. Il fallait donc une formulation accessible au grand public et permettant de suivre l’avancement de la connaissance. Ainsi a-t-il été recommandé aux intervenants de rendre leur savoir lisible à toutes les personnes sans formation scientifique. Après la conférence il a été décidé d’élaborer des méthodes de formation et de divulgation de haut niveau, d’où la publication du volume The Healing Cell, présenté l’an dernier à Benoît XVI. A ceci s’est ajoutée la nécessité de s’appuyer sur trois autres impératifs : compter, soutenir et coopérer. De fait, il est devenu nécessaire de peser culturellement dans le débat social en montrant des modèles de recherche scientifique d’excellence en accord avec la morale et la défense de la vie et de la dignité de la personne dès sa conception. Mais on ne saurait agir sur la société et la culture sans un apport constant de diverses forces, responsables religieuses et socio-politiques, entreprises et bienfaiteurs, convergeant sur des projets à longue échéance de recherche médicale et bioéthique. Pour peser concrètement dans le débat culturel il convient de dépasser préjugés et antagonismes, en développant la logique du dialogue et de la coopération à tout niveau avec les plus prestigieuses institutions et les meilleurs experts en la matière. En conclusion de sa présentation Mgr.Trafny a invité la presse au rendez-vous de cette année afin qu’elle fasse connaître le message optimiste et positif que l’Eglise lui assure, en faveur d’une recherche éthique de qualité. Tant à l’adresse des chercheurs, afin qu’ils ne doutent pas de nos efforts, tant à celle de tous ceux qui ont à faire avec le drame des maladies dégénératives et attendent des signes d’espérance.

Source:radinrue

Lire la suite

Obama s’intéresse de près à nos cerveaux

7 Avril 2013 , Rédigé par Stéphane Publié dans #international, #Science, #Politique

Obama s’intéresse de près à nos cerveaux

Un grand plan cerveau a été officialisé par le président Obama jeudi 4 avril.

La science est devenue depuis au moins un siècle un enjeu politique dont le souci affiché par les dirigeants s’est accentué progressivement pendant les décennies de l’après-Guerre. Les Américains ont vite compris le lien entre les progrès scientifiques et les stratégies géopolitiques. La bombe larguée sur Hiroshima a eu un impact sur les stratèges et autres conseillers du prince. Sans la science atomique, cette victoire éclair sur le Japon impérialiste n’aurait pas été possible. La science est donc devenue un enjeu majeur et déterminant dans les deux secteurs dominants de l’activité humaine, celui des Etats et de la politique, celui des industries et du profit. Et comme les productions issues de la science impactent les existences individuelles, l’enjeu s’est fait également social, avec la société plus ou moins contrôlée par la puissance des Etats qui s’impliquent dans la plupart des secteurs de la vie et notamment ce secteur clé que représente la médecine, ainsi que celui des communications. Cette préoccupation pour la science est observée depuis plus de cinquante ans dans les pays très avancés, mais réciproquement, c’est sans doute parce que ces pays ont développé des politiques scientifiques qu’ils sont devenus avancés. On se souvient des agences de recherches propulsées pendant la quatrième République puis l’époque marquée par le général de Gaulle parfaitement lucide sur le rôle de la science et très volontariste pour soutenir les centres de recherches. Au Japon, les efforts nationaux pour la recherche ont largement dépassé ceux de la France, la Grande-Bretagne ou l’Allemagne. Quant aux Etats-Unis, ils bénéficient d’universités très puissantes, dotées de moyens, avec des agences scientifiques fédérales tout aussi puissantes, dans les secteurs clés pour la défense et l’économie.

L’histoire retiendra le grand plan cancer déployé par les Etats-Unis au début du 20ème siècle à l’initiative de l’administration de l’époque et son président Nixon. Depuis, les résultats n’ont pas été au rendez-vous mais des tas d’autres planifications scientifiques ont été mises en place, aux Etats-Unis bien sûr mais aussi dans la plupart des pays avancés disposant d’institutions scientifiques et d’un Etat bien administré (trop diront ses contempteurs). L’histoire pourra retenir les plans japonais successifs pour soutenir les progrès dans les sciences du numérique. Dans le domaine de la santé, le projet du génome humain mérite d’être placé comme l’une des grandes aventures technologiques, comme le fut la conquête de la lune. Par contre, l’histoire du 21ème siècle ne retiendra pas le plan cancer sous les présidences Chirac puis Sarkozy, ni le plan Alzheimer, ni les thérapies géniques dont les échecs répétés ont fini par banaliser ce secteur thérapeutique. Les fidèles de la science moderne peuvent continuer à afficher leur foi, cela n’empêchera pas les critiques de penser que les avancées de la recherche médicale sont, du point de vue qualitatif, stabilisées pour ne pas dire enlisées, malgré le nombre sans cesse croissant de publications. Les financements publics et privés augmentant, il est logique que le nombre de chercheur s’accroisse mais le philosophe averti en ce domaine sait que le nombre ne garantit pas le progrès et que ce sont les trouveurs qui ouvrent des voies nouvelles. En ce moment, les chercheurs ne trouvent pas grand-chose, du moins sous forme de découverte directement applicable et susceptible d’avoir un impact sur le quotidien, autrement dit la science qui intéresse les financiers, les politiques et les médias de masse. Ce qui n’empêche pas de voir publiés des articles assez innovants qui d’ici dix ans, font faire basculer le paradigme de la nature. Mais à l’heure de la démocratie de masse, le citoyen n’a cure de paradigme, ce qui lui faut, c’est du concret, de l’efficace qui va lui permettre de résoudre tous ses problèmes…

Il n’y a rien de plus agaçant pour un gouvernant américain que d’avoir ce sentiment d’être en bout de course, de faire du surplace. L’Afghanistan comme l’Irak est en voie de normalisation (traduire, décomposition). Le cas libyen vient d’être réglé avec la mort du colonel et pour le reste, rien de bien excitant si ce n’est l’Iran et la Chine à surveiller. Alors, le président américain aimerait bien qu’on associe son nom à un grand plan et comme le volet militaire est un peu dans l’impasse, alors c’est du côté de la science qu’on trouvera un Barack Obama prêt à jouer le Christophe Colomb partant à la recherche d’un continent qui nous échappe, celui du (de notre) cerveau. Il serait question de cartographier l’ensemble des réseaux neuronaux, un peu comme il y vingt ans les généticiens projetèrent de séquencer le génome complet. Bien évidement, Obama ne sait pas ce que signifie exactement cartographier le cerveau, pas plus que les citoyens que nous sommes, ni même la plupart des neuroscientifiques. Néanmoins, l’essentiel pour que ce plan puisse voir le jour est que quelques conseillers scientifiques de la Maison Blanche soient suffisamment influents pour que l’administration mette la main à la poche. Et c’est ce qui sera annoncé ce jeudi par le président américain, avec une mise de départ de 100 millions de dollars, pas énorme mais des milliards vont suivre après 2014. Le projet a été pensé lors d’un congrès de neurosciences tenu à Londres fin 2011. Depuis, les conseillers du président sont convaincus que le Brain Activity Map project (rebaptisé par l’administration BRAIN, Brain Research Through Advancing Innovative Neurotechnologies) sera un grand challenge pour le 21ème siècle (plus précisément, un grand challenge pour l’administration Obama).

N’étant pas précisément au fait du projet, je ne peux qu’évoquer les débuts de controverse avérés et si la communauté scientifique est enthousiaste dans son ensemble, quelques voix dissonantes se font entendre. Ce projet est interdisciplinaire et va associer les neurosciences, les nanotechnologies et les sciences du traitement de l’information. Pour les chercheurs, l’excitation est due à la croyance envers l’enjeu qui repose plus sur un fétichisme technologique que sur des concepts solides et sans doute aussi, sur la perspective de recevoir des fonds spéciaux. La science n’étant qu’un instrument dans cette affaire. Quelques interrogations se dessinent mais n’iront pas jusqu’au stade de controverse puisque, en transposant le principe de Gabor, ce dispositif est réalisable donc il sera réalisé. Une dream team de scientifique est même annoncée pour piloter ce vaste projet.

A noter la participation du NIH mais aussi d’agences dévolues à la défense. Les défenseurs du projet mettent en avant des perspectives innovantes dans le traitement d’Alzheimer, de l’épilepsie et de traumatismes cérébraux. Mais on peut tout aussi bien suspecter quelques intentions de contrôle social et des applications dans ce sens. La science est un Janus à deux faces. Les meilleures intentions présidant à l’invention technologique peuvent être facilement détournées par les pouvoirs en place. Tout dépend des possibilités d’application pouvant en découler. Le candide pensera inévitablement à un projet diligenté par des apprentis sorciers. Un changement de paradigme est même invoqué par le Dr Newsome. Ce qui nécessite une réflexion éthique qui devrait être associée au projet, histoire de freiner les aventures un peu trop limites et de rassurer le public.

Après les enjeux sociaux et politiques, la réflexion de fond reste quand même scientifique. On peut se demander si ce changement d’échelle quantitative est capable de produire une avancée qualitative. Multiplier par cent le nombre de sondes placées sur le cerveau et augmenter la puissance de calcul permettra-t-il de comprendre différemment le fonctionnement cérébral ? On ne peut répondre à cette question pour l’instant mais je suis certain qu’en y réfléchissant avec les éléments disponibles, un avis éclairé puisse se dessiner. Sinon je ne suis pas certain que ce genre de recherche puisse faire avancer le traitement des pathologies comme Alzheimer. A moins d’un miracle.

Le mot final sera accordé à l’un des scientifiques les plus critiques à l’égard du projet, Donald Stein, qui n’y va pas par quatre chemins et pointe directement les failles majeures de ce dispositif qui vise à utiliser de manière intempestives les technologies en espérant prendre dans les mailles du filet expérimental les grandes découvertes pouvant être transposées en théories inédites. C’est mettre la charrue avant les bœufs et comme le suggère le sage Stein, il faudrait d’abord procéder à une recherche conceptuelle qui pourrait indiquer ce qu’il faut mesurer et chercher, plutôt que de mettre des sondes partout. Connaissant un peu le développement des sciences, je tiens ce précepte pour être très utile à notre époque où la faiblesse de la science est conceptuelle et non pas expérimentale, contrairement à la science des siècles passés forte de ses découvertes dépendant des expériences, en conjonction avec le travail théorique (Planck, Darwin, Watson et j’en passe). Je suis en effet convaincu qu’il faut façonner la cible pour tirer les flèches expérimentales, plutôt que de balancer des tonnes de flèches dans la masse en espérant trouver une cible pertinente.

Le plan cerveau d’Obama risque d’être un leurre de prestige politique. Les gens sont fascinés dès lors que le système s’agite et tire des plans et des flèches dans tout les sens. Même si ça ne produit aucune avancée notable, ça flashe comme un feu d’artifice dans la conscience des masses contemporaines. Coluche se demanderait si le plus utile ne serait pas de greffer un cerveau à nos politiciens. Le plan cerveau risquant en effet d’être aussi limité dans ses perspectives que le séquençage de l’ADN et sans doute aussi vain que le plan cancer.

Source:agoravox

Lire la suite

L'Europe et les Etats-Unis, une coopération scientifique dynamique

6 Avril 2013 , Rédigé par Stéphane Publié dans #Europe, #Science

L'Europe et les Etats-Unis, une coopération scientifique dynamique

Des représentants de la Commission européenne et de l'Administration américaine se sont réunis le 12 février 2013 à Washington DC, afin de faire le point sur l'état actuel des coopérations Europe-Etats-Unis en science et technologie. M. Robert-Jan Smith (Directeur-général de la Recherche et de l'Innovation, Commission européenne) et Dr Kerri-Ann Jones (Secrétaire d'Etat adjointe pour les océans et les affaires scientifiques et environnementales internationales) se sont entretenus sur le développement et le financement de nouveaux projets collaboratifs de recherche à grande échelle, notamment en recherche maritime et polaire. Cette réunion, qui a abouti sur la signature d'un nouvel accord sur la recherche en transports urbains, permet de revenir sur les partenariats scientifiques et technologiques entre l'Europe et les Etats-Unis, et, plus spécifiquement, sur leurs opportunités de financement.

Les établissements scientifiques européens et américains, de par leur grande réputation et leur qualité, sont des partenaires idéaux. Les Etats-Unis et l'Europe ont assuré plus de 55% des financements mondiaux pour la recherche et le développement en 2010. Les collaborations scientifiques transatlantiques couvrent de nombreux domaines de recherche, notamment en santé, en technologie et en environnement. La plupart de ces collaborations sont instiguées grâce à un mécanisme de "bottom-up" : les institutions et chercheurs initient eux-mêmes des coopérations transatlantiques. Ils doivent alors obtenir les financements adéquats.

Actuellement, les projets collaboratifs de recherche sont financés par des organismes tels le NIH (National Institutes of Health) et la NSF (National Science Foundation) aux Etats-Unis, et sous la tutelle du 7ème Programme Cadre (EU's 7th Framework Program for Research and Technological Development) en Europe. Grâce au 7ème PC, 220 projets transatlantiques ont été financés entre 2007 et 2012. Ces projets ont regroupé plus de 270 chercheurs et instituts américains. Le 7ème PC, qui s'achèvera fin 2013, sera remplacé par le programme Horizon 2020 (2014-2020). A lui seul, il permettra à l'Union européenne d'investir 8,1 milliards d'euros dans la recherche en 2013. Le 7ème PC consacrera notamment 1,75 milliards d'euros pour financer la mobilité de chercheurs étrangers vers l'Europe. Grâce aux programmes cadres, plus de 5.000 bourses auront été attribuées à des scientifiques et 16.000 bourses à des doctorants et post doctorants, afin qu'ils puissent travailler en Europe.

Des milliers de jeunes post-doctorants et de scientifiques européens viennent chaque année conduire leurs travaux de recherche dans des universités américaines. Ils sont attirés par l'excellence des institutions américaines, leur réputation, les opportunités de carrière et une culture propice à l'entreprenariat. Par ailleurs, un nombre croissant de jeunes chercheurs américains se lance aujourd'hui dans l'aventure européenne. Les chercheurs peuvent bénéficier, entre autres, de bourses Marie Curie et Fulbright, ainsi que de financements européens (European Research Council, ERC), nationaux (exemple des bourses Chateaubriand pour la France) et internationaux (Human Frontier Science Program).

Créé en 2007 par la Commission européenne, et financé par le 7ème PC, l'ERC encourage la recherche de haut niveau en Europe grâce à des financements compétitifs . La recherche financée par l'UE au titre du présent programme répond à la nécessité d'accroître l'attractivité de l'Europe. Fin 2013, l'ERC aura financé environ 5.000 bourses de recherche (juniors et séniors) avec un budget de plus de 7,5 milliards d'euros.

Les bourses Marie Curie ont, quant à elles, permis à 14.500 scientifiques du monde entier de travailler sur des projets internationaux de recherche lors du 6ème PC. De 2007 à 2013, 355 chercheurs américains ont été financés par ce programme (Bourses "entrantes"). Ils ont travaillé en majorité au Royaume-Uni, en Allemagne, en France et en Espagne. Les Etats-Unis ont accueilli, pendant la même période, 487 boursiers Marie Curie européens (Bourses "sortantes"), pour la plupart espagnols, italiens, français et néerlandais. En comparaison, 1.124 chercheurs français ont bénéficié de financements Marie Curie pour se rendre majoritairement au Royaume-Uni, en Allemagne et en Suisse ces 5 dernières années. Les Etats-Unis sont la 6ème destination des chercheurs boursiers français. La France accueille, quant à elle, principalement des chercheurs boursiers venus d'Italie, d'Espagne, d'Allemagne et d'Inde.

En juillet 2012, la NSF a annoncé la création du nouveau programme GROW (Graduate Research Opportunities Worldwide), afin de soutenir la mobilité de ses doctorants, les "Graduate Research Fellows". Ces jeunes chercheurs pourront collaborer avec des scientifiques européens, notamment français, en effectuant jusqu'à une année de recherche dans un laboratoire à l'étranger. Les coûts associés seront pris en charge par la NSF et par les agences on organismes de chaque pays. Ce programme illustre parfaitement la volonté croissante des Etats-Unis de développer des relations durables avec les grandes institutions étrangères. A titre d'exemple, 17% des collaborations doctorales initiées par les institutions américaines sont faites avec des partenaires européens. Ce chiffre atteint 36% au niveau master.

Les Etats-Unis et l'Europe collaborent sur de nombreux programmes de recherche, dans des domaines aussi variés que l'énergie, la météorologie, les nanotechnologies et l'espace. De nouvelles coopérations transatlantiques devraient bientôt voir le jour en biologie marine, en santé (recherche sur le VIH, la malaria et la tuberculose) et en ingénierie des matériaux (développement de matériaux innovants). Ainsi, le processus d'adhésion des Etats-Unis à la programmation européenne conjointe sur les maladies neurodégénératives (EU Joint Programming Initiative on Neurodegenerative Disease, JPND) est notamment en cours. L'objectif de cette adhésion est de faciliter les collaborations entre les pays européens et les Etats-Unis, et de réduire la fragmentation des financements orientés vers ce thème de recherche.

Source:bulletins-electroniques

Lire la suite

Recherche sur l'embryon, clash à l'Assemblée, débat reporté

1 Avril 2013 , Rédigé par Stéphane Publié dans #France, #Politique Française, #Science

Recherche sur l'embryon, clash à l'Assemblée, débat reporté

Le débat à l'Assemblée sur la proposition de loi des radicaux de gauche autorisant la recherche sur l'embryon a été chahuté jeudi soir. Le texte ne pourra être réétudié avant plusieurs semaines.

La stratégie d'obstruction des députés UMP a fait une victime jeudi soir : la proposition de loi PRG d'autoriser la recherche sur l'embryon soutenue par le gouvernement n'a pas pu aller à son terme ce qui a suscité la fureur des députés radicaux qui ont quitté l'hémicycle. Cet imbroglio procédural a pour conséquence de repousser de plusieurs semaines l'adoption de ce texte, déjà voté au Sénat début décembre. Il faudra en effet que le texte soit repris par un autre groupe parlementaire, par le gouvernement, ou mis à l'ordre du jour de l'Assemblée lorsqu'elle en a la maîtrise.

Mais que dit le nouveau texte pour susciter un tel blocage ? Depuis 2004, la recherche sur l'embryon humain est interdite, sauf dérogation. Un peu plus d'une soixantaine de projets sont en cours depuis cette date, selon le ministère de la Recherche. La proposition de loi que les élus PRG défendent permettrait d'autoriser la recherche sur desembryons surnuméraires, à quatre conditions : projet "scientifiquement pertinent", avoir "une finalité médicale", "ne pouvoir être conduit qu'avec desembryons humains" et enfin "respecter des garanties éthiques". L'Agence de biomédecine continuera d'opérer le contrôle. En début de soirée, la ministre de la Recherche Geneviève Fioraso avait jugé que cette proposition allait donner un "signe de confiance" envers les chercheurs et d''espoir" pour les patients. La députée radicale de gauche Dominique Orliac, rapporteure du texte, a elle fait état des 11 procédures intentées contre des décisions d'autorisation de recherche par la Fondation Jérôme Lejeune, association qui soutient la recherche sur la trisomie et s'oppose à l'avortement. Il s'agit donc de "sécuriser la recherche", explique-t-elle.

Blocus de l'UMP. Les députés UMP les plus réfractaires à ce texte sont ceux qui avaient déjà bataillé en 2011 lors de la révision bioéthique. Hier au Sénat, la ministre de la Recherche, geneviève Fioraso, ne s'est pas privée de rappeler qu'en 2002, avant les élections, plusieurs ténors de droite - François Fillon, Jean-François Copé, Nicolas Sarkozy, Christian Jacob notamment - avaient voté en faveur d'une autorisation encadrée en première lecture. Philippe Gosselin (UMP) a dénoncé une méthode "en catimini". "Si c'est un engagement de François Hollande, que le gouvernement porte le texte!", explique-t-il.

La gauche furieuse. "Nous sommes empêchés de légiférer et d'exercer le droit à légiférer et nous devons en tirer les conséquences, nous ne pouvons pas continuer à siéger dans des conditions parfaitement artificielles, illégitimes et inconstitutionnelles", a protesté le président du groupe des radicaux de gauche (RDDP), Roger-Gérard Schwartzenberg. Il a été suivi immédiatement par les députés écologistes qui eux aussi ont quitté l'hémicycle. Après deux heures de discussion procédurale en début de soirée, M. Schwartzenberg a jugé "inadmissible" que le débat ne puisse pas se poursuivre toute la nuit.

Vu les 300 amendements déposés par l'UMP sur le seul article du texte, il n'était pas possible que l'examen soit entièrement terminé à une heure du matin, heure de clôture des débats. "Nous sommes dans une niche mais nous ne sommes pas des chiens ! Nous allons explorer les voies du droit. L'ensemble des groupes est privé de défendre une proposition de loi !", a déploré Paul Giacobbi (RDDP). Entre minuit et une heure du matin, pour éviter qu'une motion de rejet de l'UMP ne vienne en débat, la présidente de la commission des Affaires sociales, Catherine Lemorton (PS) a lu à la tribune par deux fois le même courrier, et un compte rendu de commission, avant de céder la parole au gouvernement...

Source:lci

Lire la suite
1 2 > >>