Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

L'intelligence artificielle sera-t-elle dangereuse pour l'homme … ou pas ?

par jlduret 24 Février 2015, 21:04 Intelligence artificielle Innovations technologie technologies du futur

L'intelligence artificielle sera-t-elle dangereuse pour l'homme … ou pas ?

Dans une longue et passionnante interview accordée à l’IEEE Spectrum, Yann LeCun, génie de l’intelligence artificielle qui dirige désormais le laboratoire d’IA de Facebook, a gentiment tiré à boulets rouges sur Ray Kurzweil, directeur de l’ingénierie chez Google depuis décembre 2012, et très médiatique père de l’Université de la Singularité, actuellement au centre d’un faisceau de projets touchant à l’intelligence artificielle.

La Singularité en question

Interrogé sur « les inévitables questions de la Singularité », concept qui voudrait que l’homme soit dépassé par les capacités de l’intelligence artificielle au point que la civilisation humaine change du tout au tout, Yann LeCun a en effet tenu à préciser sa pensée.

Ray Kurzweil « est un futuriste. Il aime avoir cette vue très positiviste sur le futur. Ce qui lui permet de vendre beaucoup de livres », commence-t-il. « Mais il n’a jamais rien apporté à la science de l’intelligence artificielle, pour autant que je sache », continue Yann LeCun avant de frapper un peu plus fort : « Et il n’a jamais écrit d’article [scientifique, NDLR] qui ait appris quoi que ce soit au monde sur la manière de faire des progrès dans le domaine de l’intelligence artificielle ».
Le directeur du laboratoire de Facebook clôt d’ailleurs le sujet Kurzweil en répondant à la question « que pensez-vous qu’il va accomplir au sein de Google ? » de la manière suivante :

« Pas grand chose n’en est ressorti jusqu’à présent ».
Ray Kurzweil a en effet une vision assez controversée de l’intelligence artificielle, qui est l'objet de son essai How to create a mind.

Pour schématiser, le directeur de l’ingénierie de Google pense qu’il faut simuler le fonctionnement d’un cerveau humain pour résoudre les problèmes de l’IA et avancer dans ce domaine. Il indique même qu’il faudrait, pour atteindre des performances proches de celles d’un humain, « un ordinateur capable de réaliser environ 100 mille milliards de calculs par seconde ». Kurzweil pense d’ailleurs que ce genre de système pourrait aboutir à la création d’une forme de conscience artificielle.

Le danger de la médiatisation

Yann LeCun, « en chercheur en intelligence artificielle » qui « travaille dans les tranchées », tient systématiquement à trouver un juste milieu entre « être optimiste sur ce qui est possible de réaliser » sans pour autant « survendre ce qu’on peut faire ». De ce comportement scientifique et posé vient sans doute sa détestation pour la « hype », ce bruit médiatique qui a déjà porté tort à l’intelligence artificielle au cours de son histoire.

« C’est pour cela que nous [les chercheurs en intelligence artificielle, NDLR] n’aimons pas le battage médiatique : il est produit par des personnes qui sont malhonnêtes ou qui se bercent d’illusions. Cela rend la vie des scientifiques honnêtes et sérieux considérablement plus compliquée », plaide-t-il.

Pour autant, Yann LeCun n’est pas homme à frapper sans chercher à comprendre. Il indique ainsi saisir que des personnes comme Larry Page, Sergey Brin, Elon Musk ou Mark Zuckerberg (son employeur) ont besoin de préparer l’avenir technologique et donc de se projeter dans ce que sera le monde d’ici dix, vingt ou trente ans.

Une situation qui force obligatoirement à se poser des questions sur les progrès de l’intelligence artificielle, sur la Singularité et sur l’éthique…

Optimisme et réalisme

L’éthique, qui fait aussi immédiatement penser aux craintes d’une intelligence artificielle autonome et consciente. Il est possible que, grâce au Deep Learning, les intelligences artificielles acquièrent un semblant de « sens commun », selon LeCun, par exemple savoir qu’un objet tombe quand on le lâche.

Mais on est loin de la conscience humaine artificielle annoncée comme proche par Ray Kurzweil… Yann LeCun n’est pas sûr que les progrès de l’IA, qui semblent exponentiels à l’heure actuelle, continuent sur cette tendance.

Il est probable qu’ils atteignent quelques limites « physiques, économiques ou sociétales ». « Je suis un optimiste, mais je suis aussi réaliste », lâche-t-il, comme pour dire que le directeur de l’ingénierie de Google ne l’est pas, lui.
____

VU ICI
Source :
IEEE Spectrum

___ A lire aussi sur le sujet sur ce blog

L'intelligence artificielle est un danger pour l'homme ?

Non l'intelligence artificielle n'est pas prêtre à prendre notre place !

10 technologies qui pourraient réduire l’espèce humaine en esclavage

commentaires

Haut de page