En décembre 2014, dans un entretien accordé à la BBC, l’astrophysicien Stephen Hawking s’alarmait des risques que ferait encourir l’intelligence artificielle à l’humanité. « Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité », a t-il affirmé. « Une fois que les hommes auraient développé l’intelligence artificielle, celle-ci décollerait seule, et se redéfinirait de plus en plus vite. (…) Les humains, limités par la lenteur de leur évolution biologique, ne pourraient pas rivaliser et seraient dépassés. »
Plus de 5 000 signataires lui font écho dans une lettre ouverte publiée le 11 janvier par le Future of Life Institute (FLI), un organisme américain créé en 2014 pour limiter les risques liés aux machines. Parmi ces signataires figurent des experts internationaux en intelligence artificielle dont le réputé Stuart Russell de l’université de Californie à Berkeley, ou Elon Musk, le fondateur de SpaceX, des ingénieurs de Google, ou encore l’équipe du superordinateur Watson d’IBM.
Professeur d’informatique cognitive au collège Goldsmiths (université de Londres) et président de la Société pour l’étude de l’intelligence artificielle et de la simulation du comportement de 2010 à 2014, Mark Bishop n’est pas du même avis. Sa formation en philosophie n’est pas étrangère à cette posture décalée. Nous l’avons rencontré le 19 février à Londres à l’issue d’une conférence donnée à..
En savoir plus sur http://www.lemonde.fr/sciences/article/2015/03/02/mark-bishop-l-ordinateur-ne-peut-avoir-de-conscience_4585643_1650684.html#QO9TEcDfzkLo5jjc.99
Aucun commentaire:
Enregistrer un commentaire