L'avenir de l'humanité est-il mis en péril par le déploiement des technologies d'intelligence artificielle? Les pires scénarios de la science-fiction risquent-ils de devenir réalité? Des robots devenus plus intelligents que les humains pourraient-ils prendre le contrôle de la planète?
Les progrès rapides dans ce domaine, combinés à la disponibilité de millions de données et à une augmentation continue de la puissance de traitement ont amené des scientifiques et ingénieurs de renommée internationale - dont le physicien Stephen Hawking, l'ingénieur Elon Musk (fondateur de Paypal), l'informaticien Stuart Russell et le philosophe Nick Bostrum - à signer une lettre, le 11 janvier dernier, qui a eu l'effet d'une bombe dans certains milieux. Publiée sur le site The Future of Life Institute, la lettre plaide pour un programme de recherche visant le développement d'une intelligence artificielle «solide et bénéfique». Mais elle pointe en filigrane certains risques de dérive qu'on a davantage l'habitude de voir évoquer au cinéma que sous la plume des scientifiques. Dans les médias, on a carrément parlé de la bombe «i», l'intelligence artificielle pouvant s'avérer «potentiellement plus dangereuse que l'arme nucléaire», selon Elon Musk.
Professeur au Département de philosophie, Pierre Poirier s'intéresse depuis longtemps à la question de l'intelligence artificielle. Ce spécialiste des sciences cognitives et de la philosophie de l'esprit trouve la réaction médiatique grandement exagérée. «Il s'agit d'une lettre assez posée dans laquelle on ne retrouve pas le sentiment de panique dont les médias se sont fait l'écho, dit-il. Elle propose une réflexion prudente sur l'avenir de la technologie, comme cela devrait se faire pour toutes les technologies.»
Lire l'article complet
Source :
Marie-Claude Bourdon
ACTUALITÉS UQAM
11 février 2015