Une solution?
1 - ARTICLE
Du risque d’une superintelligence artificielle
Comme le rappelait récemment Nick Bostrom, philosophe et directeur du Future of Humanity Institute dans une conférence à l’USI (Unexpected Sources of Inspiration), « les pionniers de l’intelligence artificielle étaient très optimistes, ils pensaient que cela ne prendrait qu’une dizaine d’années. Mais malgré cela, ils ne s’exprimaient pas sur les conséquences … Il y a eu étonnamment peu de réflexion sur ce qui se passerait si nous parvenions vraiment à reproduire la forme d’intelligence générale...

Donnez votre avis!

Connectez-vous ou inscrivez-vous pour publier un commentaire