Et si on punissait les robots autonomes quand ils commettent un crime?
Repéré par Galaad Wilgos — 5 avril 2017 à 18h47 — mis à jour le 6 avril 2017 à 16h44
Une chercheuse de Yale a plaidé pour que l’on puisse punir un robot autonome qui aurait commis un délit ou un crime.

Temps de lecture: 2 min — Repéré sur Vocativ
Après la première mort causée par une voiture Tesla mise en autopilote, les questions philosophiques sur la responsabilité de ces machines autonomes deviennent encore plus pressantes. Qui est responsable lorsque l’un de ces robots évoluant sans contrôle humain commet un dégât, voire tue un homme?
En effet, traditionnellement, l’on impute la faute aux concepteurs lorsque les machines dérapent et provoquent des bourdes:
«Après tout, explique Vocativ, les chercheurs ont prouvé de manière approfondie que les systèmes d’intelligence artificielle héritent souvent des biais de leurs concepteurs, puisque les modèles statistiques et les types de données utilisées pour “entraîner” ses algorithmes affectent dramatiquement la façon dont le système fait ses choix.»
Cependant une chercheuse de Yale justement défend la thèse provocatrice selon laquelle il y a une responsabilité des robots. Elle affirme en effet qu’ils devraient être moralement responsables de leurs actions, voire même pénalement responsables, et donc punis le cas échéant pour d’éventuels heurts infligés à d’autres.
Pour démontrer cela, Ying Hu compare les robots aux entreprises qui, dans la loi américaine, sont considérées comme des «personnes» dont les actions sont souvent détachées des décisions des individus qui en font partie. De fait, les robots autonomes apprennent continuellement et s’ajustent aux situations: cela crée une structure interne de prise de décision qui évolue avec le temps et qui peut devenir tellement complexe qu’il est impossible d’attribuer leurs actions à une erreur de conception ou une décision humaine.
Dès lors, les robots pourraient effectivement prendre des jugements moraux, puisque leurs erreurs ne seraient plus que de leur propre fait. Les hommes seraient donc en mesure d’en être les arbitres, de juger si telle action est bonne ou mauvaise:
«Si et quand on délègue aux robots le pouvoir de prendre des décisions morales, j’affirme que c’est le devoir des hommes de les superviser. Il devrait y avoir un processus pour évaluer le raisonnement des robots et, si le raisonnement est mauvais, de l’annoncer publiquement comme tel.»
En faisant cela, il serait ainsi possible de déterminer les conduites interdites et criminelles, et de créer un système de signalement qui permettrait aux autres robots et concepteurs de robots de ne plus les répéter. La punition éventuelle étant pour le robot la désactivation ou la reprogrammation –ou l’étiquette de «criminel».
Ying Hu pense que ce problème risque de se poser de manière de plus en plus pressante – aux États-Unis, il y a déjà des voitures autonomes et des gardes de sécurité robotisés. L’Union européenne a par ailleurs déjà émis l’idée de qualifier ces robots autonomes comme «des personnes électroniques» avec «des droits et responsabilités spécifiques».
Mais il ne faut surtout pas, selon elle, punir ces robots pour disculper leur propriétaire.
Voilà le système qui peut révolutionner les fast-food
Repéré par Charlotte Pudlowski — 23 avril 2016 à 16h51
Il a été inventé par des étudiants du MIT, aux Etats-Unis.
Temps de lecture: 2 min — Repéré sur Business Insider
Des étudiants en ingénieurie mécanique du MIT (Boston, Massachusetts) viennent d’inventer un système de cuisine qui va de la commande d’un plat jusqu’à son service, et s’apprête à révolutionner le monde du fast-food selon le site Business Insider.
Les robots capables de cuisiner se perfectionnent ces dernières années, pour atteindre des niveaux impressionnants (comme ce robot qui peut réaliser 2.000 recettes, dont de la bisque de crabe, ou celui-là, spécialisé dans la cuisine asiatique). Mais Kale Rogers, Michael Farid, Braden Knight, et Luke Schlueter ont mis sur pied un «mini-restaurant entièrement automatisé». Nommé Spyce Kitchen, «il comprend un réfrigerateur, une machine à laver, des plaques de cuisson, et un chef robot, qui peut cuisiner et servir des plats composés d’ingrédients frais, en moins de cinq minutes».
Le fonctionnement est le suivant: un plat est commandé –sur une app ou un écran tactile– dont les ingrédients (frais), la sauce et la quantité peuvent être personnalisés.
Les ingrédients sont ensuite mesurés et disposés sur un tapis roulant, transportés jusqu’à l’une des quatre marmites chargées de mélanger et cuire les ingrédients ensemble.
La marmite choisie verse ensuite le plat sur une assiette et va automatiquement à l’évier pour s’auto-nettoyer.
«Notre but est de transformer le sens du fast-food» a expliqué l’équipe à Business Insider.
Elle pense que leur système en est capable, car il ne repose sur aucun travail humain, et produit des plats de qualité sur le plan nutritionnel, à bas coût. Les plats peuvent aller du jambalaya au mac and cheese. Reste la question du goût, qui n’est pas toujours le point fort des robots.
Pour Google, la robotique, c’est trop incertain, trop cher et trop de mauvaise publicité
Repéré par Léo Roynette — 18 mars 2016 à 13h29
La société Alphabet, maison-mère de Google, souhaite mettre en vente l’entreprise de robotique Boston Dynamics qu’elle avait acquise fin 2013.

Temps de lecture: 2 min — Repéré sur Bloomberg Business, Blog Silicon 2.0 Le Monde
Si l’avènement de la robotique est prévisible, il mettra du temps. Alors qu’on annonçait depuis de nombreuses années que les robots vivraient bientôt à nos côtés, la science semble avoir surestimé les progrès qui seraient effectués.
Et pour Google, le temps, c’est de l’argent. D’après une information Bloomberg Business, le géant américain a annoncé la mise en vente de la société de robotique Boston Dynamics, qu’elle avait pourtant rachetée il y a deux ans et demi, pour la somme de 500 millions de dollars (441 millions d’euros).
En cause, le départ en octobre 2014 d’Andy Rubin, créateur du système d’exploitation Android, en charge des projets de Boston Dynamics. Il n’a jamais vraiment été remplacé, et le programme est devenu moins prioritaire. Pour la nouvelle directrice financière Ruth Porat, pas question de dépenser davantage pour des projets dont on ne peut pas prédire l’ampleur et la date des retombées financières.
Les robots peuvent se transmettre leurs connaissances via internet
Repéré par Christophe-Cécil Garnier — 29 octobre 2015 à 12h17
Un robot d’une université des États-Unis a été capable d’effectuer une tâche grâce aux connaissances d’un autre robot d’une école différente.

Temps de lecture: 2 min — Repéré sur MIT Technology Review, The Guardian
Les progrès scientifiques humains dans la robotique ne cessent de soulever des questions. Est-ce qu’ils vont détruire des millions d’emplois? Faut-il des lois qui leur seraient spécifiques? Arriveront-ils à mieux cuisiner les pancakes que nous? L’une des plus sérieuses est tout de même celle liée à la singularité technologique. Si, un jour, l’intelligence artificielle dépasse l’intelligence humaine, que se passera-t-il? Est-ce que ce sera une cohabitation pacifique ou le monde sera détruit comme dans la série de films Terminator?
Si répondre à toutes ces questions semble précipité, il n’empêche que les robots évoluent à vitesse grand V. Selon le MIT Technology Review, un robot de l’université Brown, aux États-Unis, a utilisé les connaissances d’un robot d’université Cornell (qui se situe à plus de 500 kilomètres de la première).
Les robots n’ont pas besoin d’être conscients pour s’en prendre à nous
Repéré par Leïla Marchand — 6 août 2015 à 12h40
Pour prendre la décision de nous tuer, les robots n’ont pas forcément besoin d’avoir conscience d’eux-mêmes.

Temps de lecture: 2 min — Repéré sur Tech Insider
Fin juillet, Elon Musk, créateur de Paypal et patron de SpaceX, Stephen Hawking, astrophysicien, Steve Wozniak, cofondateur d’Apple, et plus de 16.000 chercheurs signaient une lettre ouverte pour mettre en garde contre les dangers des armes autonomes. Dotés d’une intelligence artificielle (IA), les robots pourraient décider eux-mêmes de tirer ou non sur une cible, avec toutes les dérives que cela fait craindre.
À LIRE AUSSI
Pourrons-nous échapper aux robots tueurs autonomes?
Sauf que, pour prendre la décision de nous tuer, les robots n’ont pas forcément besoin d’avoir conscience d’eux-mêmes. Stuart Russel, informaticien et fondateur du centre des systèmes intelligents de l’université de Californie (qui fait également partie des signataires), a répondu aux questions des journalistes de Tech Insider sur le fonctionnement des intelligences artificielles.
La conscience spontanée? Peu probable
Que vous preniez 2001, l’Odyssée de l’espace, Ex Machina, ou encore Blade Runner, les scénarios catastrophes sont toujours les mêmes: des machines intelligentes et dotées d’une conscience finissent par se retourner contre les hommes et à faire beaucoup de dégâts autour d’elles.
Pour commencer, il est très peu probable que des machines se découvrent spontanément, et sans raison, conscientes d’elles-mêmes (comme dans Ex Machina): lorsqu’un robot est construit, c’est en vue d’accomplir des objectifs précis. Et, même si la machine, mal programmée, se révèle finalement incapable de les accomplir, elle ne va pas se révolter pour éviter d’être éteinte et mener à bien sa mission première.
Imaginons que je sois un joueur d’échec qui joue contre un ordinateur, et il gagne. Je peux vous assurer qu’il n’est pas conscient mais ça ne change rien: je perds à chaque fois
Stuart Russel, fondateur du centre des systèmes intelligents de l’université de Californie
Aucun chercheur en IA ne travaille sur la conscience
Quant à volontairement doter un robot d’une conscience, la science n’en est pas encore là:
«Nous sommes plus proches de savoir comment construire un vaisseau qui va plus vite que la lumière que de savoir comment le cerveau produit la conscience.»
Selon Stuart Russel, la science a d’abord un long chemin à parcourir pour découvrir comment l’intelligence est générée par l’homme, avant d’aborder la question de la conscience. Un très long chemin:
«D’après ce que j’en sais, aucun chercheur en IA ne travaille sur la conscience. Il doit y avoir des neuroscientifiques qui essaient de la comprendre mais je ne crois pas qu’ils aient fait de réels progrès.»
Ne pas confondre conscience et autonomie
Est-on pour autant à l’abri des robots tueurs ou d’une intelligence artificielle qui signerait la fin de l’humanité? Rien n’est moins sûr. Car il ne faut pas confondre conscience et autonomie. Or cette capacité à prendre des décisions commence déjà à être maîtrisée par les machines:
«Imaginons que je sois un joueur d’échec qui joue contre un ordinateur, et il gagne. Je peux vous assurer qu’il n’est pas conscient mais ça ne change rien: je perds à chaque fois. Si on extrapole et que l’on compare le monde Les robots n’ont pas besoin d’être conscients pour s’en prendre à nous
Repéré par Leïla Marchand — 6 août 2015 à 12h40
Pour prendre la décision de nous tuer, les robots n’ont pas forcément besoin d’avoir conscience d’eux-mêmes.
Terminator Exhibition: T-800 | Dick Thomas Johnson via Flickr CC License by
Temps de lecture: 2 min — Repéré sur Tech Insider
Fin juillet, Elon Musk, créateur de Paypal et patron de SpaceX, Stephen Hawking, astrophysicien, Steve Wozniak, cofondateur d’Apple, et plus de 16.000 chercheurs signaient une lettre ouverte pour mettre en garde contre les dangers des armes autonomes. Dotés d’une intelligence artificielle (IA), les robots pourraient décider eux-mêmes de tirer ou non sur une cible, avec toutes les dérives que cela fait craindre.
À LIRE AUSSI
Pourrons-nous échapper aux robots tueurs autonomes?
Lire
Sauf que, pour prendre la décision de nous tuer, les robots n’ont pas forcément besoin d’avoir conscience d’eux-mêmes. Stuart Russel, informaticien et fondateur du centre des systèmes intelligents de l’université de Californie (qui fait également partie des signataires), a répondu aux questions des journalistes de Tech Insider sur le fonctionnement des intelligences artificielles.
La conscience spontanée? Peu probable
Que vous preniez 2001, l’Odyssée de l’espace, Ex Machina, ou encore Blade Runner, les scénarios catastrophes sont toujours les mêmes: des machines intelligentes et dotées d’une conscience finissent par se retourner contre les hommes et à faire beaucoup de dégâts autour d’elles.
Pour commencer, il est très peu probable que des machines se découvrent spontanément, et sans raison, conscientes d’elles-mêmes (comme dans Ex Machina): lorsqu’un robot est construit, c’est en vue d’accomplir des objectifs précis. Et, même si la machine, mal programmée, se révèle finalement incapable de les accomplir, elle ne va pas se révolter pour éviter d’être éteinte et mener à bien sa mission première.
Imaginons que je sois un joueur d’échec qui joue contre un ordinateur, et il gagne. Je peux vous assurer qu’il n’est pas conscient mais ça ne change rien: je perds à chaque fois
Stuart Russel, fondateur du centre des systèmes intelligents de l’université de Californie
Aucun chercheur en IA ne travaille sur la conscience
Quant à volontairement doter un robot d’une conscience, la science n’en est pas encore là:
«Nous sommes plus proches de savoir comment construire un vaisseau qui va plus vite que la lumière que de savoir comment le cerveau produit la conscience.»
Selon Stuart Russel, la science a d’abord un long chemin à parcourir pour découvrir comment l’intelligence est générée par l’homme, avant d’aborder la question de la conscience. Un très long chemin:
«D’après ce que j’en sais, aucun chercheur en IA ne travaille sur la conscience. Il doit y avoir des neuroscientifiques qui essaient de la comprendre mais je ne crois pas qu’ils aient fait de réels progrès.»
Ne pas confondre conscience et autonomie
Est-on pour autant à l’abri des robots tueurs ou d’une intelligence artificielle qui signerait la fin de l’humanité? Rien n’est moins sûr. Car il ne faut pas confondre conscience et autonomie. Or cette capacité à prendre des décisions commence déjà à être maîtrisée par les machines:
«Imaginons que je sois un joueur d’échec qui joue contre un ordinateur, et il gagne. Je peux vous assurer qu’il n’est pas conscient mais ça ne change rien: je perds à chaque fois. Si on extrapole et que l’on compare le monde à un immense jeu d’échec, ça n’a aucune importance que l’on soit battu par des machines conscientes ou non.» à un immense jeu d’échec, ça n’a aucune importance que l’on soit battu par des machines conscientes ou non.»
