Microsoft et Amazon sont susceptibles de créer des robots-tueurs selon une ONG

Cette actualité peut prêter à sourire, et pourtant elle n’a pas de quoi ! Selon l’ONG néerlandaise Pax, Microsoft, Intel et Amazon font partie des entreprises technologiques les plus susceptibles de créer une intelligence artificielle meurtrière. L’ère de Skynet et des robots-tueurs est-elle plus proche qu’on ne le pense ?

« Microsoft, Intel et Amazon sont des mauvais élèves »

Une organisation néerlandaise pour la paix, baptisée Pax, a établi la liste des cinquante entreprises les plus à risque à créer des robots-tueurs autonomes. Pour réaliser ce classement, l’ONG s’est basée sur l’implication des firmes dans le secteur de l’intelligence artificielle, et également leur rapprochement et antécédents avec les gouvernements dans le domaine militaire. Microsoft, Intel et Amazon font partie des mauvais élèves, contrairement à Google qui tire son épingle du jeu malgré des vidéos toujours plus impressionnantes de ses robots Boston Dynamics.

Si Microsoft fait partie des entreprises jugées à risques, c’est car la firme n’a, selon l’ONG, jamais confirmé officiellement ne pas développer d’armes hautement controversées basées sur l’intelligence artificielle. On imagine que la collaboration de Microsoft avec l’état américain dans le cadre du projet JEDI est probablement le point le plus critique ; Google avait, quant à lui, confirmé ne pas vouloir prendre part à ce projet. De plus, la vente d’un casque HoloLens 2 spécifique au secteur militaire ne fait que confirmer les craintes.

Microsoft se défend, mais PAX réfute

Suite à cette publication, Eric Hovitz de Microsoft Research a déclaré à PAX que :

Microsoft accorde une priorité au développement et à l'utilisation responsables des technologies d'intelligence artificielle. Le comité interentreprises Aether de Microsoft prend très au sérieux les utilisations sensibles des technologies d'intelligence artificielle et délibère avec soin pour faire des recommandations à l'équipe de direction de la société sur les contrôles et les directives, y compris le besoin essentiel de surveillance humaine et de prise de contrôle permanente des enjeux élevés des technologies AI sensibles.

Selon Frank Slikper, l’auteur du rapport chez PAX, cette déclaration de Microsoft ne peut être considérée comme la position officielle de la firme. Pour lui, voici les mesures que les entreprises technologiques doivent prendre pour empêcher que leurs recherches ne contribuent au développement d’armes létales autonomes :

  • S'engager publiquement à ne pas contribuer au développement d'armes autonomes létales.
  • Établir une politique claire stipulant que la société ne contribuera pas au développement ou à la production de systèmes d'armes létales et autonomes.
  • S’assurer que les employés sont bien informés de ce sur quoi ils travaillent et leur permettre des discussions ouvertes sur toutes les préoccupations connexes.

21 entreprises jugées à haut-risque

Microsoft, Intel ou Amazon ne sont pas les seules entreprises jugées à risque par PAX. Selon le rapport, 50 entreprises situées dans 12 pays différents sont concernées, dont 21 jugées à haut-risque. Parmi celles-ci, nommons également Palentir, une entreprise soutenue par la CIA qui a développé un système basé sur l’IA pouvant aider les soldats à analyser une zone de combat en temps réel.

Si vous doutez de la dangerosité des armes autonomes basées sur l'intelligence artificielle, voici ce qu'en pense Stuart Russel, professeur de science à l’Université de Californie :

Les armes autonomes deviendront inévitablement des armes de destruction massives évolutives, car une seule personne peut lancer un million ou cent millions d’armes.

Le développement de l’intelligence artificielle a des fins militaires est de plus en plus controversé, même au sein des firmes. Des employés de Microsoft avaient d’ailleurs protesté et publié une lettre ouverte à Satya Nadella lorsqu’ils ont pris connaissance de la conception du casque HoloLens 2 à des fins militaires… Sarah Connor, où te caches-tu ?

Source : paxforpeace.nl

Partager cet article

 Voir les commentaires

Connectez-vous pour poster un commentaire
Laisser un commentaire...

    D'autres articles à découvrir