Files
Tonglet_61051800_2022.pdf
Closed access - Adobe PDF
- 728.81 KB
Tonglet_61051800_2022_Annexe1.pdf
Closed access - Adobe PDF
- 94.71 KB
Tonglet_61051800_2022_Annexe2.pdf
Closed access - Adobe PDF
- 90.14 KB
Tonglet_61051800_2022_Annexe3.pdf
Closed access - Adobe PDF
- 460.98 KB
Details
- Supervisors
- Faculty
- Degree label
- Abstract
- Depuis quelques années, une nouvelle course à l'armement est lancée. Avec les progrès constants dans le domaine de l'intelligence artificielle et de la robotique, de nombreux États investissent actuellement dans de nouvelles armes dotées d'une autonomie sans cesse croissante. Parmi celles-ci, certaines font l'objet de sérieuses préoccupations. C'est le cas des "systèmes d'armes létaux autonomes", appelés également "robots tueurs". Pour cause, ces systèmes seraient capables d'abattre une cible sans aucune intervention humaine. Leur utilisation potentielle, présentant des risques considérables, soulève dès lors de nombreuses questions juridiques, éthiques et humanitaires. Un Groupe d'experts gouvernementaux a été d'ailleurs été créé au sein de l'ONU afin de se pencher sur ces questions, mais il n'est pas encore parvenu à dégager un consensus sur le sujet. Alors quelle solution faut-il adopter face au développement de ces systèmes d'armes létaux autonomes ? Le cadre juridique actuel est-il suffisant pour répondre aux enjeux posés par ces armes ou faut-il adopter de nouvelles règles pour les encadrer ?