Intelligence artificielle : la grande régulation commence

6 septembre 2024

Le 5 septembre 2024, à Vilnius, les États-Unis, le Royaume-Uni et l’Union européenne ont signé le tout premier traité international sur l’intelligence artificielle. Sous l’égide du Conseil de l’Europe, cet accord impose des obligations légales aux pays signataires pour encadrer le développement de l’IA de manière éthique et respectueuse des droits fondamentaux. Ce traité vise à concilier innovation et protection des droits de l’homme, tout en offrant un cadre juridique contraignant pour limiter les risques liés à cette technologie en pleine expansion.

Contexte et objectifs du traité

L’intelligence artificielle, avec son potentiel de transformation de nombreux secteurs, des soins de santé à la justice en passant par l’éducation, a rapidement évolué ces dernières années. Si l’IA a permis des avancées remarquables, telles que l’amélioration des diagnostics médicaux ou l’automatisation des tâches complexes, elle a également suscité des préoccupations majeures, notamment sur la manière dont elle pourrait affecter les droits individuels, la démocratie et la justice. Le traité signé à Vilnius intervient dans ce contexte où le besoin de réguler cette technologie devient crucial.

L’un des objectifs principaux de cette convention est de créer un cadre légal clair qui s’applique à toutes les phases du cycle de vie des systèmes d’IA, depuis leur conception jusqu’à leur utilisation. Cela inclut la surveillance des algorithmes pour s’assurer qu’ils ne biaisent pas les décisions, la protection des données personnelles et la mise en place de mécanismes de recours pour les individus impactés par des décisions prises par des systèmes d’IA. En établissant des obligations claires, ce traité vise à créer un équilibre entre l’innovation technologique et la protection des valeurs fondamentales de la société.

L’un des éléments centraux du traité est la gestion des risques liés à l’intelligence artificielle. Le texte impose aux pays signataires de mettre en place des régulations spécifiques pour prévenir les abus et les dangers potentiels de l’IA. Cela inclut la nécessité de protéger les droits de l’homme, d’empêcher la manipulation des institutions démocratiques et de réguler les risques que l’IA pourrait poser à l’ordre public.

Les systèmes d’IA sont de plus en plus utilisés dans des domaines sensibles, comme les systèmes judiciaires ou les services publics. Le traité reconnaît que ces systèmes peuvent avoir des répercussions importantes sur la vie des citoyens et qu’il est donc essentiel de garantir la transparence et la responsabilité des décisions prises par des systèmes d’IA. Les signataires du traité s’engagent également à offrir des recours aux citoyens en cas d’abus ou de décisions erronées, notamment en assurant que les personnes impactées par l’IA puissent contester les décisions automatisées.

Neutralité technologique et applicabilité mondiale

Un aspect essentiel du traité est sa neutralité technologique. Plutôt que de cibler des technologies spécifiques ou de réguler les détails techniques, la convention se concentre sur les principes fondamentaux que tout système d’IA doit respecter, quelle que soit la technologie sous-jacente. Cela permet au texte d’être adaptable aux futures innovations tout en assurant que les avancées technologiques ne se fassent pas au détriment des droits fondamentaux.

En plus d’être neutre technologiquement, le traité est ouvert à l’adhésion d’États non européens. Il a déjà été signé par des nations comme Israël et les États-Unis, ce qui renforce son ambition de devenir un cadre mondial pour la régulation de l’IA. Cette dimension globale est cruciale dans un contexte où les technologies numériques transcendent les frontières, et où une approche harmonisée à l’échelle internationale est nécessaire pour gérer les risques de manière cohérente.

Bien que la signature de ce traité ait été largement saluée comme une avancée majeure, certaines critiques ont émergé. Plusieurs experts ont soulevé des inquiétudes concernant l’application concrète du texte et la manière dont il pourrait être interprété par les différents États signataires. Francesca Fanucci, une experte en droit au Centre Européen pour le Droit des Organisations à but non lucratif, a par exemple souligné que certaines des dispositions du traité sont formulées de manière trop vague, laissant la place à des interprétations divergentes, notamment en matière de sécurité nationale.

Certaines critiques portent également sur les exceptions prévues pour les activités liées à la défense et à la sécurité nationale. Bien que la convention n’interdise pas l’utilisation de l’IA dans ces domaines, elle impose que ces activités respectent les principes du droit international et ne portent pas atteinte aux droits humains. Néanmoins, le fait que la régulation de l’IA ne s’applique pas directement à des technologies militaires pourrait créer des zones d’ombre dans l’application du traité.

En conclusion, la signature du premier traité international sur l’intelligence artificielle est une avancée majeure pour l’encadrement de cette technologie. Ce texte pionnier établit un cadre juridique solide et flexible, capable de s’adapter à l’évolution rapide de l’IA, tout en protégeant les droits fondamentaux, la démocratie et l’état de droit. Bien que certaines questions subsistent quant à la mise en œuvre du traité, il représente un jalon essentiel dans la régulation mondiale de l’intelligence artificielle.

Laisser un commentaire

Your email address will not be published.

HISTOIRE PRECEDENTE

Agrément d’Anticor : la justice ordonne au gouvernement d’agir sous 24 heures

HISTOIRE SUIVANTE

Mum : une série anglaise qui sublime l’ordinaire

Latest from intelligence artificielle