L’AI Act est le premier ensemble complet de règles juridiques relatives à l’IA dans un monde qui se veut avant-gardiste. Son objectif est de favoriser l’utilisation d’une IA digne de confiance en Europe et ailleurs, en garantissant le respect des droits fondamentaux, de la sécurité et des principes éthiques.
Objectif
Le nouveau Règlement européen sur l’IA établit des règles claires tant pour les développeurs que pour les utilisateurs d’intelligence artificielle. Il vise à rendre plus compréhensibles les obligations et les exigences concernant son utilisation. En même temps, il cherche à alléger les charges administratives et financières des entreprises, en particulier des PME.
L’approche choisie par l’Union européenne pour réglementer cette matière consiste à classer les systèmes d’IA en fonction de leurs différents niveaux de risque.
Quatre niveaux de risques ont été déterminés
Les systèmes d’IA à risque inacceptable
Ce sont les systèmes dangereux pour la sécurité, les emplois et les droits des personnes. Ils incluent notamment les systèmes de classement social.
Les systèmes d’IA à risque élevé
Ce sont notamment les systèmes pouvant influencer, entre autres éléments :
- l’accès à l’éducation et à l’emploi, par exemple un système qui permettrait d’évaluer digitalement un élève ou un demandeur d’emploi ;
- les services essentiels, publics et privés, comme les évaluations de crédit qui peuvent conduire à un refus des prêts ;
- les services répressifs susceptibles de porter atteinte aux droits fondamentaux, comme l’évaluation de la fiabilité des preuves ;
- la gestion de la migration, de l’asile et des frontières, comme l’examen automatisé des demandes de visa ;
- etc.
Risques élevés = obligations strictes !
Des obligations strictes visant différents maillons de la chaîne des systèmes d’IA tels que les déployeurs, fournisseurs, utilisateurs, etc. , s’appliquent à ce niveau de risque.
Les principales obligations communes à tous les acteurs impliqués dans la mise sur le marché et l’utilisation des systèmes de l’AI Act consistent, notamment, à :
- assurer la conformité règlementaire des systèmes d’IA ;
- mettre en place une procédure de gestion de la qualité des systèmes pour garantir leur conformité et sécurité ;
- prendre des mesures correctives en cas de non-conformité ou de problème de fonctionnement du système ;
- fournir les informations nécessaires aux utilisateurs sur le fonctionnement, les risques et obligations liés à l’utilisation du système ;
- coopérer avec les autorités compétentes en fournissant les informations nécessaires à propos de la conformité du système et en participant à toute enquête ou mesure corrective ;
- respecter les exigences en matière de protection des données, y compris, le cas échéant, la réalisation d’une analyse d’impact sur ladite protection.
Les systèmes d’IA à risque limité
Ils visent le manque de transparence dans l’utilisation de l’IA. Les développeurs devront signaler aux utilisateurs de systèmes d’IA, comme les chatbots, qu’ils parlent à une machine. De même, les textes, audios et vidéos générés par l’IA et publiés pour informer le public doivent clairement signaler avoir été créés par une intelligence artificielle.
Les systèmes d’IA à risque nul
Il s’agit d’une catégorie résiduaire ne comportant aucun risque pour les utilisateurs. Cette catégorie concernent la majorité des systèmes d’IA utilisés actuellement.
Sanctions
Des plafonds ont été fixés pour les sanctions pécuniaires applicables en cas de non-respect de l’AI Act. Ils varient en fonction de la taille de l’entreprise et de son chiffre d’affaire mondial.
À suivre...
Bien que ce Règlement européen encadre désormais l’IA en Europe, certains vides juridiques subsistent, notamment en ce qui concerne la responsabilité. La Directive européenne sur le sujet est attendue avec impatience.
Des interrogations demeurent également quant à la propriété intellectuelle en matière d’IA. On peut notamment se demander qui détiendra les droits d’auteur sur un projet créé par un système d’IA à partir des données d’un utilisateur ?
Evolution
L’intelligence artificielle est destinée à évoluer de manière exponentielle et nous pouvons légitimement nous interroger sur nos capacités à suivre le rythme pour encadrer juridiquement les différentes innovations qu’elle ne manquera pas d’engendrer.
Il sera crucial, pour chacun, de rester attentif aux défis lancés et d’adapter les chartes IA en conséquence.
Votre créativité mérite une protection légale ! Profitez de notre service juridique, compétent en matière d’IA. Il répondra à toutes vos questions juridiques et vous permettra ainsi de réaliser vos innovations sans entrave, sans peur ni risques.
Legal PME est LE juriste 3.0 qui répond à TOUTES vos questions et vous accompagne dans votre projet.
Allons-y !Allons-y !
Et pour être tenu au courant des actualités transmises par Légal PME, inscrivez-vous à la newsletter : un condensé bimensuel d’articles pratiques à destination des entreprises !
Je m'inscris !Je m'inscris !
→ ARTICLES SIMILAIRES DE LÉGAL PME :
- Mettre en place une “charte IA” : pourquoi et comment ?
- Les enjeux juridiques de l’Intelligence Artificielle
- Évolution de la société : combiner droit et nouvelles technologies, un mythe ?
- Google Analytics, une utilisation qui risque de coûter cher ?
- La politique de cookies
- Les entreprises face à la Cybercriminalité
- La validité légale des documents électroniques
- Comment enregistrer une marque à différents niveaux et à quelles conditions ?
- Droits d’auteur, trois conditions pour être protégé
- Check-list RGPD : Vérification de la conformité de l’entreprise en 10 étapes