Logo
Version du 1er juillet 2024

AI Act : Quelles sont mes obligations ?

Il convient de vérifier si le système concerné correspond à la définition d'un "système d'IA" au sens de l'AI Act.

Le système concerné... (cocher les réponses pertinentes) :

Pour sauvegarder le formulaire rempli, cliquer sur "Imprimer" et choisissez "Enregistrer au format PDF".

Ce formulaire est un outil d'assistance uniquement et n'a pas vocation à donner un avis juridique ni déterminer de manière exhaustive l'ensemble des obligations qui s'imposent aux différentes parties prenantes. Il constitue une grille de lecture qui, selon l'évolution de l'AI Act et de l'ensemble de la documentation qui sera applicable dans le temps, devra être revisée. Ce formulaire ne s’adresse qu’aux fournisseurs et aux déployeurs, mais non aux mandataires, distributeurs, importateurs et fabricants de produits, au sens de l’AI Act. Pour toute question ou précision, veuillez contacter votre direction juridique.

Pour sauvegarder le formulaire rempli, cliquer sur "Imprimer" et choisissez "Enregistrer au format PDF".


Définitions (Article 3 de l'AI Act) :

Déployeur. Personne physique ou morale, autorité publique, agence ou autre organisme utilisant sous sa propre autorité un système d’IA sauf lorsque ce système est utilisé dans le cadre d'une activité personnelle à caractère non professionnel.

Fournisseur. Personne physique ou morale, autorité publique, agence ou tout autre organisme qui développe ou fait développer un système d'IA ou un modèle d'IA à usage général et le met sur le marché ou met le système d'IA en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit.

Mise sur le marché. Première mise à disposition d'un système d'IA ou d'un modèle d'IA à usage général sur le marché de l'Union.

Mise en service. Fourniture d'un système d'IA par le fournisseur directement au déployeur en vue d'une première utilisation ou pour un usage propre dans l'Union, conformément à la destination du système. service.


Pratiques interdites en matière d'IA (Article 5 de l'AI Act) :

Manipulation insonsciente des comportements. Système d'IA qui a recours à des techniques subliminales, au-dessous du seuil de conscience d'une personne, ou à des techniques délibérément manipulatrices ou trompeuses, avec pour objectif ou effet d'altérer substantiellement le comportement d'une personne ou d'un groupe de personnes en portant considérablement atteinte à leur capacité à prendre une décision éclairée, amenant ainsi la personne à prendre une décision qu'elle n'aurait pas prise autrement, d'une manière qui cause ou est susceptible de causer un préjudice important à cette personne, à une autre personne ou à un groupe de personnes.

Exploitation des vulnérabilités de certains groupes. Système d'IA qui exploite les éventuelles vulnérabilités dues à l'âge, au handicap ou à la situation sociale ou économique spécifique d'une personne ou d'un groupe de personnes donné avec pour objectif ou effet d'altérer substantiellement le comportement de cette personne ou d'un membre de ce groupe d'une manière qui cause ou est raisonnablement susceptible de causer un préjudice important à cette personne ou à un tiers.

Création de bases de données reconnaissance faciale. Système d'IA qui crée ou développe des bases de données de reconnaissance faciale par le moissonnage non ciblé d'images faciales provenant de l'internet ou de la vidéosurveillance.

Prédiction d'infraction pénale. Système d'IA visant à mener des évaluations des risques des personnes physiques visant à évaluer ou à prédire la probabilité qu'une personne physique commette une infraction pénale, uniquement sur la base du profilage d'une personne physique ou de l'évaluation de ses traits de personnalités ou caractéristiques; cette interdiction ne s'applique pas aux systèmes d'IA utilisés pour étayer l'évaluation humaine de l'implication d'une personne dans une activité criminelle, qui est déjà fondée sur des faits objectifs et vérifiables, directement liés à une activité criminelle.

Déduction des émotions sur le lieu de travail ou dans les établissements d'enseignement. Système d'IA visant à inférer les émotions d'une personne physique sur le lieu de travail et dans les établissements d'enseignement, sauf lorsque l'utilisation du système d'IA est destinée à être mise en place ou mise sur le marché pour des raisons médicales ou de sécurité.

Notation sociale pouvant entraîner un préjudice. Système d'IA permettant l'évaluation ou la classification de personnes physiques ou de groupes de personnes au cours d'une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues, déduites ou prédites, la note sociale conduisant à l'une ou l'autre des situations suivantes, ou aux deux: (i) le traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de personnes dans des contextes sociaux dissociés du contexte dans lequel les données ont été générées ou collectées à l'origine; (ii) le traitement préjudiciable ou défavorable de certaines personnes ou de groupes de personnes, qui est injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de celui-ci.

Catégorisation biométrique. Système de catégorisation biométrique qui catégorise individuellement les personnes physiques sur la base de leurs données biométriques afin d'arriver à des déductions ou des inférences concernant leur race, leurs opinions politiques, leur affiliation à une organisation syndicale, leurs convictions religieuses ou philosophiques, leur vie sexuelle ou leur orientation sexuelle; cette interdiction ne couvre pas l'étiquetage ou le filtrage d'ensembles de données biométriques acquis légalement, tels que des images, fondés sur des données biométriques ou la catégorisation de données biométriques dans le domaine répressif.

Identification biométrique à distance en temps réel dans les espaces accessibles au public. Système d'identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives, sauf si et dans la mesure où cette utilisation est strictement nécessaire eu égard à l'un des objectifs suivants : (i) recherche ciblée de victimes spécifiques d'enlèvement, de la traite et de l'exploitation sexuelle d'êtres humains, ainsi que la recherche de personnes disparues ; (ii) présentation prévention d'une menace spécifique, substantielle et imminente pour la vie ou la sécurité physique de personnes physiques ou d'une menace réelle et actuelle ou réelle et prévisible d'attaque terroriste ; (iii) localisation ou identification d'une personne soupçonnée d'avoir commis une infraction pénale, aux fins de mener une enquête pénale, d'engager des poursuites ou d'exécuter une sanction pénale pour des infractions visées à l'Annexe II et punissables dans l'Etat membre concerné d'une peine ou d'une mesure de sûreté privatives de liberté d'une durée maximale d'au moins quatre ans.


Définitions (Article 3 de l'AI Act) :

Modèle d'IA à usage général. Un modèle d'IA, y compris lorsque ce modèle d'IA est entraîné à l'aide d'un grand nombre de données utilisant l'auto-supervision à grande échelle, qui présente une généralité significative et est capable d'exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont le modèle est mis sur le marché, et qui peut être intégré dans une variété de systèmes ou d'applications en aval, à l'exception des modèles d'IA utilisés pour des activités de recherche, de développement ou de prototypage avant leur publication sur le marché.


Définitions (Article 3 de l'AI Act) :

Risque systémique. Un risque spécifique aux capacités à fort impact des modèles d'IA à usage général, ayant une incidence significative sur le marché de l'Union en raison de leur portée ou d'effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sûreté, la sécurité publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle tout au long de la chaîne de valeur.

Règles de classification (Article 51 de l'AI Act) :

1. Un modèle d'IA à usage général est classé comme modèle d'IA à usage général présentant un risque systémique s'il remplit l'un des critères suivants :

a) il dispose de capacités à fort impact évaluées sur la base de méthodologies et d'outils techniques appropriés, y compris des indicateurs et des critères de référence ;

b) sur la base d'une décision de la Commission, d'office ou à la suite d'une alerte qualifiée du groupe scientifique, il possède des capaciés ou un impact équivalents à ceux énoncés au point a), compte tenu des critères définis à l'annexe XIII.


2. Un modèle d'IA à usage général est présumé avoir des capacités à fort impact conformément au paragraphe 1, point a), lorsque la quantité cumulée de calcul utilisée pour son entraînement mesurée en opérations en virgule flottante est supérieure à 10^25.


Systèmes d'IA à haut risque (Annexe 3) :

Biométrie.

a) Systèmes d'identification biométrique à distance,

b) Systèmes d'IA destinés à être utilisés à des fins de catégorisation biométrique, en fonction d'attributs ou de caractéristiques sensibles ou protégés, sur la base de la déduction de ces attributs ou de ces caractéristiques,

c) Systèmes d'IA destinés à être utilisés pour la reconnaissance des émotions.

Infrastructures critiques. Systèmes d'IA destinés à être utilisés en tant que composants de sécurité dans la gestion ou l'exploitation d'infrastructures numériques critiques, du trafic routier ou de la fourniture d'eau, de gaz, de chauffage ou d'électricité.

Education et formation professionnelle.

a) Systèmes d'IA destinés à être utilisés pour déterminer l'accès, l'admission ou l'affectation de personnes physiques à des établissements d'enseignement et de formation professionnelle,

b) Systèmes d'IA destinés à être utilisés pour évaluer les acquis d'apprentissage, y compris lorsque ceux-ci sont utilisés pour orienter le processus d'apprentissage de personnes physiques dans les établissements d'enseignement et de formation professionnelle, à tous les niveaux,

c) Systèmes d'IA destinés à être utilisés pour évaluer le niveau d'enseignement approprié qu'une personne recevra ou sera en mesure d'atteindre, dans le contexte ou au sein d'établissements d'enseignement et de formation professionnelle,

d) Systèmes d'IA destinés à être utilisés pour surveiller et détecter des comportements interdits chez les étudiants lors d'essais dans le contexte d'établissements d'enseignement et de formation ou en leur sein.

Emploi, gestion de la main d'oeuvre et accès à l'emploi indépendant.

a) Systèmes d'IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, en particulier pour publier des offres d'emploi ciblées, analyser et filtrer les candidatures et évaluer les candidats,

b) Systèmes d'IA destinés à être utilisés pour prendre des décisions influant sur les conditions des relations professionnelles, la promotion ou le licenciement dans le cadre de relations professionnelles contractuelles, pour attribuer des tâches sur la base du comportement invididuel, de traits de personnalités ou de caractéristiques personnelles ou pour suivre et évaluer les performances et le comportement de personnes dans le cadre de telles relations.

Accès et droit aux services privés essentiels et aux services publis et prestations sociales essentiels.

a) Systèmes d'IA destinés à être utilisés par les autorités publiques ou en leur nom pour évaluer l'égibilité des personnes physiques aux prestations et services d'aide sociale essentiels, y compris les services de soins de santé, ainsi que pour octroyer, réduire, révoquer ou récupérer ces prestations et services,

b) Systèmes d'IA destinés à être utilisés pour évaluer la solvabilité des personnes physiques ou pour établir leur note de crédit, à l'exception des sytsèmes d'IA utilisés à des fins de détection de fraudes financières,

c) Systèmes d'IA destinés à être utilisés pour l'évaluation des risques et la tarification en ce qui concerne les personnes physiques en matière d'assurance-vie et d'assurance maladie,

d) Systèmes d'IA destinés à évaluer et hiérarchiser les appels d'urgence émanant de personnes physiques ou à être utilisés pour envoyer ou établir des priorités dans l'envoi des services d'intervention d'urgence, y compris par la police, les pompiers et l'assistance médicale, ainsi que pour les systèmes de tri des patients admis dans les services de santé d'urgence.

Répression, dans la mesure où leur utilisation est autorisée par la législation nationale ou de l'Union applicable.

a) Systèmes d'IA destinés à être utilisés par les autorités répressives ou par les institutions, organes et organismes de l'Union, ou en leur nom, en soutien aux autorités répressives ou en leur nom pour évaluer le risque qu'une personne physique devienne la victime d'infractions pénales,

b) Systèmes d'IA destinés à être utilisés par les autorités répressives ou par les institutions, organes et organismes de l'Union, ou en leur nom, en soutien aux autorités répressives, en tant que polygraphes ou outils similaires,

c) Systèmes d'IA destinés à être utilisés par les autorités répressibes ou par les institutions, organes et organismes de l'Union, ou en leur nom, en soutien aux autorités répressives pour évaluer la fiabilité des preuves au cours d'enquêtes ou de poursuites pénales,

d) Systèmes d'IA destinés à être utilisés par les autorités répressibes ou par les institutions, organes et organismes de l'Union, ou en leur nom, en soutien aux autorités répressives pour évaluer la probabilité qu'une personne physique commette une infraction ou récidive, sans se fonder uniquement sur le profilage des personnes physiques visé à l'Article 3, paragraphe 4, de la directive (UE) 2016/680, ou pour évaluer les traits de personnalité, les caractéristiques ou les antécédents judiciaires de personnes physiques ou de groupes,

e) Systèmes d'IA destinés à être utilisés par les autorités répressibes ou par les institutions, organes et organismes de l'Union, ou en leur nom, en soutien aux autorités répressives pour le profilage de personnes physiques visé à l'Article 3, paragraphe 4, de la directive (UE) 2016/680 dans le cadre de la détection d'infractions pénales, d'enquêtes ou de poursuites en la matière ou d'exécution de sanctions pénales.

Migration, asile et gestion des contrôles aux frontières, dans la mesure où son utilisation est autorisée par la législation nationale ou de l'Union applicable.

a) Systèmes d'IA destinés à être utilisés par les autorités publiques compétentes en tant que polygraphes et outils similaires,

b) Systèmes d'IA destinés à être utilisés par les autorités publiques compétentes ou les institutions, organes ou organismes de l'Union, ou en leur nom, pour évaluer un risque, y compris un risque pour la sécurité, un risque de migration irrégulière ou un risque pour la santé, posé par une personne physique qui a l'intention d'entrer ou qui est entré sur le territoire d'un Etat membre,

c) Systèmes d'IA destinés à être utilisés par les autorités publiques compétentes ou les institutions, organes ou organismes de l'Union, ou en leur nom, pour aider les autoirtés publiques compétentes à procéder à l'examen des demandes d'asile, de visas et de titres de séjour et des plaintes connexes au regard de l'objectif visant à établir l'éligibilité des personnes physiques demandant un statut, y compris les évaluations connexes de la fiabilité des éléments de preuve,

d) Systèmes d'IA destinés à être utilisés par les autorités publiques compétentes ou les institutions, organes ou organismes de l'Union, ou en leur nom, dans le cadre de la migration, de l'asile et de la gestion des contrôles aux frontières, aux fins de la détection, de la reconnaissance ou de l'identificaiton des personnes physiques, à l'exception de la vérification des documents de voyage.

Administration de la justice et processus démocratiques.

a) Systèmes d'IA destinés à être utilisés par les autorités judiciaires ou en leur nom, pour les aider à rechercher et à interpréter les faits ou la loi, et à appliquer la loi à un ensemble concret de faits, ou à être utilisés de manière similaire lors du règlement extrajudiciaire d'un litige,

b) Systèmes d'IA destinés à être utilisés pour influencer le résultat d'une élection ou d'un référendum ou le comportement électoral de personnes physiques dans l'exercice de leur vote lors d'élections ou de référendums. Sont exclus les systèmes d'IA auxquels les personnes physiques ne sont pas directement exposées, tels que les outils utilisés pour organiser, optimiser ou structurer les campagnes politiques sous l'angle administratif ou logistique.