Il convient de vérifier si le système concerné correspond à la définition d'un "système d'IA" au sens de l'AI Act.
Le système concerné... (cocher les réponses pertinentes) :
Déployeur. Personne physique ou morale, autorité publique, agence ou autre organisme utilisant sous sa propre autorité un système d’IA sauf lorsque ce système est utilisé dans le cadre d'une activité personnelle à caractère non professionnel.
Fournisseur. Personne physique ou morale, autorité publique, agence ou tout autre organisme qui développe ou fait développer un système d'IA ou un modèle d'IA à usage général et le met sur le marché ou met le système d'IA en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit.
Mise sur le marché. Première mise à disposition d'un système d'IA ou d'un modèle d'IA à usage général sur le marché de l'Union.
Mise en service. Fourniture d'un système d'IA par le fournisseur directement au déployeur en vue d'une première utilisation ou pour un usage propre dans l'Union, conformément à la destination du système. service.
Manipulation insonsciente des comportements. Système d'IA qui a recours à des techniques subliminales, au-dessous du seuil de conscience d'une personne, ou à des techniques délibérément manipulatrices ou trompeuses, avec pour objectif ou effet d'altérer substantiellement le comportement d'une personne ou d'un groupe de personnes en portant considérablement atteinte à leur capacité à prendre une décision éclairée, amenant ainsi la personne à prendre une décision qu'elle n'aurait pas prise autrement, d'une manière qui cause ou est susceptible de causer un préjudice important à cette personne, à une autre personne ou à un groupe de personnes.
Exploitation des vulnérabilités de certains groupes. Système d'IA qui exploite les éventuelles vulnérabilités dues à l'âge, au handicap ou à la situation sociale ou économique spécifique d'une personne ou d'un groupe de personnes donné avec pour objectif ou effet d'altérer substantiellement le comportement de cette personne ou d'un membre de ce groupe d'une manière qui cause ou est raisonnablement susceptible de causer un préjudice important à cette personne ou à un tiers.
Création de bases de données reconnaissance faciale. Système d'IA qui crée ou développe des bases de données de reconnaissance faciale par le moissonnage non ciblé d'images faciales provenant de l'internet ou de la vidéosurveillance.
Prédiction d'infraction pénale. Système d'IA visant à mener des évaluations des risques des personnes physiques visant à évaluer ou à prédire la probabilité qu'une personne physique commette une infraction pénale, uniquement sur la base du profilage d'une personne physique ou de l'évaluation de ses traits de personnalités ou caractéristiques; cette interdiction ne s'applique pas aux systèmes d'IA utilisés pour étayer l'évaluation humaine de l'implication d'une personne dans une activité criminelle, qui est déjà fondée sur des faits objectifs et vérifiables, directement liés à une activité criminelle.
Déduction des émotions sur le lieu de travail ou dans les établissements d'enseignement. Système d'IA visant à inférer les émotions d'une personne physique sur le lieu de travail et dans les établissements d'enseignement, sauf lorsque l'utilisation du système d'IA est destinée à être mise en place ou mise sur le marché pour des raisons médicales ou de sécurité.
Notation sociale pouvant entraîner un préjudice. Système d'IA permettant l'évaluation ou la classification de personnes physiques ou de groupes de personnes au cours d'une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues, déduites ou prédites, la note sociale conduisant à l'une ou l'autre des situations suivantes, ou aux deux: (i) le traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de personnes dans des contextes sociaux dissociés du contexte dans lequel les données ont été générées ou collectées à l'origine; (ii) le traitement préjudiciable ou défavorable de certaines personnes ou de groupes de personnes, qui est injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de celui-ci.
Catégorisation biométrique. Système de catégorisation biométrique qui catégorise individuellement les personnes physiques sur la base de leurs données biométriques afin d'arriver à des déductions ou des inférences concernant leur race, leurs opinions politiques, leur affiliation à une organisation syndicale, leurs convictions religieuses ou philosophiques, leur vie sexuelle ou leur orientation sexuelle; cette interdiction ne couvre pas l'étiquetage ou le filtrage d'ensembles de données biométriques acquis légalement, tels que des images, fondés sur des données biométriques ou la catégorisation de données biométriques dans le domaine répressif.
Identification biométrique à distance en temps réel dans les espaces accessibles au public. Système d'identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives, sauf si et dans la mesure où cette utilisation est strictement nécessaire eu égard à l'un des objectifs suivants : (i) recherche ciblée de victimes spécifiques d'enlèvement, de la traite et de l'exploitation sexuelle d'êtres humains, ainsi que la recherche de personnes disparues ; (ii) présentation prévention d'une menace spécifique, substantielle et imminente pour la vie ou la sécurité physique de personnes physiques ou d'une menace réelle et actuelle ou réelle et prévisible d'attaque terroriste ; (iii) localisation ou identification d'une personne soupçonnée d'avoir commis une infraction pénale, aux fins de mener une enquête pénale, d'engager des poursuites ou d'exécuter une sanction pénale pour des infractions visées à l'Annexe II et punissables dans l'Etat membre concerné d'une peine ou d'une mesure de sûreté privatives de liberté d'une durée maximale d'au moins quatre ans.
Modèle d'IA à usage général. Un modèle d'IA, y compris lorsque ce modèle d'IA est entraîné à l'aide d'un grand nombre de données utilisant l'auto-supervision à grande échelle, qui présente une généralité significative et est capable d'exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont le modèle est mis sur le marché, et qui peut être intégré dans une variété de systèmes ou d'applications en aval, à l'exception des modèles d'IA utilisés pour des activités de recherche, de développement ou de prototypage avant leur publication sur le marché.
Risque systémique. Un risque spécifique aux capacités à fort impact des modèles d'IA à
usage général, ayant une incidence significative sur le marché de l'Union en raison de leur portée ou
d'effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sûreté, la sécurité
publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle
tout au long de la chaîne de valeur.
Règles de classification (Article 51 de l'AI Act) :
1. Un modèle d'IA à usage général est classé comme modèle d'IA à usage général présentant un
risque systémique s'il remplit l'un des critères suivants :
a) il dispose de capacités à fort impact évaluées sur la base de méthodologies et d'outils
techniques appropriés, y compris des indicateurs et des critères de référence ;
b) sur la base
d'une décision de la Commission, d'office ou à la suite d'une alerte qualifiée du groupe scientifique,
il possède des capaciés ou un impact équivalents à ceux énoncés au point a), compte tenu des critères
définis à l'annexe XIII.
Biométrie.
a) Systèmes d'identification biométrique à distance,
b) Systèmes d'IA destinés à être utilisés à des fins de catégorisation biométrique, en fonction
d'attributs ou de caractéristiques sensibles ou protégés, sur la base de la déduction de ces attributs
ou de ces caractéristiques,
c) Systèmes d'IA destinés à être utilisés pour la reconnaissance des
émotions.
Infrastructures critiques. Systèmes d'IA destinés à être utilisés en tant que composants de sécurité dans la gestion ou l'exploitation d'infrastructures numériques critiques, du trafic routier ou de la fourniture d'eau, de gaz, de chauffage ou d'électricité.
Education et formation professionnelle.
a) Systèmes d'IA destinés à être
utilisés pour déterminer l'accès, l'admission ou l'affectation de personnes physiques à des
établissements d'enseignement et de formation professionnelle,
b) Systèmes d'IA destinés à être
utilisés pour évaluer les acquis d'apprentissage, y compris lorsque ceux-ci sont utilisés pour orienter
le processus d'apprentissage de personnes physiques dans les établissements d'enseignement et de
formation professionnelle, à tous les niveaux,
c) Systèmes d'IA destinés à être utilisés pour
évaluer le niveau d'enseignement approprié qu'une personne recevra ou sera en mesure d'atteindre, dans
le contexte ou au sein d'établissements d'enseignement et de formation professionnelle,
d)
Systèmes d'IA destinés à être utilisés pour surveiller et détecter des comportements interdits chez les
étudiants lors d'essais dans le contexte d'établissements d'enseignement et de formation ou en leur
sein.
Emploi, gestion de la main d'oeuvre et accès à l'emploi indépendant.
a) Systèmes
d'IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, en particulier
pour publier des offres d'emploi ciblées, analyser et filtrer les candidatures et évaluer les candidats,
b) Systèmes d'IA destinés à être utilisés pour prendre des décisions influant sur les conditions
des relations professionnelles, la promotion ou le licenciement dans le cadre de relations
professionnelles contractuelles, pour attribuer des tâches sur la base du comportement invididuel, de
traits de personnalités ou de caractéristiques personnelles ou pour suivre et évaluer les performances
et le comportement de personnes dans le cadre de telles relations.
Accès et droit aux services privés essentiels et aux services publis et prestations sociales
essentiels.
a) Systèmes d'IA destinés à être utilisés par les autorités publiques
ou en leur nom pour évaluer l'égibilité des personnes physiques aux prestations et services d'aide
sociale essentiels, y compris les services de soins de santé, ainsi que pour octroyer, réduire, révoquer
ou récupérer ces prestations et services,
b) Systèmes d'IA destinés à être utilisés pour évaluer
la solvabilité des personnes physiques ou pour établir leur note de crédit, à l'exception des sytsèmes
d'IA utilisés à des fins de détection de fraudes financières,
c) Systèmes d'IA destinés à être
utilisés pour l'évaluation des risques et la tarification en ce qui concerne les personnes physiques en
matière d'assurance-vie et d'assurance maladie,
d) Systèmes d'IA destinés à évaluer et
hiérarchiser les appels d'urgence émanant de personnes physiques ou à être utilisés pour envoyer ou
établir des priorités dans l'envoi des services d'intervention d'urgence, y compris par la police, les
pompiers et l'assistance médicale, ainsi que pour les systèmes de tri des patients admis dans les
services de santé d'urgence.
Répression, dans la mesure où leur utilisation est autorisée par la législation nationale ou de
l'Union applicable.
a) Systèmes d'IA destinés à être utilisés par les autorités
répressives ou par les institutions, organes et organismes de l'Union, ou en leur nom, en soutien aux
autorités répressives ou en leur nom pour évaluer le risque qu'une personne physique devienne la victime
d'infractions pénales,
b) Systèmes d'IA destinés à être utilisés par les autorités répressives
ou par les institutions, organes et organismes de l'Union, ou en leur nom, en soutien aux autorités
répressives, en tant que polygraphes ou outils similaires,
c) Systèmes d'IA destinés à être
utilisés par les autorités répressibes ou par les institutions, organes et organismes de l'Union, ou en
leur nom, en soutien aux autorités répressives pour évaluer la fiabilité des preuves au cours d'enquêtes
ou de poursuites pénales,
d) Systèmes d'IA destinés à être utilisés par les autorités
répressibes ou par les institutions, organes et organismes de l'Union, ou en leur nom, en soutien aux
autorités répressives pour évaluer la probabilité qu'une personne physique commette une infraction ou
récidive, sans se fonder uniquement sur le profilage des personnes physiques visé à l'Article 3,
paragraphe 4, de la directive (UE) 2016/680, ou pour évaluer les traits de personnalité, les
caractéristiques ou les antécédents judiciaires de personnes physiques ou de groupes,
e)
Systèmes d'IA destinés à être utilisés par les autorités répressibes ou par les institutions, organes et
organismes de l'Union, ou en leur nom, en soutien aux autorités répressives pour le profilage de
personnes physiques visé à l'Article 3, paragraphe 4, de la directive (UE) 2016/680 dans le cadre de la
détection d'infractions pénales, d'enquêtes ou de poursuites en la matière ou d'exécution de sanctions
pénales.
Migration, asile et gestion des contrôles aux frontières, dans la mesure où son utilisation est
autorisée par la législation nationale ou de l'Union applicable.
a) Systèmes d'IA
destinés à être utilisés par les autorités publiques compétentes en tant que polygraphes et outils
similaires,
b) Systèmes d'IA destinés à être utilisés par les autorités publiques compétentes ou
les institutions, organes ou organismes de l'Union, ou en leur nom, pour évaluer un risque, y compris un
risque pour la sécurité, un risque de migration irrégulière ou un risque pour la santé, posé par une
personne physique qui a l'intention d'entrer ou qui est entré sur le territoire d'un Etat membre,
c) Systèmes d'IA destinés à être utilisés par les autorités publiques compétentes ou les
institutions, organes ou organismes de l'Union, ou en leur nom, pour aider les autoirtés publiques
compétentes à procéder à l'examen des demandes d'asile, de visas et de titres de séjour et des plaintes
connexes au regard de l'objectif visant à établir l'éligibilité des personnes physiques demandant un
statut, y compris les évaluations connexes de la fiabilité des éléments de preuve,
d) Systèmes
d'IA destinés à être utilisés par les autorités publiques compétentes ou les institutions, organes ou
organismes de l'Union, ou en leur nom, dans le cadre de la migration, de l'asile et de la gestion des
contrôles aux frontières, aux fins de la détection, de la reconnaissance ou de l'identificaiton des
personnes physiques, à l'exception de la vérification des documents de voyage.
Administration de la justice et processus démocratiques.
a) Systèmes d'IA
destinés à être utilisés par les autorités judiciaires ou en leur nom, pour les aider à rechercher et à
interpréter les faits ou la loi, et à appliquer la loi à un ensemble concret de faits, ou à être
utilisés de manière similaire lors du règlement extrajudiciaire d'un litige,
b) Systèmes d'IA
destinés à être utilisés pour influencer le résultat d'une élection ou d'un référendum ou le
comportement électoral de personnes physiques dans l'exercice de leur vote lors d'élections ou de
référendums. Sont exclus les systèmes d'IA auxquels les personnes physiques ne sont pas directement
exposées, tels que les outils utilisés pour organiser, optimiser ou structurer les campagnes politiques
sous l'angle administratif ou logistique.