Auteur: Claysts & Site
La loi sur l’IA est entrée en vigueur le 1er août 2024 et à partir du 2 août 2026, la plupart des obligations doivent être respectées par les entreprises. Cependant, les premières obligations entrent déjà en vigueur le 2 février 2025 et se rapportent à la promotion de l’alphabétisation de l’IA d’une part et à l’interdiction de certaines pratiques d’IA d’autre part.
But et portée
Avec la loi sur l’IA, l’Union européenne vise à créer un cadre juridique uniforme pour le développement, le marketing, le mettre en service et l’utilisation des systèmes d’IA. La loi sur l’IA souhaite promouvoir l’introduction de l’IA orientée vers les personnes et fiables (intelligence artificielle) et assurer un haut degré de protection de la santé, de la sécurité et des droits fondamentaux, comme l’inclue dans la charte de l’Union européenne.
La loi sur l’IA s’applique aux fournisseurs qui développent des systèmes d’IA et les commercialisent, ainsi qu’aux gestionnaires d’utilisateurs (ci-après: «utilisateurs») qui utilisent ces systèmes. Si vous, en tant qu’employeur, utilisez des systèmes d’IA, par exemple dans le processus de recrutement et de sélection, vous devez en particulier prendre en compte les obligations pour les utilisateurs. Dans Notre film d’information précédent Nous avons donné un aperçu des lignes de force les plus importantes et des points d’action.
Alphabétisation
La première obligation d’entrer en vigueur à partir du 2 février 2025 est d’assurer un niveau suffisant d’alphabétisation de l’IA. Le but de l’alphabétisation de l’IA est de s’assurer que toutes les personnes impliquées au sein de l’entreprise ont les compétences et les connaissances nécessaires pour prendre des décisions étayées et utiliser les systèmes de manière responsable.
Lors de la détermination des mesures pour garantir un niveau adéquat d’alphabétisation de l’IA, le compte doit être pris:
les connaissances techniques du personnel, leur expérience, leur éducation et leur éducation; le contexte dans lequel les systèmes d’IA seront utilisés; et les personnes ou groupes de personnes en ce qui concerne les systèmes d’IA qui seront utilisés.
La loi sur l’IA ne précise pas les mesures qu’un employeur doit prendre pour atteindre un niveau «adéquat» d’alphabétisation de l’IA. Cela rend difficile de démontrer que vous respectez cette obligation, mais il offre également la possibilité de déterminer ce qu’est «suffisant» pour votre entreprise et vos employés. Cependant, il appartient aux tâches de l’Office de l’IA, un organisme qui a été créé au sein de la Commission européenne en tant que centre de l’expertise de l’IA, pour fournir des informations supplémentaires à ce sujet.
Pour cette raison, les entreprises qui se concentrent sur l’utilisation des systèmes d’IA font bien d’offrir une formation sur l’alphabétisation de l’IA. La mise en œuvre d’une politique détaillée d’utilisation d’IA responsable contribue également à l’obligation d’alphabétisation de l’IA.
De plus, tous les employés ne doivent pas atteindre le même niveau d’alphabétisation de l’IA. Ce n’est pas une obligation de «taille unique», mais il s’agit certainement de personnalisation. Tous ceux qui entrent en contact avec l’IA devraient comprendre les principes de base, tout en étant en mesure de faire face à l’IA (systèmes) de manière responsable et critique. Le respect de cette obligation est également un processus constant et dynamique.
Pratiques interdites d’IA
À partir du 2 février 2025, la loi sur l’IA interdit un certain nombre de pratiques inacceptables dans le domaine de l’IA. Ce sont des pratiques contraires aux normes et valeurs fondamentales européennes, telles qu’une violation des droits fondamentaux qui sont inclus dans la charte de l’Union européenne.
Par exemple, les pratiques d’IA suivantes sont interdites:
Les systèmes d’IA qui utilisent des techniques subliminales que les gens ne connaissent pas ou appliquent délibérément des techniques de manipulation ou trompeuses. Cela comprend des systèmes qui encouragent les gens à prendre des décisions qu’ils ne prendraient autrement, ce qui peut entraîner des dommages considérables; Les systèmes d’IA qui utilisent les vulnérabilités d’une personne ou d’un groupe spécifique de personnes telles que l’âge ou l’invalidité, pour perturber considérablement leur comportement, ce qui peut entraîner des dommages considérables; Les systèmes d’IA qui évaluent ou classent les personnes sur la base de leur comportement social ou de leurs caractéristiques personnelles («notation sociale»), et qui conduisent à un traitement défavorable ou défavorable; Systèmes d’IA qui créent ou complétent les bases de données via des installations de grattage non focalisées d’images Internet ou de la caméra; Les systèmes d’IA dérivent les émotions d’une personne sur le lieu de travail ou dans l’éducation, à moins que cela ne se produise pour des raisons médicales ou de sécurité; …
Les entreprises qui développent ou utilisent des pratiques d’intermédiaire interdites peuvent recevoir des amendes administratives pour ce jusqu’à 35 millions d’euros, soit jusqu’à 7% de leur chiffre d’affaires annuel mondial, si cela est plus élevé. Lorsqu’ils imposent des amendes aux PME et aux start-ups, leurs intérêts et leur viabilité économique sont pris en compte et une amende inférieure peut être imposée.
AI-Polycy
L’Office de l’IA stimule la préparation des codes de conduite ou des politiques dans le cadre de l’application des dispositions de la loi sur l’IA. Dans une politique de l’IA, l’employeur peut établir des directives claires pour l’utilisation de l’IA au sein de l’entreprise. Il peut être enregistré quels systèmes d’IA peuvent être utilisés par qui et dans quelle mesure les systèmes d’IA peuvent être appliqués en fonction de certains employés. La politique peut également déterminer comment le personnel peut rester suffisamment alphabétisé par l’IA.
Webinaire
Intelligence artificielle dans le processus RH: points d’attention juridiques
M. Inge Verhelst et Matthias Vandamme (Claeys & Engels) vivent le vendredi 7 février 2025, puis disponible à la demande
Plus d’informations
Source: Claeys & Engels