Rechercher

Horaires

La Réseauthèque propose depuis décembre 2025 des ateliers dédiés à l’Intelligence Artificielle mélant réflexion et expérimentations techniques. Face à l’intérêt suscité par le sujet à Monflanquin, nous avons décidé de dupliquer ce cycle d’ateliers.

Ainsi le 25 février, des nouveaux participants se sont réunis à la bibliothèque de Villeréal pour échanger sur l’IA. Si les thèmes abordés étaient essentiellement les mêmes que ceux abordés à Monflanquin (cf cet article ici), d’autres problématiques ont été soulevées, telles que celles liées : 

  • aux usages du numérique chez les jeunes générations en comparaison aux usages des générations qui ont grandi sans ces nouvelles technologies; cette réflexion pointe la dynamique qui s’est installée facilitant l’utilisation des IAG (Intelligences Artificielles Génératives)
  • au temps d’attention et au déclin du savoir faire manuel, à la dépossession de nos cerveaux et de nos corps; problématiques amplifiées encore une fois par l’utilisation des IAG
  • à la surveillance de masse facilitée par l’IA (reconnaissance faciale, traitement, analyse des données, et rapidité d'exécution)
  • à la législation sur l'utilisation des IA (voir fin de l’article).

Les séances de ces ateliers comprennent toujours un temps d’échanges (bilan de la séance précédente et partage d’informations, d’expériences, de livres ou articles lus sur le sujet) et un temps pendant lequel on teste ce que produisent les IA.

Par exemple, l’image qui illustre le présent article est le résultat de la requête suivante : “ajouter une représentation d’un atelier sur l’intelligence artificielle à la photo en pièce jointe (photo de la terrasse de la médiathèque de Monflanquin).” C’était l’occasion d'aborder la falsification de la réalité et de l’Histoire par des images générées et dégénérées par l’IA.

Autre exemple, lors d’un atelier à Monflanquin, les participants ont posé des questions identiques à trois IAG différentes (Deepseek, Gemini, Mistral) : 

  • Raconter un rêve.
  • Raconter une blague.
  • Reformuler un texte.
  • Reformuler le même texte à la manière d’un philosophe.
  • Reformuler le résultat du texte précédent à la manière d’un humoriste.

Cette expérimentation sera renouvelée le 25 mars à Villeréal. Un article sera consacré aux réponses faites par les IAG après cet atelier.

En attendant, revenons-en à la question de la législation. Pour l’instant, il n'existe qu’une réglementation européenne que vous trouverez ici.

Ceux qui veulent s’épargner ces 144 pages de lecture, trouveront à la fin de cet article des synthèses générées l’une par Gemini, l’autre par Deepseek et la dernière par Le Chat Mistral. 

A vous de comparer ! 

Vous pourrez venir partager vos avis et réflexions lors des prochains ateliers dès 18h les mercredis  25 mars à Villeréal et  8 avril à Monflanquin.

 Le document auquel vous faites référence est le Règlement (UE) 2024/1689 du Parlement européen et du Conseil, plus connu sous le nom d'AI Act (ou "Loi sur l'IA"). Publié au Journal officiel de l'Union européenne le 12 juillet 2024, il constitue le premier cadre juridique complet au monde pour réguler l'intelligence artificielle.

Voici une synthèse structurée de ce règlement :

1. L’Objectif Principal
L'objectif est de garantir que les systèmes d'IA utilisés dans l'UE soient sûrs, transparents, éthiques et respectueux des droits fondamentaux, tout en favorisant l'innovation et en faisant de l'Europe un leader dans une IA digne de confiance.

2. Une Approche Fondée sur le Risque
Le règlement classe les systèmes d'IA en quatre catégories de risques, avec des règles proportionnées :

Risque Inacceptable (Interdit) : Les pratiques jugées contraires aux valeurs de l'UE sont strictement proscrites. Cela inclut :
La notation sociale (social scoring).
La manipulation comportementale (techniques subliminales).
L'identification biométrique à distance en temps réel dans les espaces publics par les forces de l'ordre (sauf exceptions très limitées).
Le "police prédictive" basée sur le profilage.
Haut Risque : Systèmes utilisés dans des secteurs critiques (santé, éducation, gestion des infrastructures, recrutement, justice). Ils sont autorisés mais soumis à des obligations strictes :
Évaluation de la conformité avant la mise sur le marché.
Gestion des risques et qualité des données.
Supervision humaine et traçabilité (journaux d'événements).
Risque Limité (Obligations de Transparence) : Les utilisateurs doivent être informés qu'ils interagissent avec une IA (ex: chatbots) ou que des contenus sont générés par IA (ex: deepfakes).
Risque Faible ou Minime : La grande majorité des systèmes d'IA (ex: filtres anti-spam, jeux vidéo) ne sont soumis à aucune contrainte particulière, hormis le respect du droit existant.

3. Les Modèles d’IA à Usage Général (GPAI)
Le règlement introduit des règles spécifiques pour les modèles puissants capables d'effectuer de nombreuses tâches (comme GPT-4). Ils doivent fournir une documentation technique et respecter le droit d'auteur.
Les modèles présentant un "risque systémique" (très haute capacité de calcul) sont soumis à des évaluations plus rigoureuses et à une surveillance renforcée.

4. Gouvernance et Sanctions
Bureau européen de l'IA (AI Office) : Un nouvel organe au sein de la Commission pour superviser l'application, notamment pour les modèles généralistes.
Sanctions financières : Les amendes sont très lourdes, pouvant aller de 7,5 millions d'euros (ou 1,5 % du chiffre d'affaires) jusqu'à 35 millions d'euros (ou 7 % du chiffre d'affaires) selon la gravité de l'infraction.

5. Calendrier de mise en œuvre
L'application est progressive :

Février 2025 : Interdiction des systèmes à risque inacceptable.
Août 2025 : Entrée en vigueur des règles sur l'IA à usage général.
Août 2026 : Application générale du règlement (majorité des obligations).
Août 2027 : Obligations pour les systèmes à haut risque déjà régis par d'autres législations de l'UE.

En résumé
Ce règlement cherche un équilibre délicat : il ne régule pas la technologie en elle-même, mais les usages spécifiques de l'IA, afin d'éviter les dérives sécuritaires ou discriminatoires tout en offrant un cadre stable pour les entreprises.

 Absolument. Voici une une complète du synthèse Règlement (UE) 2024/1689, aussi sous connu le nom de Règlement sur l'intelligence artificielle ou "Agir en l'air".

Cette est organisé pour met en lumière les objectifs, la structure, les concernés et les acteurs principes de ce fondateur texte.

Synthèse du Règlement (UE) 2024/1689 sur l'intelligence Artificielle (loi sur l'IA)
Ce règlement, adopté le 13 juin 2024, établit le premier cadre juridique complet au monde pour l'intelligence artificielle. Son objectif principal est de promouvoir le développement et l'adoption d'une IA confiance de confiance, à la centre sur l'humain et des valeurs de l'Union européenne, tout en un niveau de protection de la santé, de la sécurité et des droits fondamentaux.

1. Harmonisation du marché unique :

Créer des règles uniformes pour le développement, la mise sur le marché et l'utilisation des systèmes d'IA dans tous les États membres, la fragmentation du marché intérieur.
Protection des citoyens : Assurer un niveau de protection élevé contre les effets néfastes de l'IA, en accord avec la Charte des droits fondamentaux de l'UE (démocratie, état de droit, protection de l'environnement, etc.).
Promotion de l'innovation : Établir un cadre juridique clair qui, tout en réglementant, soutenir l'innovation et la compétitivité des entreprises européennes, en particulier les PME et les start-ups.

2. Une Approche sur les Risques

L'IA Act classe les systèmes d'IA en fonction du niveau de risque qu'ils à la santé, la sécurité et les droits fondamentaux. Plus le risque est élevé, plus les obligations est strict.

Risque inacceptable (Pratiques interdites - Article 5): Ces systèmes est interdit voiture ils constituant une menace claire pour les personnes. Cela :
La manipulation subliminale ou l'exploitation des vulnérabilités pour alterer le comportement.
La notation sociale par les autorités publiques.
L'identification biométrique à distance en temps réel dans les espaces publics à des fins répressifs (sauf exceptions strictes et encadrées : recherche de victimes, menace terroriste, etc.).
La catégorisation biométriques sur les attributs sensibles (race, religion, orientation sexuelle).
L'extraction non ciblée d'images faciales depuis internet ou la vidéosurveillance pour création des bases de données.
La reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement.
L'évaluation des risques commise une infraction base base sur le profilage.
Risque élevé (Chapitre III) : Il s'agit des systèmes d'IA qui qui un impact avoir significatif sur la sécurité ou les droits fondamentaux. Ils sont soumis à des exigences strictes avant et après-mise sur le marché. Ils incluent les systèmes d'IA utilise dans les domaines comme :
La biométrie (identification à distance, catégorisation).
Les critiques des infrastructures.
L'éducation et la formation professionnelle.
L'emploi et la gestion des travailleurs.
L'accès aux services privés et publics essentiels (crédit, assurance, aide sociale).
Les activités répressives et judiciaires.
La migration, l'asile et le contrôle aux frontières.
Exigences pour ces systèmes :
Mise en place d'un système de gestion des risques.
Utilisation de ded d'entraînement de haute qualité, pertinentes et représentatives pour les biais éviter.
Création d'une technique de documentation détaillée (traçabilité).
Enregistrement automatique des événements (journaux).
Transparence et fourniture d'informations claires aux utilisateurs.
Supervision
Niveaux de robustesse, d'exactitude et de de.
Évaluation de la conformité (souvent par un organisme notifié) avant la mise sur le marché.
Risque limité (Obligations de transparence - Article 50) : Certains d'IA soumis sont soumis à des obligations de transparence pour que les utilisateurs des utilisateurs des consens qu'ils interagient avec une IA.
Chatbots : Les utilisateurs doivent être qu'ils interagitent avec une machine.
Contenu engel par l'IA (faux profonds) : Les sorties (images, audio, vidéo être) clairement identifiables comme comme générée ou manipulées par une IA.
Risque minimal : La grande majorité des systèmes d'IA, comme les les filtres anti-spam ou les jeux vidéo, ne est réglementé pass. La Commission encourage l'adoption volontaire de codes de conduite.

3. Acteurs et Responsabilités (Opérateurs)

Le règlement définit les obligations des acteurs de la chaîne de valeur :

Fournisseur : La personne ou l'entreprise qui développe ou fait développeur un système d'IA et le met sur le marché sous son propre nom. Il porte la responsabilité principale de la conformité.
Déployeur : L'utilisateur du système d'IA (par exemple, une entreprise, un hôpital). Il doit le système utiliser les instructions aux instructions, la supervision assurée humaine et surveiller son fonctionnement.
Importateur / Distributeur : Ils vérifier que le système porte le marquage CE et est est de la documentation accompagnée requise avant de le met sur le marché.
Mandataire : Rep Représentant dans l'UE firm pour les fournisseurs de niveaux de paye.

4. Modèles d'IA à Usage Général (GPAI - Chapitre V)

Une innovation majeure du règlement est la réglementation des modèles d'IA à usage général, comme les grands modèles de langage (exemple : GPT).

Obligations pour tous les fournisseurs de GPAI : Fournir une technique de documentation, mettre des informations à disposition des utilisateurs en aval, respecter le droit d'auteur (avec un résumé public des données d'entraînement).
Obligations supplémentaires pour les GPAI un risque à risque : Ces modèles, par par leur puissance de calcul (mesurée en FLOPs) ou par décision de la Commission, doivent en évaluer plus et les risques, effectuer des tests contradictoires et les incidents tombes.

5. Gouvernance et Mise en Œuvre

Bureau de l'IA : Une structure au sein de la Commission européenne chargée de la mise en œuvre, en particulier pour les modèles GPAI.
Comité européen de l'IA (Comité IA) : Composé des membres des États, il assure la coordination et donne des représentants.
Autorités nationales compétentes: Chaque membre de l'État doit des autorités de surveillance du marché pour l'application du règlement sur son territoire.

6. Le non-respect du peur entraîneur des amendes substantielles, proportionnées au chiffre d'affaires des entreprises :

Jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires annuel mondial pour les infractions aux pratiques interdites.
Jusqu'à 15 millions d'euros ou 3% du chiffre d'affaires pour le non-respect des autres obligations.

7. Soutien à l'innovation

Le règlement des mesures pour ne pas étouffer l'innovation, à peine :

Bacs à sable réglementaires : Des environnements contrôles permettant de tester des systèmes d'IA innovants avant leur mise sur le marché.
Mesures pour les PME et start-up : Accès prioritaire aux bacs à sable, frais d'évaluation réduites, simplification de certaines obligations.

8. Calendrier d'application

Entrée en vigueur : 20 jours après publication (soit début août 2024).
Application générale : 2 août 2026.
Application des interdictions : 2 février 2025.
Application des règles sur la gouvernance et les organismes notifiés : 2 août 2025.

En conclusion, l'IA Act est un texte législatif pionnier qui vis à établir enterre la protection des citoyens et la promotion de l'innovation. En catégorisant les systèmes d'IA niveau par de risque et en des obligations imposantes proportionnées, il cherche à faire de l'UE un leader dans le domaine d'une IA de confiance.

Voici une synthèse structurée et concise du Règlement (UE) 2024/1689 sur l’intelligence artificielle, adopté le 13 juin 2024 et publié au Journal officiel de l’UE le 12 juillet 2024. Ce texte établit un cadre juridique harmonisé pour l’IA dans l’Union européenne, en mettant l’accent sur la sécurité, les droits fondamentaux et l’innovation.

1. Objectifs principaux
Harmoniser les règles pour le développement, la mise sur le marché et l’utilisation des systèmes d’IA dans l’UE, en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux.
Promouvoir une IA axée sur l’humain, digne de confiance et respectueuse des valeurs de l’UE (démocratie, état de droit, protection de l’environnement).
Faciliter la libre circulation des biens et services fondés sur l’IA dans le marché intérieur, tout en évitant la fragmentation réglementaire entre États membres.
Encourager l’innovation, notamment pour les PME et les jeunes pousses, tout en protégeant les citoyens contre les risques liés à l’IA.
 

2. Champ d’application
Systèmes et acteurs concernés
Fournisseurs (développeurs, fabricants) et déployeurs (utilisateurs) d’IA, qu’ils soient établis dans l’UE ou dans un pays tiers, si leurs systèmes sont utilisés dans l’UE.
Importateurs, distributeurs, mandataires et fabricants de produits intégrant des systèmes d’IA.
Exclusions :
Systèmes d’IA utilisés exclusivement à des fins militaires, de défense ou de sécurité nationale.
Systèmes développés uniquement pour la recherche et le développement scientifiques (hors mise sur le marché).
Activités personnelles non professionnelles (ex. : usage privé d’un chatbot).
 

3. Classification des risques et interdictions
Approche fondée sur les risques
Le règlement classe les systèmes d’IA en fonction de leur niveau de risque :

Risque inacceptable → Interdit (ex. : manipulation subliminale, notation sociale, identification biométrique en temps réel dans les espaces publics à des fins répressives, sauf exceptions strictes).
Risque élevé → Exigences strictes (ex. : IA utilisée dans les infrastructures critiques, l’éducation, l’emploi, les services publics essentiels).
Risque limité → Obligations de transparence (ex. : chatbots, deepfakes).
Risque minimal → Aucune obligation spécifique (ex. : filtres de spam, jeux vidéo).
Pratiques interdites (Article 5)
Manipulation subliminale : Techniques cachées altérant le comportement des personnes (ex. : stimuli visuels ou sonores imperceptibles).
Exploitation des vulnérabilités : Ciblage de groupes vulnérables (enfants, personnes handicapées, minorités) pour les influencer de manière préjudiciable.
Notation sociale : Évaluation du comportement social des individus entraînant une discrimination.
Identification biométrique en temps réel dans les espaces publics à des fins répressives, sauf exceptions (recherche de victimes d’enlèvements, prévention d’attentats terroristes, ou identification de suspects pour des infractions graves).
Bases de données de reconnaissance faciale créées par moissonnage non ciblé d’images (ex. : scraping d’Internet ou de vidéosurveillance).
Reconnaissance des émotions sur le lieu de travail ou dans les établissements d’enseignement (sauf usage médical ou de sécurité).
 

4. Exigences pour les systèmes d’IA à haut risque
Les systèmes classés à haut risque (Annexe III) doivent respecter des obligations strictes, notamment :

A. Système de gestion des risques (Article 9)
Processus itératif couvrant tout le cycle de vie du système.
Identification et atténuation des risques pour la santé, la sécurité et les droits fondamentaux.
Tests rigoureux avant mise sur le marché, incluant des essais en conditions réelles si nécessaire.
B. Qualité et gouvernance des données (Article 10)
Jeux de données d’entraînement, de validation et de test représentatifs, exempts d’erreurs et complets.
Prévention des biais discriminatoires (ex. : biais liés au genre, à l’origine ethnique, au handicap).
Transparence sur l’origine des données et leur traitement.
C. Documentation technique (Article 11)
Dossier détaillé décrivant le système, ses algorithmes, ses performances, ses limites et ses risques.
Accessible aux autorités pour évaluer la conformité.
D. Transparence et information des déployeurs (Article 13)
Notice d’utilisation claire et complète, incluant :
Destination du système.
Niveau d’exactitude, robustesse et cybersécurité.
Conditions d’utilisation sécurisée.
Mesures de contrôle humain.
E. Contrôle humain (Article 14)
Supervision humaine obligatoire pour prévenir les risques résiduels.
Possibilité d’interrompre le système en cas de dysfonctionnement.
Double vérification pour les systèmes d’identification biométrique (sauf exceptions).
F. Exactitude, robustesse et cybersécurité (Article 15)
Résistance aux erreurs, défaillances et cyberattaques.
Mises à jour régulières pour maintenir la sécurité.
Protection contre les attaques (ex. : empoisonnement des données, exemples contradictoires).
G. Enregistrement et traçabilité (Article 12)
Journaux automatiques (logs) pour tracer l’utilisation du système.
Conservation des données pendant au moins 6 mois (sauf exceptions légales).
 

5. Obligations des fournisseurs et déployeurs
Fournisseurs (Article 16)
Conformité aux exigences avant mise sur le marché.
Marquage CE pour les systèmes à haut risque.
Déclaration UE de conformité.
Système de gestion de la qualité (Article 17) et surveillance après commercialisation (Article 72).
Signalement des incidents graves (Article 73).
Coopération avec les autorités (Article 21).
Déployeurs (Article 26)
Utilisation conforme à la notice d’utilisation.
Surveillance du fonctionnement du système.
Tenue de registres pour les systèmes à haut risque.
Analyse d’impact sur les droits fondamentaux (pour les autorités publiques et certains secteurs privés).
Formation du personnel pour un usage sécurisé.
Autres acteurs
Importateurs et distributeurs : Vérification de la conformité et traçabilité.
Mandataires : Représentation des fournisseurs non établis dans l’UE.
 

6. Modèles d’IA à usage général
Définition (Article 3, point 63)
Modèles capables d’effectuer une large gamme de tâches (ex. : grands modèles de langage génératifs comme GPT-4), souvent entraînés sur de grandes quantités de données.

Obligations spécifiques (Articles 52–68)
Transparence :
Documentation technique (architecture, données d’entraînement, limites).
Résumé public des données utilisées (pour permettre aux titulaires de droits d’auteur de faire valoir leurs droits).
Respect du droit d’auteur :
Politique de conformité avec la directive (UE) 2019/790 (ex. : respect des réservations de droits des créateurs).
Modèles à risque systémique (Article 52) :
Évaluation des risques (ex. : désinformation, cyberattaques, biais discriminatoires).
Tests contradictoires (red teaming) avant mise sur le marché.
Signalement des incidents graves à la Commission.
Coopération avec le Bureau européen de l’IA (Article 54).
Exemptions
Modèles publiés sous licence libre et ouverte (sauf s’ils présentent un risque systémique).
Modèles utilisés uniquement pour la recherche (avant mise sur le marché).
 

7. Transparence et obligations pour les systèmes non à haut risque
Systèmes interactifs ou générateurs de contenu (Article 50)
Obligation d’informer les utilisateurs qu’ils interagissent avec une IA (ex. : chatbots, assistants vocaux).
Marquage des contenus générés par IA (ex. : deepfakes, images synthétiques) pour éviter la tromperie, sauf exceptions (œuvres artistiques, satiriques).
Hypertrucages (deepfakes) (Article 51)
Étiquetage obligatoire pour les contenus audio/vidéo générés ou manipulés par IA, si ils ressemblent à des personnes ou événements réels et pourraient être perçus comme authentiques.
Exceptions : Contenus manifestement artistiques, fictifs ou satiriques.
 

8. Gouvernance et application
Autorités compétentes
Autorités nationales de surveillance du marché : Contrôle de la conformité et sanctions.
Bureau européen de l’IA (créé par la Commission) :
Coordination de la mise en œuvre.
Surveillance des modèles à usage général et à risque systémique.
Élaboration de codes de bonne pratique et lignes directrices.
Comité européen de l’IA : Conseille la Commission et les États membres.
Groupes scientifiques et forums consultatifs : Intégration des parties prenantes (industrie, société civile, experts).
Sanctions (Article 99)
Amendes administratives proportionnelles à la gravité de l’infraction :
Jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial (pour les infractions les plus graves, comme la violation des interdictions).
Jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires (pour les manquements aux obligations des systèmes à haut risque).
Jusqu’à 7,5 millions d’euros ou 1,5 % du chiffre d’affaires (pour les manquements aux obligations de transparence).
Voies de recours
Droit à une explication pour les personnes affectées par des décisions basées sur des systèmes d’IA à haut risque (Article 70).
Protection des lanceurs d’alerte (directive (UE) 2019/1937).
 

9. Innovation et soutien aux PME
Bacs à sable réglementaires (Article 54)
Environnements contrôlés pour tester des systèmes d’IA innovants sous supervision réglementaire.
Accès prioritaire pour les PME et jeunes pousses.
Essais en conditions réelles (Article 57) avec garanties pour les participants (consentement éclairé, protection des données).
Mesures de soutien
Simplification des obligations pour les microentreprises (ex. : système de gestion de la qualité allégé).
Accès à des ressources (plateforme d’IA à la demande, pôles d’innovation numérique, financements européens).
Sensibilisation et formation pour les PME.
 

10. Calendrier d’application
Entrée en vigueur : 12 juillet 2024.
Application progressive :
Interdictions (Article 5) : Applicables dès février 2025.
Obligations pour les modèles d’IA à usage général : Août 2025.
Règles générales (systèmes à haut risque, gouvernance, sanctions) : Août 2026.
Conformité des systèmes existants : Délai jusqu’à 2030 pour certains systèmes critiques (ex. : infrastructures publiques).
 

11. Points clés à retenir
Approche proportionnée : Régulation adaptée au niveau de risque.
Protection des droits fondamentaux : Interdiction des pratiques les plus intrusives (notation sociale, manipulation subliminale).
Transparence et responsabilité : Obligations claires pour les fournisseurs et déployeurs.
Soutien à l’innovation : Mesures spécifiques pour les PME et bacs à sable réglementaires.
Coopération européenne : Harmonisation des règles pour éviter la fragmentation du marché.
 

Pour aller plus loin
Annexes clés :
Annexe I : Législations sectorielles concernées (ex. : dispositifs médicaux, véhicules autonomes).
Annexe III : Liste des systèmes d’IA à haut risque (ex. : recrutement, éducation, infrastructures critiques).
Rôle des États membres : Désignation d’autorités nationales et mise en place de sanctions.
 

Question ouverte : Ce règlement vous semble-t-il équilibré entre innovation et protection des citoyens ? Y a-t-il des aspects que vous aimeriez approfondir (ex. : impact sur les PME, modalités de contrôle des modèles à usage général) ?