Séquence 4 — Cybersécurité, IA et régulations systémiques

Comprendre comment la cybersécurité et l'intelligence artificielle sont désormais régulées comme des enjeux systémiques, engageant la responsabilité des organisations et des ingénieurs.

I

Cybersécurité et directive NIS2

De la sécurité technique à l'obligation juridique européenne

A

Fondements et logique de NIS2

1

Du volontariat à l'obligation juridique

Cybersécurité Obligation Conformité Gouvernance Rupture normative

La directive NIS2 marque une rupture nette avec l'approche antérieure de la cybersécurité fondée sur les bonnes pratiques. Désormais, la sécurité des systèmes d'information devient une obligation juridique opposable, intégrée dans la gouvernance des organisations.

Illustration
Résumé

NIS2 transforme la cybersécurité d'une recommandation technique en une obligation juridique structurante.

2

Logique de couverture sectorielle élargie

Secteurs critiques Impact sociétal Périmètre Infrastructures Souveraineté

Contrairement à la première directive NIS, NIS2 élargit considérablement son champ d'application en intégrant de nombreux secteurs auparavant exclus. Cette extension reflète une approche fonctionnelle du risque : ce n'est plus le secteur en tant que tel qui compte, mais l'impact potentiel d'un incident sur la société et l'économie.

Illustration
Résumé

NIS2 élargit la régulation à toute entité dont les systèmes présentent un impact sociétal significatif.

3

Approche par le risque et proportionnalité

Risque Proportionnalité Justification Analyse Conformité

NIS2 adopte une approche fondée sur le risque, imposant des mesures proportionnées à la criticité des systèmes. Cette logique impose aux organisations une capacité d'analyse, de hiérarchisation et de justification de leurs choix de sécurité. La conformité ne repose plus sur des check-lists, mais sur une démonstration raisonnée de maîtrise du risque.

Illustration
Résumé

La conformité NIS2 repose sur une évaluation proportionnée et démontrable des risques cyber.

B

Obligations techniques et organisationnelles

1

Mesures de sécurité et continuité d'activité

Sécurité globale Résilience Continuité Prévention Systèmes

Les entités soumises à NIS2 doivent mettre en œuvre des mesures techniques et organisationnelles couvrant la prévention, la détection, la réponse et la continuité d'activité. Cela inclut la gestion des accès, la surveillance, les plans de reprise et la sécurisation des chaînes d'approvisionnement.

Illustration
Résumé

NIS2 impose une sécurité globale intégrant prévention, réaction et résilience.

2

Gouvernance et responsabilité managériale

Gouvernance Direction Responsabilité Décision Management

La directive introduit une responsabilité explicite des organes de direction dans la stratégie de cybersécurité. Les décisions techniques sont désormais indissociables de la gouvernance, et les dirigeants peuvent être tenus responsables en cas de manquement.

Illustration
Résumé

La cybersécurité devient une responsabilité managériale et stratégique.

3

Relations avec les prestataires et la supply chain

Supply chain Prestataires Externalisation Dépendance Responsabilité

NIS2 étend les exigences de sécurité à la chaîne de sous-traitance, reconnaissant que les vulnérabilités proviennent souvent de prestataires tiers. Les choix d'architecture et d'externalisation doivent intégrer des critères juridiques et contractuels de sécurité.

Illustration
Résumé

La sécurité des systèmes dépend juridiquement de l'ensemble de la chaîne de prestataires.

C

Incidents et sanctions

1

Détection et notification des incidents

Incident Notification Détection Délais Conformité

NIS2 impose des délais stricts de notification des incidents significatifs aux autorités compétentes. Cette obligation suppose une capacité technique de détection rapide et une organisation interne claire. L'absence de visibilité sur les incidents constitue désormais une faute en soi.

Illustration
Résumé

La capacité à détecter et notifier un incident devient une exigence juridique centrale.

2

Gestion de crise et traçabilité

Gestion de crise Traçabilité Preuves Logs Documentation

Au-delà de la notification, la gestion de crise impose une traçabilité complète des actions entreprises. Logs, décisions et mesures correctives doivent être documentés afin de démontrer la diligence de l'organisation. La preuve devient un élément clé de la conformité.

Illustration
Résumé

La traçabilité des décisions est essentielle en situation de crise cyber.

3

Régime de sanctions et responsabilité juridique

Sanctions Responsabilité Manquement Gouvernance Dissuasion

NIS2 introduit un régime de sanctions dissuasif, incluant des amendes significatives et des mesures correctrices. La sanction vise moins l'erreur technique que l'absence de gouvernance, d'anticipation ou de réaction appropriée face au risque.

Illustration
Résumé

Les sanctions NIS2 ciblent les défaillances structurelles de gouvernance cyber.

II

Intelligence artificielle et AI Act

Régulation européenne des systèmes algorithmiques par le risque

A

Fondements et logique de l'AI Act

1

Approche par le risque et rupture réglementaire

AI Act Approche par le risque Rupture Impacts Régulation

L'AI Act introduit une régulation inédite fondée non sur la technologie elle-même, mais sur les risques générés par les usages de l'IA. Cette approche marque une rupture avec les cadres juridiques antérieurs, en abandonnant la neutralité technologique au profit d'une logique d'impact sur les droits fondamentaux.

Illustration
Résumé

L'AI Act régule l'IA à partir de ses effets sur la société et les droits fondamentaux.

2

Typologie des niveaux de risque

Classification Risques Typologie Hiérarchisation Conformité

Le règlement distingue plusieurs catégories de systèmes d'IA : risque inacceptable, risque élevé, risque limité et risque minimal. Cette classification conditionne directement l'autorisation, l'interdiction ou l'encadrement des systèmes. Elle impose aux concepteurs une capacité de qualification juridique dès la phase de conception.

Illustration
Résumé

La classification par niveaux de risque détermine le régime juridique applicable à chaque IA.

3

Interdictions et lignes rouges

Interdictions Lignes rouges Surveillance Manipulation Droits fondamentaux

Certains usages de l'IA sont explicitement interdits en raison de leur incompatibilité avec les valeurs fondamentales de l'Union européenne, notamment la surveillance de masse ou la manipulation comportementale. Ces interdictions traduisent une volonté normative forte : certaines capacités techniques sont jugées juridiquement inacceptables.

Illustration
Résumé

L'AI Act fixe des interdictions claires sur les usages d'IA jugés incompatibles avec les droits fondamentaux.

B

Systèmes d'IA à haut risque

1

Gouvernance des données et qualité des jeux d'entraînement

Données Biais Qualité Entraînement Gouvernance

Les systèmes d'IA à haut risque doivent reposer sur des jeux de données gouvernés, représentatifs et exempts de biais manifestes. La qualité des données devient une exigence juridique, engageant la responsabilité des concepteurs. Le droit reconnaît ici que les biais algorithmiques sont souvent des biais de données.

Illustration
Résumé

La qualité et la gouvernance des données deviennent des obligations juridiques pour l'IA à haut risque.

2

Supervision humaine et contrôlabilité

Supervision humaine Contrôle Intervention Responsabilité Gouvernance

L'AI Act impose une supervision humaine effective des systèmes d'IA à haut risque. Cette supervision ne peut être purement formelle : elle suppose une capacité réelle d'intervention, de suspension ou de correction des décisions algorithmiques. L'ingénieur doit concevoir des systèmes contrôlables.

Illustration
Résumé

La supervision humaine est une exigence structurelle des systèmes d'IA à haut risque.

3

Documentation, traçabilité et robustesse

Documentation Traçabilité Robustesse Auditabilité Conformité

Les systèmes à haut risque doivent être documentés de manière exhaustive afin de permettre leur audit, leur compréhension et leur contrôle. Cette documentation couvre les choix techniques, les données utilisées, les tests réalisés et les limites identifiées. La traçabilité devient une condition de licéité.

Illustration
Résumé

Un système d'IA non documenté est juridiquement indéfendable.

C

Responsabilité et conformité continue

1

Responsabilité des concepteurs et déployeurs

Responsabilité Acteurs Maîtrise Chaîne de valeur Imputabilité

L'AI Act distingue les responsabilités des différents acteurs : concepteurs, fournisseurs, intégrateurs et utilisateurs professionnels. Cette répartition reflète une vision réaliste des chaînes de valeur de l'IA et empêche la dilution de la responsabilité. Chaque acteur est responsable de la part de maîtrise qu'il exerce sur le système.

Illustration
Résumé

La responsabilité en matière d'IA est répartie selon le degré de maîtrise du système.

2

Évaluation continue et mise à jour des systèmes

Conformité continue Surveillance Mise à jour Évolution Risques

La conformité d'un système d'IA n'est jamais acquise définitivement. Les évolutions du contexte, des données ou des usages peuvent modifier son niveau de risque. L'AI Act impose donc une logique de surveillance continue, intégrant mises à jour, réévaluations et ajustements techniques.

Illustration
Résumé

La conformité d'une IA est un processus continu, non un état figé.

3

Sanctions et retrait du marché

Sanctions Retrait Dissuasion Conformité Marché

Le non-respect des obligations de l'AI Act expose les acteurs à des sanctions financières lourdes et à des interdictions de mise sur le marché. Le droit assume ici une fonction dissuasive forte, affirmant que l'innovation algorithmique ne peut se faire au détriment des droits fondamentaux.

Illustration
Résumé

Les sanctions de l'AI Act visent à rendre la non-conformité économiquement intenable.

III

Régulations hors Union européenne

Extraterritorialité, fragmentation et conflits normatifs

A

Logiques réglementaires concurrentes

1

Approche américaine : sectorielle et contentieuse

États-Unis Sectoriel Contentieux Autorégulation Innovation

Les États-Unis privilégient une approche fragmentée de la régulation numérique, reposant sur des normes sectorielles et un contrôle a posteriori par le contentieux. Cette logique favorise l'innovation rapide, mais laisse une large place à l'interprétation judiciaire et à l'autorégulation des acteurs privés.

Illustration
Résumé

La régulation américaine repose sur le secteur et le contentieux plutôt que sur un cadre global.

2

Approche chinoise : contrôle étatique et souveraineté

Chine Souveraineté Contrôle État Stabilité

La régulation chinoise du numérique s'inscrit dans une logique de contrôle étatique fort, intégrant cybersécurité, données et IA dans une stratégie de souveraineté. Les plateformes et systèmes d'IA sont considérés comme des instruments de stabilité politique et sociale.

Illustration
Résumé

La Chine articule régulation numérique et contrôle étatique centralisé.

3

Fragmentation normative et incompatibilités

Fragmentation Conflits normatifs Mondialisation Conformité Arbitrage

La coexistence de régimes juridiques hétérogènes crée une fragmentation normative mondiale. Les entreprises opérant à l'international doivent arbitrer entre des exigences parfois contradictoires, transformant la conformité en un enjeu stratégique et géopolitique.

Illustration
Résumé

La fragmentation réglementaire complique la conformité des systèmes numériques globaux.

B

Extraterritorialité et conflits de lois

1

Application extraterritoriale des normes européennes

Extraterritorialité Union européenne Influence normative RGPD DSA

L'Union européenne revendique une application extraterritoriale de ses normes numériques lorsque les systèmes affectent des personnes situées sur son territoire. Cette logique étend l'influence normative européenne bien au-delà de ses frontières.

Illustration
Résumé

L'UE impose ses normes numériques au-delà de ses frontières territoriales.

2

Conflits de conformité et arbitrages techniques

Conflits de lois Arbitrage Architecture Segmentation Conformité

Les conflits de lois peuvent contraindre les ingénieurs à effectuer des choix techniques différenciés selon les zones géographiques. L'architecture logicielle devient un outil de gestion juridique, permettant d'isoler, segmenter ou adapter les traitements.

Illustration
Résumé

L'architecture technique sert d'outil d'arbitrage entre régimes juridiques concurrents.

3

Risques juridiques transnationaux

Risques transnationaux Responsabilité Sanctions Réputation Droit international

Les violations de normes numériques peuvent engager des responsabilités simultanées dans plusieurs juridictions. Cette exposition multiplie les risques financiers, réputationnels et opérationnels, imposant une vision globale de la conformité.

Illustration
Résumé

La non-conformité numérique expose à des risques juridiques multi-juridictionnels.

C

Gouvernance globale et rôle de l'ingénieur

1

Anticipation réglementaire et veille juridique

Veille Anticipation Adaptabilité Régulation Ingénierie

L'ingénieur doit intégrer une veille réglementaire active afin d'anticiper les évolutions normatives. La conception des systèmes doit rester adaptable pour intégrer de nouvelles obligations sans refonte complète.

Illustration
Résumé

La veille juridique devient une compétence clé de l'ingénieur numérique.

2

Ingénierie responsable et choix structurants

Ingénierie responsable Décisions Effets juridiques Profession Responsabilité

Les choix techniques structurent durablement la conformité et la responsabilité des systèmes. L'ingénieur participe ainsi à des décisions qui engagent l'organisation bien au-delà du code, dans une logique de responsabilité professionnelle accrue.

Illustration
Résumé

L'ingénieur est coresponsable des effets juridiques des systèmes qu'il conçoit.

3

Vers une gouvernance numérique globale

Gouvernance numérique Interdisciplinarité Stratégie Conformité Responsabilité

La convergence progressive des régulations numériques impose une gouvernance intégrée, associant juristes, ingénieurs et dirigeants. L'ingénieur devient un acteur clé de cette gouvernance, à l'interface entre technique, droit et stratégie.

Illustration
Résumé

La gouvernance numérique devient un espace de décision interdisciplinaire.

IV

Exercice Final — Fil Rouge

Mise en situation et livrable final

Objectif pédagogique

Les séquences 1, 2 et 3 vous ont conduit à :

  • Qualifier juridiquement un service numérique
  • Structurer son architecture au regard du RGPD
  • Analyser ses mécanismes d'automatisation et de responsabilité

La séquence 4 vise à intégrer l'ensemble de ces analyses dans une logique de gouvernance, en vous plaçant dans une situation réaliste de décision stratégique sous contrainte juridique.

Cette séquence constitue la conclusion du fil rouge et débouche sur un livrable final unique : une présentation structurée de l'ensemble du travail.

🎯

Mise en situation (commune à tous les groupes)

À l'issue des travaux menés lors des séquences précédentes, la direction de l'organisation souhaite :

  • Disposer d'une vision globale et cohérente du service numérique
  • Comprendre les risques juridiques résiduels
  • Identifier les arbitrages structurants à opérer
  • Préparer la communication interne (direction, RSSI, DPO, équipes techniques)

Vous êtes mandatés pour synthétiser, mettre en cohérence et projeter l'ensemble de vos analyses.

1

Relecture intégrée des travaux précédents

À partir des livrables des séquences 1, 2 et 3, vous devez :

Qualification Architecture RGPD Automatisation Cohérence

Rappeler brièvement :

  • La qualification juridique du service
  • Les choix d'architecture RGPD
  • Les mécanismes d'automatisation identifiés

Identifier les points de tension entre :

  • Performance technique
  • Conformité juridique
  • Responsabilité organisationnelle

Il ne s'agit pas de répéter les livrables précédents, mais d'en dégager la cohérence globale.

2

Qualification réglementaire transversale

Sur la base de l'ensemble du service analysé, déterminer :

NIS2 AI Act Extraterritorialité Obligations

Si le service relève :

  • De NIS2 (entité essentielle ou importante)
  • De l'AI Act (présence de systèmes d'IA, niveau de risque)
  • De régulations hors Union européenne le cas échéant

Quelles obligations nouvelles ou renforcées en découlent :

  • Sécurité
  • Gouvernance
  • Supervision
  • Documentation

Cette partie doit montrer votre capacité à articuler plusieurs régimes juridiques.

3

Arbitrages techniques, juridiques et stratégiques

Identifier au moins trois arbitrages structurants issus de l'ensemble du fil rouge.

Arbitrage Stratégie Décision Maturité

Exemples d'arbitrages :

  • Automatisation accrue vs supervision humaine
  • Centralisation des données vs minimisation
  • Performance algorithmique vs explicabilité
  • Conformité européenne vs contraintes extraterritoriales
  • Maintien du service vs durcissement de la sécurité

Pour chaque arbitrage :

  • exposer les options possibles
  • analyser les conséquences techniques et juridiques
  • justifier l'option recommandée

Cette partie est centrale : elle évalue votre maturité décisionnelle.

4

Positionnement de l'ingénieur et gouvernance

Conclure par une réflexion structurée sur :

Rôle ingénieur Responsabilité Gouvernance Normes
  • Le rôle de l'ingénieur dans la gouvernance numérique
  • Sa responsabilité professionnelle
  • Ses marges de manœuvre
  • Son éventuel devoir d'alerte face à un risque juridique ou éthique

Cette partie doit montrer que vous avez compris que l'ingénierie est désormais une activité normativement engageante.

📋

Livrable final attendu (clôture du fil rouge)

🎯 Livrable unique : présentation de synthèse

Vous devez préparer une présentation orale (support de type slides) portant sur l'ensemble du fil rouge.

Contraintes :

  • 10 à 15 slides maximum
  • Structure libre, mais cohérente
  • Présentation pensée pour un public de direction (pas un public technique uniquement)