Gouvernance de l’IA
Objet
Le présent AI Governance Statement décrit les principes, engagements et mécanismes de gouvernance mis en œuvre par MR SURICATE concernant l’utilisation de technologies d’intelligence artificielle (IA) au sein de sa plateforme SaaS.
Ce document a une valeur informative et ne constitue pas un engagement contractuel autonome. Les engagements applicables sont définis dans le Contrat, le DPA et le SLA.
Périmètre des fonctionnalités IA
Les technologies d’IA intégrées à la plateforme MR SURICATE peuvent intervenir dans :
- Assistance à la création de scénarios de tests
- Suggestion d’optimisation de scripts
- Détection d’anomalies techniques
- Analyse automatisée de résultats
- Aide à la documentation technique
- Orchestration des agents
Les fonctionnalités IA sont conçues comme des outils d’assistance. Elles ne remplacent pas l’intervention humaine ni la validation par l’utilisateur.
Principes Directeurs
MR SURICATE s’efforce de concevoir les mécanismes d’IA de manière robuste et résiliente afin de limiter les erreurs de fonctionnement ou les comportements inattendus. MR SURICATE applique les principes suivants :
Supervision humaine
Les décisions opérationnelles restent sous le contrôle des utilisateurs.
Les suggestions générées par IA nécessitent validation humaine.
Proportionnalité
L’utilisation des mécanismes IA est proportionnée à la finalité technique du service.
Transparence
MR SURICATE s’efforce de documenter :
- Les cas d’usage des fonctionnalités IA
- Leurs limites connues
- Les bonnes pratiques d’utilisation
Sécurité
Les composants IA respectent les standards de sécurité applicables à la plateforme :
- Hébergement en environnement sécurisé
- Contrôles d’accès stricts
- Journalisation des actions administratives
- Segmentation logique des environnements
Protection des données
L’utilisation des mécanismes IA respecte les exigences du RGPD.
MR SURICATE veille à limiter l’exposition de données personnelles lorsque cela est possible, notamment en privilégiant :
- Données techniques
- Données pseudonymisées
- Environnements de test adaptés
Gestion des Risques
Les risques liés aux technologies d’IA sont intégrés dans l’analyse de risques du SMSI. Ces risques peuvent concerner :
- Fiabilité des suggestions
- Erreurs d’interprétation
- Biais potentiels
- Dépendances à des fournisseurs tiers
Les risques identifiés font l’objet d’une surveillance dans le cadre de l’amélioration continue.
Lorsque cela est pertinent, MR SURICATE peut analyser les résultats des mécanismes IA afin d’identifier d’éventuels biais techniques ou comportements inattendus.
Classification des Risques IA (AI Act Alignment)
MR SURICATE analyse ses cas d’usage IA au regard du Règlement européen sur l’Intelligence Artificielle (AI Act).
Nature des systèmes
Les fonctionnalités IA sont destinées à l’assistance technique dans le domaine des tests automatisés.
Elles ne prennent pas de décisions juridiques ou automatisées affectant directement des personnes physiques.
Catégorie de risque
Au regard de leur finalité actuelle, les systèmes d’IA déployés par MR SURICATE sont considérés comme relevant :
De systèmes d’IA à risque limité
ou
D’outils d’assistance technique ne constituant pas des systèmes à haut risque au sens de l’AI Act.
Absence de cas d’usage à haut risque
Les fonctionnalités IA ne sont pas utilisées pour :
- Évaluation de personnes physiques
- Scoring comportemental
- Prise de décision automatisée à effet juridique
- Biométrie
- Surveillance à grande échelle
En conséquence, elles ne relèvent pas des catégories d’IA à haut risque.
Veille réglementaire
MR SURICATE assure une veille réglementaire continue afin d’adapter ses mécanismes de gouvernance en cas d’évolution fonctionnelle ou réglementaire.
Model & Data Lifecycle Governance
MR SURICATE applique des principes de gouvernance couvrant l’ensemble du cycle de vie des composants IA et des données associées.
Sélection et intégration des modèles
Les modèles IA peuvent être :
- Développés en interne
- Fournis par des partenaires technologiques tiers
Avant intégration, une évaluation est réalisée portant sur :
- Les garanties de sécurité
- Les engagements contractuels
- Les mécanismes de protection des données
- La conformité réglementaire applicable
Environnements d’exécution
Les composants IA sont exécutés dans des environnements sécurisés respectant :
- Les standards de sécurité de la plateforme
- Les contrôles d’accès stricts
- Les mécanismes de journalisation
- Les exigences d’isolement logique
Gouvernance des données
MR SURICATE veille à :
- Limiter l’utilisation de données personnelles
- Privilégier des données techniques ou anonymisées
- Appliquer les mêmes règles de sécurité que pour l’ensemble du système
- Les données ne sont pas utilisées pour l’entraînement externe sans base légale appropriée.
Les données clients utilisées dans le cadre de la plateforme ne sont pas utilisées pour entraîner des modèles d’intelligence artificielle publics ou tiers sans accord contractuel explicite.
Journalisation et traçabilité
Les actions administratives liées aux fonctionnalités IA sont journalisées conformément à la politique de journalisation de la plateforme.
La traçabilité vise à :
- Identifier les accès
- Identifier les modifications
- Permettre une analyse en cas d’incident
Gestion des versions et changements
Les évolutions des mécanismes IA sont :
- Testées avant déploiement
- Documentées
- Intégrées dans le processus de gestion du changement
- Les mises à jour interviennent dans le cadre de l’amélioration continue.
Surveillance des performances
MR SURICATE peut surveiller :
- La pertinence des suggestions
- Les anomalies techniques
- Les retours utilisateurs
Cette surveillance vise l’amélioration continue et ne constitue pas une garantie d’exactitude absolue.
Gestion des dépendances tierces
Lorsque des services tiers sont utilisés :
- Les fournisseurs sont évalués
- Les engagements contractuels sont encadrés
- Les transferts de données respectent les exigences réglementaires
Conformité Réglementaire
MR SURICATE suit l’évolution des cadres réglementaires applicables, notamment :
- Règlement (UE) 2016/679 (RGPD)
- Règlement européen sur l’Intelligence Artificielle (AI Act)
- Bonnes pratiques en matière d’IA responsable
Les mécanismes IA actuels sont conçus comme des outils d’assistance technique et ne constituent pas des systèmes d’IA à haut risque.
Responsabilidad
Les fonctionnalités IA sont fournies dans le cadre d’une obligation de moyens.
MR SURICATE ne garantit ni l’exactitude absolue ni l’absence d’erreur dans les suggestions générées. L’utilisateur demeure responsable de la validation des actions mises en œuvre.
Amélioration Continue
La gouvernance des mécanismes d’IA est suivie dans le cadre du SMSI de MR SURICATE et peut faire l’objet de revues périodiques de sécurité et de conformité.
Les mesures décrites peuvent évoluer dans le cadre :
- De l’amélioration continue
- De l’évolution technologique
- De l’adaptation réglementaire
Sous réserve du maintien d’un niveau de sécurité et de conformité équivalent.
Contacte con
Pour toute question relative à la gouvernance de l’IA : suricate@mrsuricate.com

