Cette charte définit les principes éthiques non-négociables de toute organisation utilisant SYNAPSE.
SYNAPSE augmente les humains, ne les remplace pas.
Les agents IA de SYNAPSE sont des outils au service des humains, pas des maîtres. Les décisions critiques restent toujours entre les mains des personnes, qui conservent leur pouvoir de jugement, leur créativité et leur responsabilité.
Principe : Toute décision prise ou proposée par un agent IA doit être explicable.
En pratique :
- Chaque décision IA est accompagnée d'une explication
- Les humains peuvent demander "pourquoi ?" à tout moment
- Les algorithmes sont documentés et auditables
- Les données d'entraînement sont connues et justifiées
Interdictions :
- ❌ "Boîtes noires" pour des décisions impactant des personnes
- ❌ "L'algorithme a décidé" sans explication
- ❌ Modèles propriétaires non audités pour décisions critiques
Vérification :
- Ethical Guardian a accès total aux logs
- Audits trimestriels des décisions IA
- Tout employé peut demander l'explication d'une décision
Principe : Aucune décision critique ne peut être prise sans validation humaine finale.
Décisions "critiques" (nécessitent validation humaine) :
- Toute décision affectant des personnes (embauche, licenciement, évaluation, promotion)
- Engagements financiers > [seuil défini par l'organisation]
- Changements stratégiques majeurs
- Décisions avec risques éthiques, légaux ou de sécurité
- Toute décision sortant du cadre de l'Intent Statement
En pratique :
- Les agents IA proposent, jamais n'imposent
- Les 4 rôles humains ont des pouvoirs de veto clairement définis
- En cas de désaccord humain-IA, l'humain prime toujours
- Traçabilité : qui a décidé quoi, quand, pourquoi
Interdictions :
- ❌ Décisions RH automatisées
- ❌ Évaluations de performance par IA seule
- ❌ Sanctions automatiques
- ❌ Changements stratégiques sans Intent Architect
Principe : Les données personnelles sont protégées par design, conformément au RGPD.
Minimisation :
- Les agents n'ont accès qu'aux données strictement nécessaires
- Anonymisation par défaut pour analyses statistiques
- Pas de collecte spéculative ("au cas où")
Sécurité :
- Chiffrement at-rest et in-transit
- Accès basés sur rôles (RBAC)
- Logs d'audit de tous les accès aux données sensibles
- Backups chiffrés
Droits des personnes (RGPD) :
- Droit d'accès : Tout employé peut demander quelles données sont stockées
- Droit de rectification : Correction des données incorrectes
- Droit à l'oubli : Effacement sur demande (fonction
forget_user()) - Droit à la portabilité : Export des données dans format lisible
- Droit d'opposition : Refuser certains traitements
Interdictions :
- ❌ Surveillance invasive (keylogging, screenshots, etc.)
- ❌ Analyse de comportements personnels hors travail
- ❌ Partage de données avec tiers sans consentement explicite
- ❌ Conservation indéfinie des données
Vérification :
- DPO (Data Protection Officer) = Ethical Guardian ou dédié
- Audits RGPD annuels
- Documentation complète des traitements (registre RGPD)
Principe : Les décisions IA ne doivent jamais discriminer sur des critères illégaux ou immoraux.
Critères protégés (interdiction de discrimination) :
- Origine ethnique, nationalité
- Genre, identité de genre, orientation sexuelle
- Âge
- Handicap
- Religion ou convictions
- Apparence physique
- Situation familiale
- Activités syndicales
En pratique :
- Tests de fairness réguliers sur les décisions IA
- Métriques d'équité suivies en continu
- Analyse statistique des décisions par groupe
- Correction immédiate si biais détecté
Méthodes de détection :
# Exemple : Analyse de parité démographique
decisions_by_group = {
"Group A": [decisions for person in GroupA],
"Group B": [decisions for person in GroupB]
}
# Calculer taux d'acceptation
rate_A = acceptance_rate(decisions_by_group["Group A"])
rate_B = acceptance_rate(decisions_by_group["Group B"])
# Alerte si écart > 20%
if abs(rate_A - rate_B) > 0.20:
alert_ethical_guardian("Disparate impact detected")Interdictions :
- ❌ Utiliser des proxies de discrimination (code postal = origine, prénom = genre)
- ❌ Optimiser des métriques qui pénalisent certains groupes
- ❌ Ignorer les signaux de biais détectés
Vérification :
- Ethical Guardian audite les décisions mensuellement
- Métriques de fairness dans le dashboard
- Possibilité de contestation par toute personne affectée
Principe : Toute personne peut contester une décision IA qui l'affecte.
Processus :
- Demande de contestation : Email à ethical-guardian@...
- Explication détaillée : Ethical Guardian demande explication complète à l'IA
- Revue humaine : Ethical Guardian + personne concernée + décideur initial
- Décision finale : Humains décident (peuvent annuler la décision IA)
- Documentation : Cas documenté pour améliorer le système
Délais :
- Accusé réception : 24h
- Explication fournie : 72h
- Décision finale : 1 semaine maximum
Garanties :
- Aucune rétorsion possible contre celui qui conteste
- Processus confidentiel
- Décision finale irrévocable (sauf nouvel élément)
Interdictions :
- ❌ Ignorer une contestation
- ❌ Sanctionner quelqu'un pour avoir contesté
- ❌ Processus opaque ou trop long
Principe : SYNAPSE ne doit pas devenir un outil de surveillance des employés.
Ce qui est autorisé :
- ✅ Capture des décisions formalisées (transparente)
- ✅ Analyse des workflows et dépendances (anonymisée)
- ✅ Métriques agrégées d'équipe
- ✅ Détection de patterns organisationnels
Ce qui est INTERDIT :
- ❌ Tracking individuel minute par minute
- ❌ Keylogging, screenshots, enregistrement audio/vidéo
- ❌ Analyse de productivité individuelle par IA
- ❌ Scoring des personnes
- ❌ Comparaisons individuelles automatisées
- ❌ Surveillance hors heures de travail
Règle d'or : Si une fonctionnalité fait dire "Big Brother" à plus de 20% de l'équipe, elle est interdite.
Vérification :
- Sondage mensuel anonyme sur le sentiment de surveillance
- Ethical Guardian audite les logs d'accès
- Transparence totale : chacun sait ce qui est capturé
Principe : L'adoption de SYNAPSE doit être volontaire et informée.
Avant le déploiement :
- Présentation complète du système à tous
- Explication claire : quelles données, pourquoi, comment
- Questions/réponses ouvertes
- Possibilité de refuser (avec alternatives)
Pendant l'utilisation :
- Rappels réguliers de ce que fait le système
- Possibilité de désactiver certaines fonctionnalités
- Feedback continu encouragé
Interdictions :
- ❌ Déploiement surprise ou imposé top-down
- ❌ Consentement "forcé" (accepter ou partir)
- ❌ Informations cachées ou trompeuses
Principe : Les humains restent responsables des décisions, pas l'IA.
En pratique :
- Chaque décision a un "Maker" humain identifié
- L'IA assiste, mais ne décide jamais seule
- En cas de problème, c'est l'humain qui répond (devant direction, clients, régulateurs)
Interdictions :
- ❌ "C'est l'algorithme qui a décidé" comme excuse
- ❌ Dédouanement de responsabilité vers l'IA
- ❌ Décisions anonymes (sans humain identifiable)
-
Comprendre
- Obtenir l'explication de toute décision IA qui l'affecte
- Comprendre quelles données sont collectées et pourquoi
- Accéder à ses propres données
-
Contester
- Faire appel de toute décision jugée injuste
- Être entendu par un humain (Ethical Guardian)
- Obtenir une décision finale motivée
-
Être protégé
- Données personnelles sécurisées et anonymisées
- Pas de discrimination algorithmique
- Pas de surveillance invasive
-
Déconnecter
- Ne pas être surveillé en permanence
- Avoir des espaces sans IA (conversations privées, etc.)
- Refuser certaines fonctionnalités
-
Apprendre
- Être formé à travailler avec les agents IA
- Comprendre le fonctionnement du système
- Développer de nouvelles compétences
-
Participer
- Contribuer à l'amélioration du système
- Signaler les bugs ou comportements anormaux
- Proposer des évolutions
-
Refuser
- Dire non à une proposition IA sans se justifier
- Désactiver certaines alertes
- Travailler "à l'ancienne" si nécessaire
-
Auditer
- Accéder aux logs des décisions qui le concernent
- Comprendre pourquoi une décision a été prise
- Vérifier qu'il n'y a pas de biais
Composition :
- Ethical Guardian (président)
- 1 représentant élu des employés
- 1 expert externe (éthique IA, droit, philosophie)
- 1 membre de la direction
Rôle :
- Revue trimestrielle des décisions IA
- Validation des nouvelles fonctionnalités agents
- Gestion des cas éthiques complexes
- Mise à jour de la charte éthique
- Formation éthique de l'organisation
Pouvoirs :
- Recommandations contraignantes
- Veto sur fonctionnalités problématiques
- Accès total aux systèmes pour audit
- Communication publique si nécessaire
Indicateurs de dérive :
⚠️ Les employés ont peur de contester⚠️ Décisions IA sans explication fréquentes⚠️ Biais détectés mais non corrigés⚠️ Sentiment de surveillance omniprésente⚠️ Taux de contestation = 0 (trop parfait pour être vrai)⚠️ Ethical Guardian marginalisé ou ignoré
Actions immédiates :
- Suspension temporaire du système (si nécessaire)
- Audit externe indépendant
- Communication transparente à l'organisation
- Plan de remédiation
- Révision de la charte éthique
- Charte éthique signée par tous les rôles
- Formation éthique complétée
- Comité d'éthique constitué
- Process de contestation documenté
- Conformité RGPD validée
- Tests de fairness effectués
- Consentement éclairé obtenu
- Audit des décisions IA (échantillon)
- Métriques de fairness dans le vert
- Aucune dérive détectée
- Contestations traitées dans les délais
- Satisfaction équipe > 70%
- Comité d'éthique a siégé
- Incident documenté
- Analyse des causes
- Communication transparente
- Plan de remédiation
- Suivi de l'amélioration
La communauté SYNAPSE s'engage à :
- Développer des outils éthiques par design
- Partager les bonnes pratiques
- Dénoncer les dérives
- Former à l'éthique de l'IA
Si une organisation viole cette charte :
- Avertissement public
- Exclusion du réseau des organisations certifiées
- Retrait du droit d'utiliser le label "SYNAPSE Certified"
- Communication publique de la violation (si grave)
Nous ne voulons pas que SYNAPSE soit utilisé pour :
- Surveiller et contrôler les employés
- Discriminer systématiquement
- Automatiser des décisions RH critiques sans humains
- Optimiser au détriment du bien-être
Si vous observez une violation, signalez : ethics@synapse-origin.org
- Ethics of AI (cours en ligne)
- RGPD pour les organisations
- Fairness in Machine Learning
- Algorithmic Accountability
- EU AI Act (réglementation européenne)
- IEEE Ethically Aligned Design
- Montreal Declaration for Responsible AI
- ACM Code of Ethics
- Fairness indicators (Google)
- AI Fairness 360 (IBM)
- What-If Tool (Google)
- Aequitas (bias audit)
En tant que membre d'une organisation SYNAPSE, je m'engage à :
- Respecter cette charte éthique
- Signaler toute dérive éthique
- Ne jamais utiliser l'IA pour nuire
- Garder l'humain au centre
- Apprendre continuellement sur l'éthique IA
Signature : _________________ Date : _______
Cette charte est un document vivant. Elle évoluera avec les apprentissages de la communauté et les évolutions technologiques.
Version : 1.0
Date : Novembre 2025
Prochaine révision : Mai 2026