Déclaration d'éthique de l'IA de SCANDIC GROUP

Introduction et amp; Objectif

Le GROUPE SCANDIC utilise l'intelligence artificielle (IA) et les systèmes algorithmiques dans presque tous les domaines d'activité : systèmes de recommandation éditoriale et traduction automatisée dans les médias ; Trading à haute fréquence et algorithmique dans le trading financier ; Détection et notation des fraudes dans les transactions de paiement ; Plateformes de contrats intelligents en financement participatif ; Optimisation des itinéraires en mobilité ; aide au diagnostic dans le domaine des soins de santé; et des expériences personnalisées dans les services de loisirs et de style de vie. En tant que groupe d'entreprises opérant à l'échelle internationale - représenté par le ACTIFS SCANDIQUES FZCO et le SCANDIC TRUST GROUP LLC en coopération avec le Legier Beteiligungs mbH – nous nous engageons à utiliser l’IA de manière responsable, transparente et dans le respect des droits fondamentaux. Cette déclaration d'éthique de l'IA formule des valeurs fondamentales, des processus et des mécanismes de contrôle pour le développement, l'approvisionnement, l'exploitation et l'utilisation de l'IA au sein du GROUPE SCANDIC. Elle s'appuie sur nos lignes directrices existantes en matière de conformité, de gouvernance d'entreprise, de protection des données, de chaîne d'approvisionnement et de politique en matière de droits de l'homme et représente une ligne directrice contraignante pour tous les domaines d'activité.

Bibliothèque de présentation

1. Valeurs fondamentales et amp; Principes directeurs

Nous sommes guidés par les meilleures pratiques internationales pour une IA digne de confiance. Nos systèmes doivent servir les gens, respecter leurs droits et renforcer la société. Sept principes de base sont centraux :

  • Agence humaine et supervision : Ce sont les gens qui prennent les décisions finales ; L’IA soutient, mais ne remplace pas, la responsabilité humaine.

  • Robustesse technique et sécurité : Les systèmes doivent être fiables, résilients et tolérants aux pannes. Les mécanismes de sécurité tels que les solutions de sauvegarde, les redondances et les protocoles d'urgence sont obligatoires.

  • Confidentialité et souveraineté des données : La collecte et le traitement des données sont effectués selon les principes de minimisation des données, de limitation des finalités et d'intégrité.

  • Transparence: Les décisions et les processus sont documentés de manière compréhensible. Les utilisateurs doivent savoir quand ils interagissent avec l’IA.

  • Diversité, non-discrimination et équité : Les modèles sont vérifiés pour détecter tout biais et conçus pour traiter équitablement toutes les populations.

  • Bien-être social et environnemental : Les applications de l’IA doivent contribuer à la croissance durable, au progrès social et à la protection de l’environnement.

  • Responsabilité: Les responsabilités pour l’ensemble du cycle de vie de l’IA sont définies ; Les violations sont punies et les résultats sont intégrés aux améliorations.

2. Gouvernance et amp; Responsabilités

Des structures de gouvernance claires s’appliquent à tous les projets d’IA. Un comité IA à l’échelle du groupe assure le contrôle stratégique et fixe les normes. Les équipes de projet doivent effectuer des évaluations des risques, créer de la documentation et obtenir des approbations. Le délégué à la protection des données et l’équipe de conformité sont impliqués à un stade précoce. Le principe des quatre yeux s’applique ; Les décisions critiques sont examinées par des équipes interdisciplinaires.

3. Juridique et juridique Cadre réglementaire

Nous respectons la loi européenne sur l'IA, le règlement général sur la protection des données, les réglementations spécifiques au secteur (par exemple, le droit des dispositifs médicaux et de l'aviation) et les lois nationales des pays dans lesquels nous opérons. Les applications d'IA sont classées en fonction du risque (faible, élevé, inacceptable) et soumises aux exigences de conformité correspondantes. Des évaluations des risques et des impacts, une gestion de la qualité et des audits externes sont réalisés pour les procédures à haut risque. Nous prêtons également attention aux codes internationaux tels que les recommandations de l’OCDE et de l’UNESCO sur l’éthique de l’IA.

4. Éthique des données et amp; Protection des données

L'IA est basée sur des données. Nous collectons uniquement les données nécessaires aux fins prévues et les anonymisons ou les pseudonymisons autant que possible. Les ensembles de données de formation, de validation et de test sont vérifiés pour leur qualité, leur représentativité et leur biais. Nous documentons les sources de données, les droits de propriété et les conditions de licence. Les données personnelles sont traitées conformément au RGPD, y compris les concepts de suppression et les contrôles d'accès.

5. Transparence et transparence Explicabilité

Lorsque cela est techniquement possible et légalement requis, nous garantissons des modèles transparents et des résultats explicables. Nous fournissons aux utilisateurs des informations sur si et comment l’IA est utilisée. Pour les applications critiques (par exemple, prêts, médecine), des explications compréhensibles de la logique de décision sont générées. La documentation contient des informations sur les données, les modèles, les paramètres, les tests et les limites d'application.

6. Équité, partialité et équité Inclusion

Nous identifions et réduisons les biais systématiques grâce à des mesures telles que : des ensembles de données diversifiés, des audits d'algorithmes, une modélisation soucieuse d'équité et une mesure continue de l'impact. Nous favorisons l'accessibilité en proposant des conceptions adaptées à différents groupes d'utilisateurs (langue, culture, capacités). Les contenus discriminatoires ou préjudiciables seront supprimés.

7. Surveillance humaine et amp; Responsabilité

Les décisions qui ont un impact significatif sur les individus (par exemple dans les domaines de la finance, de la santé, de la sélection du personnel) ne doivent pas être prises exclusivement par l’IA. Nous ancrons le contrôle humain dans chaque processus critique : les employés peuvent corriger les entrées, annuler les décisions et éteindre les systèmes. Nous formons nos employés à l’utilisation et à la compréhension sûres des systèmes d’IA.

8. Robustesse et amp; Sécurité

Nos systèmes d'IA sont protégés contre les attaques et les manipulations. Les mesures comprennent une programmation sécurisée, des tests réguliers, une surveillance, des contrôles d'accès et des plans de réponse aux incidents. Les modèles sont testés pour le comportement contradictoire. En cas de pannes ou de dysfonctionnements, des processus d'urgence sont mis en œuvre pour limiter les dégâts. Nous documentons les vulnérabilités connues et fournissons des correctifs.

9. Durabilité et développement impact social

Les projets d'IA du GROUPE SCANDIC visent à apporter une contribution positive au climat et à la société. Nous prêtons attention à la consommation d'énergie lors de la formation et des modèles d'exploitation et nous nous appuyons sur des algorithmes efficaces et des sources d'énergie renouvelables. Nous évaluons les impacts potentiels sur l’emploi, l’éducation et les structures sociales et promouvons une innovation responsable qui permet une croissance inclusive.

10. Surveillance et surveillance amélioration continue

Les systèmes d’IA sont surveillés tout au long de leur cycle de vie. Nous mesurons la performance, l’équité, la sécurité et le respect des exigences éthiques. Des écarts ou des effets indésirables entraînent des ajustements ou un arrêt. Les résultats des audits, des incidents et des commentaires des utilisateurs sont intégrés dans les développements ultérieurs. La déclaration d'éthique de l'IA est régulièrement revue et adaptée aux nouvelles technologies, aux exigences légales et aux attentes sociales.