
Le GROUPE SCANDIC utilise l'intelligence artificielle (IA) et les systèmes algorithmiques dans presque tous les domaines d'activité : systèmes de recommandation éditoriale et traduction automatisée dans les médias ; Trading à haute fréquence et algorithmique dans le trading financier ; Détection et notation des fraudes dans les transactions de paiement ; Plateformes de contrats intelligents en financement participatif ; Optimisation des itinéraires en mobilité ; aide au diagnostic dans le domaine des soins de santé; et des expériences personnalisées dans les services de loisirs et de style de vie. En tant que groupe d'entreprises opérant à l'échelle internationale - représenté par le ACTIFS SCANDIQUES FZCO et le SCANDIC TRUST GROUP LLC en coopération avec le Legier Beteiligungs mbH – nous nous engageons à utiliser l’IA de manière responsable, transparente et dans le respect des droits fondamentaux. Cette déclaration d'éthique de l'IA formule des valeurs fondamentales, des processus et des mécanismes de contrôle pour le développement, l'approvisionnement, l'exploitation et l'utilisation de l'IA au sein du GROUPE SCANDIC. Elle s'appuie sur nos lignes directrices existantes en matière de conformité, de gouvernance d'entreprise, de protection des données, de chaîne d'approvisionnement et de politique en matière de droits de l'homme et représente une ligne directrice contraignante pour tous les domaines d'activité.
Nous sommes guidés par les meilleures pratiques internationales pour une IA digne de confiance. Nos systèmes doivent servir les gens, respecter leurs droits et renforcer la société. Sept principes de base sont centraux :
Des structures de gouvernance claires s’appliquent à tous les projets d’IA. Un comité IA à l’échelle du groupe assure le contrôle stratégique et fixe les normes. Les équipes de projet doivent effectuer des évaluations des risques, créer de la documentation et obtenir des approbations. Le délégué à la protection des données et l’équipe de conformité sont impliqués à un stade précoce. Le principe des quatre yeux s’applique ; Les décisions critiques sont examinées par des équipes interdisciplinaires.
Nous respectons la loi européenne sur l'IA, le règlement général sur la protection des données, les réglementations spécifiques au secteur (par exemple, le droit des dispositifs médicaux et de l'aviation) et les lois nationales des pays dans lesquels nous opérons. Les applications d'IA sont classées en fonction du risque (faible, élevé, inacceptable) et soumises aux exigences de conformité correspondantes. Des évaluations des risques et des impacts, une gestion de la qualité et des audits externes sont réalisés pour les procédures à haut risque. Nous prêtons également attention aux codes internationaux tels que les recommandations de l’OCDE et de l’UNESCO sur l’éthique de l’IA.
L'IA est basée sur des données. Nous collectons uniquement les données nécessaires aux fins prévues et les anonymisons ou les pseudonymisons autant que possible. Les ensembles de données de formation, de validation et de test sont vérifiés pour leur qualité, leur représentativité et leur biais. Nous documentons les sources de données, les droits de propriété et les conditions de licence. Les données personnelles sont traitées conformément au RGPD, y compris les concepts de suppression et les contrôles d'accès.
Lorsque cela est techniquement possible et légalement requis, nous garantissons des modèles transparents et des résultats explicables. Nous fournissons aux utilisateurs des informations sur si et comment l’IA est utilisée. Pour les applications critiques (par exemple, prêts, médecine), des explications compréhensibles de la logique de décision sont générées. La documentation contient des informations sur les données, les modèles, les paramètres, les tests et les limites d'application.
Nous identifions et réduisons les biais systématiques grâce à des mesures telles que : des ensembles de données diversifiés, des audits d'algorithmes, une modélisation soucieuse d'équité et une mesure continue de l'impact. Nous favorisons l'accessibilité en proposant des conceptions adaptées à différents groupes d'utilisateurs (langue, culture, capacités). Les contenus discriminatoires ou préjudiciables seront supprimés.
Les décisions qui ont un impact significatif sur les individus (par exemple dans les domaines de la finance, de la santé, de la sélection du personnel) ne doivent pas être prises exclusivement par l’IA. Nous ancrons le contrôle humain dans chaque processus critique : les employés peuvent corriger les entrées, annuler les décisions et éteindre les systèmes. Nous formons nos employés à l’utilisation et à la compréhension sûres des systèmes d’IA.
Nos systèmes d'IA sont protégés contre les attaques et les manipulations. Les mesures comprennent une programmation sécurisée, des tests réguliers, une surveillance, des contrôles d'accès et des plans de réponse aux incidents. Les modèles sont testés pour le comportement contradictoire. En cas de pannes ou de dysfonctionnements, des processus d'urgence sont mis en œuvre pour limiter les dégâts. Nous documentons les vulnérabilités connues et fournissons des correctifs.
Les projets d'IA du GROUPE SCANDIC visent à apporter une contribution positive au climat et à la société. Nous prêtons attention à la consommation d'énergie lors de la formation et des modèles d'exploitation et nous nous appuyons sur des algorithmes efficaces et des sources d'énergie renouvelables. Nous évaluons les impacts potentiels sur l’emploi, l’éducation et les structures sociales et promouvons une innovation responsable qui permet une croissance inclusive.
Les systèmes d’IA sont surveillés tout au long de leur cycle de vie. Nous mesurons la performance, l’équité, la sécurité et le respect des exigences éthiques. Des écarts ou des effets indésirables entraînent des ajustements ou un arrêt. Les résultats des audits, des incidents et des commentaires des utilisateurs sont intégrés dans les développements ultérieurs. La déclaration d'éthique de l'IA est régulièrement revue et adaptée aux nouvelles technologies, aux exigences légales et aux attentes sociales.