Die SCANDIC GROUP nutzt Künstliche Intelligenz (KI) und algorithmische Systeme in nahezu allen Geschäftsbereichen: Redaktionelle Empfehlungssysteme und automatisierte Übersetzung in den Medien; Hochfrequenz‑ und Algorithmic‑Trading im Finanzhandel; Betrugserkennung und Scoring im Zahlungsverkehr; Smart‑Contract‑Plattformen im Crowdfunding; Routenoptimierung in der Mobilität; Diagnostikunterstützung im Gesundheitswesen; sowie personalisierte Erlebnisse in Freizeit‑ und Lifestyle‑Services. Als international agierender Unternehmensverbund – vertreten durch die SCANDIC ASSETS FZCO und die SCANDIC TRUST GROUP LLC in Kooperation mit der Legier Beteiligungs mbH – bekennen wir uns dazu, KI verantwortungsvoll, transparent und im Einklang mit Grundrechten einzusetzen. Diese KI‑Ethik‑Erklärung formuliert Grundwerte, Prozesse und Kontrollmechanismen für die Entwicklung, Beschaffung, den Betrieb und die Nutzung von KI in der SCANDIC GROUP. Sie baut auf unseren bestehenden Richtlinien zu Compliance, Corporate Governance, Datenschutz, Lieferketten‑ und Menschenrechtspolitik auf und stellt eine verbindliche Leitlinie für alle Geschäftsbereiche dar.
Wir orientieren uns an internationalen Best Practices für vertrauenswürdige KI. Unsere Systeme sollen den Menschen dienen, seine Rechte respektieren und die Gesellschaft stärken. Zentral sind sieben Grundprinzipien:
Für alle KI‑Vorhaben gelten klare Governance‑Strukturen. Ein gruppenweites KI‑Komitee sorgt für strategische Steuerung und legt Standards fest. Projektteams müssen Risikobewertungen durchführen, Dokumentation erstellen und Freigaben einholen. Der Datenschutzbeauftragte und das Compliance‑Team werden frühzeitig eingebunden. Es gilt das Vier‑Augen‑Prinzip; kritische Entscheidungen werden von interdisziplinären Teams überprüft.
Wir beachten den EU‑AI‑Act, die Datenschutz‑Grundverordnung, branchenspezifische Vorschriften (z. B. Medizinprodukte‑ und Luftfahrtrecht) sowie nationale Gesetze der Länder, in denen wir tätig sind. KI‑Anwendungen werden nach Risiko klassifiziert (niedrig, hoch, inakzeptabel) und mit den entsprechenden Compliance‑Anforderungen versehen. Für Hoch‑Risikoverfahren werden Risiko‑ und Folgenabschätzungen, Qualitätsmanagement und externe Audits durchgeführt. Wir achten auch auf internationale Kodizes wie die OECD‑ und UNESCO‑Empfehlungen zur KI‑Ethik.
KI basiert auf Daten. Wir sammeln nur Daten, die für den vorgesehenen Zweck erforderlich sind, und anonymisieren oder pseudonymisieren sie, wann immer möglich. Trainings‑, Validierungs‑ und Testdatensätze werden auf Qualität, Repräsentativität und Verzerrungen geprüft. Wir dokumentieren Datenquellen, Eigentumsrechte und Lizenzbedingungen. Personenbezogene Daten werden gemäß DSGVO verarbeitet, inklusive Löschkonzepten und Zugriffskontrollen.
Wo es technisch möglich und rechtlich erforderlich ist, stellen wir transparente Modelle und erklärbare Ergebnisse sicher. Für Nutzer*innen stellen wir Informationen bereit, ob und wie KI eingesetzt wird. Für kritische Anwendungen (z. B. Kreditvergabe, Medizin) werden nachvollziehbare Erklärungen zur Entscheidungslogik erzeugt. Dokumentationen enthalten Angaben zu Daten, Modellen, Parametern, Tests und Einsatzgrenzen.
Wir identifizieren und mindern systematische Verzerrungen durch Maßnahmen wie: diverse Datensätze, Algorithmus‑Audits, fairness‑bewusste Modellierung und kontinuierliche Wirkungsmessung. Wir fördern Barrierefreiheit, indem wir für unterschiedliche Nutzergruppen (Sprache, Kultur, Fähigkeiten) geeignete Designs anbieten. Diskriminierende oder schädliche Inhalte werden entfernt.
Entscheidungen, die erhebliche Auswirkungen auf Einzelne haben (z. B. in den Bereichen Finanzen, Gesundheitswesen, Personalauswahl), dürfen nicht ausschließlich von KI getroffen werden. Wir verankern menschliche Kontrolle in jedem kritischen Prozess: Mitarbeitende können Eingaben korrigieren, Entscheidungen überstimmen und Systeme abschalten. Wir schulen Mitarbeitende in der sicheren Nutzung und im Verständnis von KI‑Systemen.
Unsere KI‑Systeme werden gegen Angriffe und Manipulationen geschützt. Maßnahmen umfassen sichere Programmierung, regelmäßige Tests, Monitoring, Zugangskontrollen und Incident‑Response‑Pläne. Modelle werden auf adversariales Verhalten getestet. Bei Ausfällen oder Fehlfunktionen greifen Notfallprozesse, um Schäden zu begrenzen. Wir dokumentieren bekannte Schwachstellen und stellen Patches bereit.
KI‑Projekte der SCANDIC GROUP sollen einen positiven Beitrag zu Klima und Gesellschaft leisten. Wir achten auf den Energieverbrauch beim Training und Betrieb von Modellen, setzen auf effiziente Algorithmen und erneuerbare Energiequellen. Wir bewerten mögliche Auswirkungen auf Beschäftigung, Bildung und soziale Strukturen und fördern verantwortungsvolle Innovation, die inklusives Wachstum ermöglicht.
KI‑Systeme werden während des gesamten Lebenszyklus überwacht. Wir messen Performance, Fairness, Sicherheit und Einhaltung der Ethik‑Vorgaben. Abweichungen oder unerwünschte Effekte führen zu Anpassungen oder Abschaltung. Erkenntnisse aus Audits, Vorfällen und Feedback von Nutzenden fließen in die Weiterentwicklung ein. Die KI‑Ethik‑Erklärung wird regelmäßig überprüft und an neue Technologien, gesetzliche Vorgaben und gesellschaftliche Erwartungen angepasst.