
SCANDIC GROUP bruger kunstig intelligens (AI) og algoritmiske systemer i næsten alle forretningsområder: redaktionelle anbefalingssystemer og automatiseret oversættelse i medierne; Højfrekvent og algoritmisk handel inden for finansiel handel; Svindel opdagelse og scoring i betalingstransaktioner; Smarte kontraktplatforme inden for crowdfunding; Ruteoptimering i mobilitet; diagnostisk støtte i sundhedsvæsenet; og personlige oplevelser inden for fritids- og livsstilstjenester. Som en internationalt opererende koncern af virksomheder - repræsenteret ved SCANDIC AKTIVER FZCO og den SCANDIC TRUST GROUP LLC i samarbejde med Legier Beteiligungs mbH – vi er forpligtet til at bruge AI ansvarligt, gennemsigtigt og i overensstemmelse med grundlæggende rettigheder. Denne AI-etikerklæring formulerer kerneværdier, processer og kontrolmekanismer for udvikling, indkøb, drift og brug af AI i SCANDIC GROUP. Den bygger på vores eksisterende retningslinjer om compliance, virksomhedsledelse, databeskyttelse, forsyningskæde og menneskerettighedspolitik og repræsenterer en bindende retningslinje for alle forretningsområder.
Vi er styret af international bedste praksis for pålidelig kunstig intelligens. Vores systemer skal tjene mennesker, respektere deres rettigheder og styrke samfundet. Syv grundlæggende principper er centrale:
Klare styringsstrukturer gælder for alle AI-projekter. En gruppedækkende AI-komité sikrer strategisk kontrol og sætter standarder. Projektteams skal foretage risikovurderinger, skabe dokumentation og indhente godkendelser. Den databeskyttelsesansvarlige og compliance-teamet inddrages på et tidligt tidspunkt. Fire-øjne princippet gælder; Kritiske beslutninger gennemgås af tværfaglige teams.
Vi overholder EU AI-loven, den generelle databeskyttelsesforordning, branchespecifikke bestemmelser (f.eks. lov om medicinsk udstyr og luftfart) og nationale love i de lande, hvor vi opererer. AI-applikationer er klassificeret efter risiko (lav, høj, uacceptabel) og givet de tilsvarende overholdelseskrav. Risiko- og konsekvensvurderinger, kvalitetsstyring og eksterne revisioner udføres for højrisikoprocedurer. Vi er også opmærksomme på internationale kodekser som OECD og UNESCOs anbefalinger om AI-etik.
AI er baseret på data. Vi indsamler kun data, der er nødvendige til det tilsigtede formål, og anonymiserer eller pseudonymiserer dem, når det er muligt. Trænings-, validerings- og testdatasæt kontrolleres for kvalitet, repræsentativitet og bias. Vi dokumenterer datakilder, ejerskabsrettigheder og licensbetingelser. Personoplysninger behandles i overensstemmelse med GDPR, herunder sletningskoncepter og adgangskontrol.
Hvor det er teknisk muligt og lovmæssigt påkrævet, sikrer vi gennemsigtige modeller og forklarlige resultater. Vi giver brugerne information om, hvorvidt og hvordan AI bruges. Til kritiske applikationer (f.eks. udlån, medicin) genereres forståelige forklaringer af beslutningslogikken. Dokumentation indeholder information om data, modeller, parametre, test og anvendelsesgrænser.
Vi identificerer og reducerer systematiske skævheder gennem foranstaltninger som: forskellige datasæt, algoritme-audits, retfærdighedsbevidst modellering og kontinuerlig effektmåling. Vi fremmer tilgængelighed ved at tilbyde design, der passer til forskellige brugergrupper (sprog, kultur, evner). Diskriminerende eller skadeligt indhold vil blive fjernet.
Beslutninger, der har en væsentlig indvirkning på enkeltpersoner (f.eks. inden for økonomi, sundhedsvæsen, personaleudvælgelse) må ikke udelukkende træffes af AI. Vi forankrer menneskelig kontrol i enhver kritisk proces: medarbejdere kan rette indtastninger, tilsidesætte beslutninger og slukke for systemer. Vi træner medarbejdere i sikker brug og forståelse af AI-systemer.
Vores AI-systemer er beskyttet mod angreb og manipulation. Foranstaltninger omfatter sikker programmering, regelmæssig test, overvågning, adgangskontrol og hændelsesresponsplaner. Modeller testes for modstridende adfærd. I tilfælde af fejl eller funktionsfejl implementeres nødprocesser for at begrænse skader. Vi dokumenterer kendte sårbarheder og leverer patches.
AI-projekter fra SCANDIC GROUP har til formål at bidrage positivt til klimaet og samfundet. Vi er opmærksomme på energiforbruget ved træning og drift af modeller og er afhængige af effektive algoritmer og vedvarende energikilder. Vi vurderer potentielle indvirkninger på beskæftigelse, uddannelse og sociale strukturer og fremmer ansvarlig innovation, der muliggør inklusiv vækst.
AI-systemer overvåges gennem hele deres livscyklus. Vi måler ydeevne, retfærdighed, sikkerhed og overholdelse af etiske krav. Afvigelser eller uønskede effekter fører til justeringer eller nedlukning. Resultater fra revisioner, hændelser og feedback fra brugere indarbejdes i den videre udvikling. AI-etikerklæringen bliver løbende gennemgået og tilpasset nye teknologier, lovkrav og sociale forventninger.