
Il GRUPPO SCANDIC utilizza l'intelligenza artificiale (AI) e sistemi algoritmici in quasi tutte le aree di business: sistemi di raccomandazione editoriale e traduzione automatizzata nei media; Trading ad alta frequenza e algoritmico nel trading finanziario; Rilevamento e scoring delle frodi nelle transazioni di pagamento; Piattaforme di contratto intelligente nel crowdfunding; Ottimizzazione dei percorsi in mobilità; supporto diagnostico in ambito sanitario; ed esperienze personalizzate nei servizi per il tempo libero e lo stile di vita. In qualità di gruppo aziendale operante a livello internazionale, rappresentato da ATTIVITÀ SCANDIC FZCO e il SCANDIC TRUST GRUPPO LLC in collaborazione con il Legier Beteiligungs mbH – ci impegniamo a utilizzare l’IA in modo responsabile, trasparente e nel rispetto dei diritti fondamentali. Questa dichiarazione etica sull’IA formula valori fondamentali, processi e meccanismi di controllo per lo sviluppo, l’approvvigionamento, il funzionamento e l’uso dell’IA nel GRUPPO SCANDIC. Si basa sulle nostre linee guida esistenti in materia di conformità, governance aziendale, protezione dei dati, catena di fornitura e politica sui diritti umani e rappresenta una linea guida vincolante per tutte le aree aziendali.
Siamo guidati dalle migliori pratiche internazionali per un’intelligenza artificiale affidabile. I nostri sistemi dovrebbero servire le persone, rispettare i loro diritti e rafforzare la società. Sette principi fondamentali sono centrali:
Strutture di governance chiare si applicano a tutti i progetti di intelligenza artificiale. Un comitato AI a livello di gruppo garantisce il controllo strategico e stabilisce gli standard. I team di progetto devono condurre valutazioni del rischio, creare documentazione e ottenere approvazioni. Il responsabile della protezione dei dati e il team di compliance vengono coinvolti sin dalle prime fasi. Si applica il principio dei quattro occhi; Le decisioni critiche vengono esaminate da team interdisciplinari.
Rispettiamo la legge UE sull'intelligenza artificiale, il regolamento generale sulla protezione dei dati, le normative specifiche del settore (ad es. leggi sui dispositivi medici e sull'aviazione) e le leggi nazionali dei paesi in cui operiamo. Le applicazioni IA sono classificate in base al rischio (basso, alto, inaccettabile) e in base ai corrispondenti requisiti di conformità. Per le procedure ad alto rischio vengono effettuate valutazioni del rischio e dell'impatto, gestione della qualità e audit esterni. Prestiamo attenzione anche ai codici internazionali come le raccomandazioni dell’OCSE e dell’UNESCO sull’etica dell’IA.
L’intelligenza artificiale si basa sui dati. Raccogliamo solo i dati necessari per lo scopo previsto e li rendiamo anonimi o pseudonimizzati quando possibile. I set di dati di formazione, convalida e test vengono controllati per qualità, rappresentatività e bias. Documentiamo le fonti dei dati, i diritti di proprietà e le condizioni di licenza. I dati personali vengono trattati in conformità con il GDPR, compresi i concetti di cancellazione e i controlli di accesso.
Laddove tecnicamente possibile e richiesto dalla legge, garantiamo modelli trasparenti e risultati spiegabili. Forniamo agli utenti informazioni su se e come viene utilizzata l’intelligenza artificiale. Per le applicazioni critiche (ad es. prestiti, medicina) vengono generate spiegazioni comprensibili della logica decisionale. La documentazione contiene informazioni su dati, modelli, parametri, test e limiti di applicazione.
Identifichiamo e riduciamo i pregiudizi sistematici attraverso misure quali: set di dati diversificati, verifiche degli algoritmi, modellizzazione attenta all’equità e misurazione continua dell’impatto. Promuoviamo l'accessibilità offrendo progetti adatti a diversi gruppi di utenti (lingua, cultura, abilità). I contenuti discriminatori o dannosi verranno rimossi.
Le decisioni che hanno un impatto significativo sulle persone (ad esempio nei settori della finanza, della sanità, della selezione del personale) non devono essere prese esclusivamente dall’AI. Ancoriamo il controllo umano in ogni processo critico: i dipendenti possono correggere le voci, ignorare le decisioni e disattivare i sistemi. Formiamo i dipendenti all'uso sicuro e alla comprensione dei sistemi di intelligenza artificiale.
I nostri sistemi di intelligenza artificiale sono protetti da attacchi e manipolazioni. Le misure includono programmazione sicura, test regolari, monitoraggio, controlli di accesso e piani di risposta agli incidenti. I modelli vengono testati per il comportamento contraddittorio. In caso di guasti o malfunzionamenti vengono attuate procedure di emergenza per limitare i danni. Documentiamo le vulnerabilità note e forniamo patch.
I progetti di intelligenza artificiale del GRUPPO SCANDIC intendono fornire un contributo positivo al clima e alla società. Prestiamo attenzione al consumo energetico durante la formazione e i modelli operativi e ci affidiamo ad algoritmi efficienti e fonti di energia rinnovabili. Valutiamo i potenziali impatti sull’occupazione, sull’istruzione e sulle strutture sociali e promuoviamo l’innovazione responsabile che consenta una crescita inclusiva.
I sistemi di intelligenza artificiale sono monitorati durante tutto il loro ciclo di vita. Misuriamo le prestazioni, l'equità, la sicurezza e il rispetto dei requisiti etici. Deviazioni o effetti indesiderati comportano aggiustamenti o arresti. I risultati degli audit, degli incidenti e del feedback degli utenti vengono incorporati nell'ulteriore sviluppo. La dichiarazione etica dell’IA viene regolarmente rivista e adattata alle nuove tecnologie, ai requisiti legali e alle aspettative sociali.