Dichiarazione etica sull'intelligenza artificiale del GRUPPO SCANDIC

Introduzione e Obiettivo

Il GRUPPO SCANDIC utilizza l'intelligenza artificiale (AI) e sistemi algoritmici in quasi tutte le aree di business: sistemi di raccomandazione editoriale e traduzione automatizzata nei media; Trading ad alta frequenza e algoritmico nel trading finanziario; Rilevamento e scoring delle frodi nelle transazioni di pagamento; Piattaforme di contratto intelligente nel crowdfunding; Ottimizzazione dei percorsi in mobilità; supporto diagnostico in ambito sanitario; ed esperienze personalizzate nei servizi per il tempo libero e lo stile di vita. In qualità di gruppo aziendale operante a livello internazionale, rappresentato da ATTIVITÀ SCANDIC FZCO e il SCANDIC TRUST GRUPPO LLC in collaborazione con il Legier Beteiligungs mbH – ci impegniamo a utilizzare l’IA in modo responsabile, trasparente e nel rispetto dei diritti fondamentali. Questa dichiarazione etica sull’IA formula valori fondamentali, processi e meccanismi di controllo per lo sviluppo, l’approvvigionamento, il funzionamento e l’uso dell’IA nel GRUPPO SCANDIC. Si basa sulle nostre linee guida esistenti in materia di conformità, governance aziendale, protezione dei dati, catena di fornitura e politica sui diritti umani e rappresenta una linea guida vincolante per tutte le aree aziendali.

Biblioteca panoramica

1. Valori fondamentali e opportunità Principi guida

Siamo guidati dalle migliori pratiche internazionali per un’intelligenza artificiale affidabile. I nostri sistemi dovrebbero servire le persone, rispettare i loro diritti e rafforzare la società. Sette principi fondamentali sono centrali:

  • Agenzie umane e supervisione: Le persone prendono le decisioni finali; L’intelligenza artificiale supporta, ma non sostituisce, la responsabilità umana.

  • Robustezza tecnica e sicurezza: I sistemi devono essere affidabili, resilienti e tolleranti ai guasti. Meccanismi di sicurezza come soluzioni di backup, ridondanze e protocolli di emergenza sono obbligatori.

  • Privacy e sovranità dei dati: La raccolta e il trattamento dei dati sono effettuati secondo i principi di minimizzazione dei dati, limitazione delle finalità e integrità.

  • Trasparenza: Le decisioni e i processi sono documentati in modo comprensibile. Gli utenti dovrebbero sapere quando interagiscono con l’intelligenza artificiale.

  • Diversità, non discriminazione ed equità: I modelli vengono controllati per individuare eventuali bias e progettati per trattare equamente tutte le popolazioni.

  • Benessere sociale e ambientale: Le applicazioni dell’intelligenza artificiale devono contribuire alla crescita sostenibile, al progresso sociale e alla protezione dell’ambiente.

  • Responsabilità: Sono definite le responsabilità per l’intero ciclo di vita dell’IA; Le violazioni vengono punite e i risultati vengono incorporati nei miglioramenti.

2. Governance e Responsabilità

Strutture di governance chiare si applicano a tutti i progetti di intelligenza artificiale. Un comitato AI a livello di gruppo garantisce il controllo strategico e stabilisce gli standard. I team di progetto devono condurre valutazioni del rischio, creare documentazione e ottenere approvazioni. Il responsabile della protezione dei dati e il team di compliance vengono coinvolti sin dalle prime fasi. Si applica il principio dei quattro occhi; Le decisioni critiche vengono esaminate da team interdisciplinari.

3. Informazioni legali e di marketing Quadro normativo

Rispettiamo la legge UE sull'intelligenza artificiale, il regolamento generale sulla protezione dei dati, le normative specifiche del settore (ad es. leggi sui dispositivi medici e sull'aviazione) e le leggi nazionali dei paesi in cui operiamo. Le applicazioni IA sono classificate in base al rischio (basso, alto, inaccettabile) e in base ai corrispondenti requisiti di conformità. Per le procedure ad alto rischio vengono effettuate valutazioni del rischio e dell'impatto, gestione della qualità e audit esterni. Prestiamo attenzione anche ai codici internazionali come le raccomandazioni dell’OCSE e dell’UNESCO sull’etica dell’IA.

4. Etica dei dati - Protezione dei dati

L’intelligenza artificiale si basa sui dati. Raccogliamo solo i dati necessari per lo scopo previsto e li rendiamo anonimi o pseudonimizzati quando possibile. I set di dati di formazione, convalida e test vengono controllati per qualità, rappresentatività e bias. Documentiamo le fonti dei dati, i diritti di proprietà e le condizioni di licenza. I dati personali vengono trattati in conformità con il GDPR, compresi i concetti di cancellazione e i controlli di accesso.

5. Trasparenza e trasparenza Spiegabilità

Laddove tecnicamente possibile e richiesto dalla legge, garantiamo modelli trasparenti e risultati spiegabili. Forniamo agli utenti informazioni su se e come viene utilizzata l’intelligenza artificiale. Per le applicazioni critiche (ad es. prestiti, medicina) vengono generate spiegazioni comprensibili della logica decisionale. La documentazione contiene informazioni su dati, modelli, parametri, test e limiti di applicazione.

6. Equità, pregiudizi e pregiudizi Inclusione

Identifichiamo e riduciamo i pregiudizi sistematici attraverso misure quali: set di dati diversificati, verifiche degli algoritmi, modellizzazione attenta all’equità e misurazione continua dell’impatto. Promuoviamo l'accessibilità offrendo progetti adatti a diversi gruppi di utenti (lingua, cultura, abilità). I contenuti discriminatori o dannosi verranno rimossi.

7. Supervisione e protezione umana Responsabilità

Le decisioni che hanno un impatto significativo sulle persone (ad esempio nei settori della finanza, della sanità, della selezione del personale) non devono essere prese esclusivamente dall’AI. Ancoriamo il controllo umano in ogni processo critico: i dipendenti possono correggere le voci, ignorare le decisioni e disattivare i sistemi. Formiamo i dipendenti all'uso sicuro e alla comprensione dei sistemi di intelligenza artificiale.

8. Robustezza e affidabilità Sicurezza

I nostri sistemi di intelligenza artificiale sono protetti da attacchi e manipolazioni. Le misure includono programmazione sicura, test regolari, monitoraggio, controlli di accesso e piani di risposta agli incidenti. I modelli vengono testati per il comportamento contraddittorio. In caso di guasti o malfunzionamenti vengono attuate procedure di emergenza per limitare i danni. Documentiamo le vulnerabilità note e forniamo patch.

9. Sostenibilità e sostenibilità impatto sociale

I progetti di intelligenza artificiale del GRUPPO SCANDIC intendono fornire un contributo positivo al clima e alla società. Prestiamo attenzione al consumo energetico durante la formazione e i modelli operativi e ci affidiamo ad algoritmi efficienti e fonti di energia rinnovabili. Valutiamo i potenziali impatti sull’occupazione, sull’istruzione e sulle strutture sociali e promuoviamo l’innovazione responsabile che consenta una crescita inclusiva.

10. Monitoraggio e ottimizzazione miglioramento continuo

I sistemi di intelligenza artificiale sono monitorati durante tutto il loro ciclo di vita. Misuriamo le prestazioni, l'equità, la sicurezza e il rispetto dei requisiti etici. Deviazioni o effetti indesiderati comportano aggiustamenti o arresti. I risultati degli audit, degli incidenti e del feedback degli utenti vengono incorporati nell'ulteriore sviluppo. La dichiarazione etica dell’IA viene regolarmente rivista e adattata alle nuove tecnologie, ai requisiti legali e alle aspettative sociali.