
SCANDIC GROUP dirbtinį intelektą (AI) ir algoritmines sistemas naudoja beveik visose verslo srityse: redakcinių rekomendacijų sistemose ir automatiniame vertime žiniasklaidoje; Aukšto dažnio ir algoritminė prekyba finansų prekyboje; Sukčiavimo aptikimas ir įvertinimas atliekant mokėjimo operacijas; Išmaniosios sutarčių platformos sutelktinio finansavimo srityje; Maršruto optimizavimas mobilumo srityje; Diagnostinė pagalba sveikatos priežiūros srityje; ir individualizuota laisvalaikio ir gyvenimo būdo paslaugų patirtis. Kaip tarptautiniu mastu veikianti įmonių grupė – atstovaujama SCANDIC ASSETS FZCO ir SCANDIC TRUST GROUP LLC bendradarbiaudamas su Legier Beteiligungs mbH – esame įsipareigoję dirbtinį intelektą naudoti atsakingai, skaidriai ir laikydamiesi pagrindinių teisių. Šiame DI etikos pareiškime suformuluotos pagrindinės vertybės, procesai ir kontrolės mechanizmai, skirti dirbtinio intelekto kūrimui, įsigijimui, veikimui ir naudojimui SCANDIC GROUP. Jis grindžiamas mūsų esamomis atitikties, įmonių valdymo, duomenų apsaugos, tiekimo grandinės ir žmogaus teisių politikos gairėmis ir yra privalomos gairės visoms verslo sritims.
Vadovaujamės geriausia tarptautine patikimo AI praktika. Mūsų sistemos turėtų tarnauti žmonėms, gerbti jų teises ir stiprinti visuomenę. Septyni pagrindiniai principai yra pagrindiniai:
Visiems AI projektams taikomos aiškios valdymo struktūros. Grupės AI komitetas užtikrina strateginę kontrolę ir nustato standartus. Projekto komandos turi atlikti rizikos vertinimą, parengti dokumentus ir gauti patvirtinimus. Duomenų apsaugos pareigūnas ir atitikties komanda dalyvauja ankstyvame etape. Galioja keturių akių principas; Kritinius sprendimus peržiūri tarpdisciplininės komandos.
Mes laikomės ES AI įstatymo, Bendrojo duomenų apsaugos reglamento, konkrečios pramonės šakos reglamentų (pvz., medicinos prietaisų ir aviacijos įstatymų) ir šalių, kuriose veikiame, nacionalinių įstatymų. DI programos klasifikuojamos pagal riziką (maža, didelė, nepriimtina) ir pateikiami atitinkami atitikties reikalavimai. Didelės rizikos procedūroms atliekami rizikos ir poveikio vertinimai, kokybės valdymas ir išoriniai auditai. Taip pat atkreipiame dėmesį į tarptautinius kodeksus, tokius kaip EBPO ir UNESCO rekomendacijos dėl dirbtinio intelekto etikos.
AI pagrįstas duomenimis. Mes renkame tik tuos duomenis, kurie yra būtini numatytam tikslui ir, kai tik įmanoma, anonimizuojame arba pseudonimizuojame. Mokymo, patvirtinimo ir testavimo duomenų rinkiniai tikrinami dėl kokybės, reprezentatyvumo ir šališkumo. Dokumentuojame duomenų šaltinius, nuosavybės teises ir licencijos sąlygas. Asmens duomenys tvarkomi pagal BDAR, įskaitant ištrynimo koncepcijas ir prieigos kontrolę.
Kai techniškai įmanoma ir teisiškai reikalaujama, užtikriname skaidrius modelius ir paaiškinamus rezultatus. Vartotojams teikiame informaciją apie tai, ar ir kaip naudojamas AI. Kritinėms programoms (pvz., skolinimui, medicinai) sukuriami suprantami sprendimo logikos paaiškinimai. Dokumentuose pateikiama informacija apie duomenis, modelius, parametrus, bandymus ir taikymo ribas.
Mes nustatome ir mažiname sistemingus šališkumus taikydami tokias priemones kaip: įvairūs duomenų rinkiniai, algoritmų auditai, sąžiningumo principu grindžiamas modeliavimas ir nuolatinis poveikio matavimas. Skatiname prieinamumą siūlydami skirtingoms vartotojų grupėms (kalbai, kultūrai, gebėjimams) tinkamą dizainą. Diskriminuojantis ar žalingas turinys bus pašalintas.
Sprendimai, turintys didelę įtaką asmenims (pvz., finansų, sveikatos priežiūros, personalo atrankos srityse), neturi būti priimami vien tik DI. Kiekviename kritiniame procese įtvirtiname žmogaus kontrolę: darbuotojai gali taisyti įrašus, nepaisyti sprendimų ir išjungti sistemas. Mokome darbuotojus saugiai naudotis dirbtinio intelekto sistemomis ir jas suprasti.
Mūsų AI sistemos yra apsaugotos nuo atakų ir manipuliavimo. Priemonės apima saugų programavimą, reguliarų testavimą, stebėjimą, prieigos kontrolę ir reagavimo į incidentus planus. Modeliai tikrinami dėl priešiško elgesio. Gedimų ar gedimų atveju, siekiant sumažinti žalą, įgyvendinami avariniai procesai. Dokumentuojame žinomus pažeidžiamumus ir pateikiame pataisas.
SCANDIC GROUP DI projektai yra skirti teigiamai prisidėti prie klimato ir visuomenės. Mokydamiesi ir eksploatuodami modelius atkreipiame dėmesį į energijos suvartojimą ir remiamės efektyviais algoritmais bei atsinaujinančiais energijos šaltiniais. Vertiname galimą poveikį užimtumui, švietimui ir socialinėms struktūroms bei skatiname atsakingas inovacijas, kurios įgalina integracinį augimą.
AI sistemos yra stebimos per visą jų gyvavimo ciklą. Matuojame veiklos rezultatus, sąžiningumą, saugumą ir etikos reikalavimų laikymąsi. Dėl nukrypimų ar nepageidaujamų poveikių reikia koreguoti arba išjungti. Audito išvados, incidentai ir vartotojų atsiliepimai įtraukiami į tolesnę plėtrą. AI etikos pareiškimas yra reguliariai peržiūrimas ir pritaikomas prie naujų technologijų, teisinių reikalavimų ir socialinių lūkesčių.