
SCANDIC GROUP kasutab tehisintellekti (AI) ja algoritmisüsteeme peaaegu kõigis ärivaldkondades: toimetuse soovitussüsteemid ja automaattõlge meedias; Kõrgsageduslik ja algoritmiline kauplemine finantskaubanduses; Pettuste avastamine ja hindamine maksetehingutes; Nutikad lepinguplatvormid ühisrahastuses; Marsruudi optimeerimine mobiilsuses; diagnostiline tugi tervishoius; ning isikupärastatud kogemused vaba aja veetmise ja elustiili teenustes. Rahvusvaheliselt tegutseva ettevõtete grupina, mida esindab SCANDIC ASETS FZCO ja SCANDIC TRUST GROUP LLC koostöös Legier Beteiligungs mbH – oleme pühendunud tehisintellekti kasutamisele vastutustundlikult, läbipaistvalt ja kooskõlas põhiõigustega. See tehisintellekti eetikaavaldus sõnastab põhiväärtused, protsessid ja kontrollimehhanismid tehisintellekti arendamiseks, hankimiseks, kasutamiseks ja kasutamiseks SCANDIC GROUPis. See tugineb meie kehtivatele nõuetele vastavuse, ettevõtte juhtimise, andmekaitse, tarneahela ja inimõiguste poliitika juhistele ning on siduv suunis kõigi ärivaldkondade jaoks.
Me juhindume usaldusväärse AI parimatest rahvusvahelistest tavadest. Meie süsteemid peaksid teenima inimesi, austama nende õigusi ja tugevdama ühiskonda. Kesksel kohal on seitse peamist põhimõtet:
Kõigile tehisintellektiprojektidele kehtivad selged juhtimisstruktuurid. Üle grupi hõlmav tehisintellekti komitee tagab strateegilise kontrolli ja kehtestab standardid. Projektimeeskonnad peavad läbi viima riskianalüüsi, koostama dokumentatsiooni ja hankima kooskõlastused. Andmekaitseametnik ja vastavusmeeskond on kaasatud varakult. Kehtib nelja silma põhimõte; Kriitilised otsused vaatavad läbi interdistsiplinaarsed meeskonnad.
Järgime EL-i tehisintellekti seadust, isikuandmete kaitse üldmäärust, tööstusharuspetsiifilisi määrusi (nt meditsiiniseadmeid ja lennundusseadust) ning nende riikide riiklikke seadusi, kus me tegutseme. Tehisintellekti rakendused liigitatakse riski järgi (madal, kõrge, vastuvõetamatu) ja neile esitatakse vastavad vastavusnõuded. Riski- ja mõjuhinnangud, kvaliteedijuhtimine ja välisauditid viiakse läbi kõrge riskiga protseduuride puhul. Pöörame tähelepanu ka rahvusvahelistele koodeksitele, nagu OECD ja UNESCO soovitused tehisintellekti eetika kohta.
AI põhineb andmetel. Kogume ainult ettenähtud otstarbeks vajalikke andmeid ja muudame need võimalusel anonüümseks või pseudonüümseks. Koolitus-, valideerimis- ja katseandmekogumeid kontrollitakse kvaliteedi, esinduslikkuse ja erapoolikuse suhtes. Dokumenteerime andmeallikad, omandiõigused ja litsentsitingimused. Isikuandmeid töödeldakse kooskõlas GDPR-iga, sealhulgas kustutamispõhimõtete ja juurdepääsukontrollidega.
Kui see on tehniliselt võimalik ja juriidiliselt nõutav, tagame läbipaistvad mudelid ja selgitatavad tulemused. Anname kasutajatele teavet selle kohta, kas ja kuidas tehisintellekti kasutatakse. Kriitiliste rakenduste jaoks (nt laenamine, meditsiin) koostatakse otsustusloogika arusaadavad selgitused. Dokumentatsioon sisaldab teavet andmete, mudelite, parameetrite, testide ja rakenduspiirangute kohta.
Tuvastame ja vähendame süstemaatilisi eelarvamusi selliste meetmete abil nagu: mitmesugused andmekogumid, algoritmiauditid, õiglusteadlik modelleerimine ja pidev mõju mõõtmine. Edendame ligipääsetavust, pakkudes erinevatele kasutajarühmadele (keel, kultuur, võimed) sobivaid kujundusi. Diskrimineeriv või kahjulik sisu eemaldatakse.
Otsuseid, millel on suur mõju üksikisikutele (nt rahanduse, tervishoiu, personalivaliku vallas), ei tohi teha ainult tehisintellekt. Ankurdame inimliku kontrolli igasse kriitilisse protsessi: töötajad saavad sisestusi parandada, otsuseid tühistada ja süsteeme välja lülitada. Koolitame töötajaid tehisintellektisüsteemide turvaliseks kasutamiseks ja mõistmiseks.
Meie AI-süsteemid on kaitstud rünnakute ja manipuleerimise eest. Meetmed hõlmavad turvalist programmeerimist, regulaarset testimist, jälgimist, juurdepääsukontrolli ja intsidentidele reageerimise plaane. Mudeleid testitakse võistleva käitumise suhtes. Rikete või talitlushäirete korral rakendatakse kahjustuste piiramiseks avariiprotsesse. Dokumenteerime teadaolevad haavatavused ja pakume paigad.
SCANDIC GROUPi tehisintellektiprojektide eesmärk on anda positiivne panus kliimasse ja ühiskonda. Pöörame koolitamisel ja mudelite käitamisel tähelepanu energiatarbimisele ning tugineme tõhusatele algoritmidele ja taastuvatele energiaallikatele. Hindame võimalikke mõjusid tööhõivele, haridusele ja sotsiaalsetele struktuuridele ning edendame vastutustundlikku innovatsiooni, mis võimaldab kaasavat majanduskasvu.
AI-süsteeme jälgitakse kogu nende elutsükli jooksul. Mõõdame tulemuslikkust, õiglust, turvalisust ja eetilistele nõuetele vastavust. Kõrvalekalded või soovimatud mõjud viivad reguleerimiseni või seiskamiseni. Auditite, vahejuhtumite ja kasutajate tagasiside põhjal saadud järeldused võetakse arvesse edasises arenduses. Tehisintellekti eetikaavaldus vaadatakse regulaarselt üle ja kohandatakse uute tehnoloogiate, juriidiliste nõuete ja sotsiaalsete ootustega.