
SCANDIC GROUP përdor inteligjencën artificiale (AI) dhe sistemet algoritmike pothuajse në të gjitha fushat e biznesit: sistemet e rekomandimeve editoriale dhe përkthimi i automatizuar në media; Tregtimi me frekuencë të lartë dhe algoritmik në tregtimin financiar; Zbulimi dhe vlerësimi i mashtrimit në transaksionet e pagesave; Platformat e kontratave inteligjente në crowdfunding; Optimizimi i rrugës në lëvizshmëri; mbështetje diagnostike në kujdesin shëndetësor; dhe përvoja të personalizuara në shërbimet e kohës së lirë dhe të stilit të jetesës. Si një grup kompanish që operojnë ndërkombëtarisht - e përfaqësuar nga ASETET SKANDIK FZCO dhe SCANDIC TRUST GROUP LLC në bashkëpunim me Legier Beteiligungs mbH – Ne jemi të përkushtuar të përdorim AI me përgjegjësi, transparente dhe në përputhje me të drejtat themelore. Kjo deklaratë etike e AI formulon vlerat thelbësore, proceset dhe mekanizmat e kontrollit për zhvillimin, prokurimin, funksionimin dhe përdorimin e AI në GRUPI SCANDIC. Ai bazohet në udhëzimet tona ekzistuese për pajtueshmërinë, qeverisjen e korporatës, mbrojtjen e të dhënave, zinxhirin e furnizimit dhe politikën e të drejtave të njeriut dhe përfaqëson një udhëzues detyrues për të gjitha fushat e biznesit.
Ne udhëhiqemi nga praktikat më të mira ndërkombëtare për AI të besueshme. Sistemet tona duhet t'u shërbejnë njerëzve, të respektojnë të drejtat e tyre dhe të forcojnë shoqërinë. Shtatë parimet bazë janë qendrore:
Struktura të qarta qeverisëse zbatohen për të gjitha projektet e AI. Një komitet i AI në të gjithë grupin siguron kontrollin strategjik dhe vendos standarde. Ekipet e projektit duhet të kryejnë vlerësime të rrezikut, të krijojnë dokumentacion dhe të marrin miratimet. Zyrtari për mbrojtjen e të dhënave dhe ekipi i pajtueshmërisë janë të përfshirë në një fazë të hershme. Zbatohet parimi i katër syve; Vendimet kritike shqyrtohen nga ekipe ndërdisiplinore.
Ne jemi në përputhje me Aktin e BE-së për AI, Rregulloren e Përgjithshme për Mbrojtjen e të Dhënave, rregulloret specifike të industrisë (p.sh. ligjin e pajisjeve mjekësore dhe të aviacionit) dhe ligjet kombëtare të vendeve në të cilat operojmë. Aplikacionet e AI klasifikohen sipas rrezikut (i ulët, i lartë, i papranueshëm) dhe duke pasur parasysh kërkesat përkatëse të pajtueshmërisë. Vlerësimet e rrezikut dhe ndikimit, menaxhimi i cilësisë dhe auditimet e jashtme kryhen për procedurat me rrezik të lartë. Ne gjithashtu i kushtojmë vëmendje kodeve ndërkombëtare si rekomandimet e OECD dhe UNESCO për etikën e AI.
AI bazohet në të dhëna. Ne mbledhim vetëm të dhëna që janë të nevojshme për qëllimin e synuar dhe i anonimizojmë ose pseudonimizojmë sa herë që është e mundur. Trajnimi, vlefshmëria dhe grupet e të dhënave të testimit kontrollohen për cilësi, përfaqësim dhe paragjykim. Ne dokumentojmë burimet e të dhënave, të drejtat e pronësisë dhe kushtet e licencës. Të dhënat personale përpunohen në përputhje me GDPR, duke përfshirë konceptet e fshirjes dhe kontrollet e aksesit.
Aty ku teknikisht është e mundur dhe kërkohet ligjërisht, ne sigurojmë modele transparente dhe rezultate të shpjegueshme. Ne u ofrojmë përdoruesve informacion nëse dhe si përdoret AI. Për aplikime kritike (p.sh. huadhënie, mjekësi) krijohen shpjegime të kuptueshme të logjikës së vendimit. Dokumentacioni përmban informacion mbi të dhënat, modelet, parametrat, testet dhe kufijtë e aplikimit.
Ne identifikojmë dhe reduktojmë paragjykimet sistematike përmes masave të tilla si: grupe të ndryshme të dhënash, auditime algoritmesh, modelim të vetëdijshëm për drejtësinë dhe matje të vazhdueshme të ndikimit. Ne promovojmë aksesueshmërinë duke ofruar dizajne të përshtatshme për grupe të ndryshme përdoruesish (gjuhë, kulturë, aftësi). Përmbajtja diskriminuese ose e dëmshme do të hiqet.
Vendimet që kanë një ndikim të rëndësishëm tek individët (p.sh. në fushat e financave, kujdesit shëndetësor, përzgjedhjes së personelit) nuk duhet të merren ekskluzivisht nga AI. Ne ankorojmë kontrollin njerëzor në çdo proces kritik: punonjësit mund të korrigjojnë hyrjet, të anashkalojnë vendimet dhe të fikin sistemet. Ne trajnojmë punonjësit për përdorimin e sigurt dhe kuptimin e sistemeve të AI.
Sistemet tona të AI janë të mbrojtura nga sulmet dhe manipulimet. Masat përfshijnë programimin e sigurt, testimin e rregullt, monitorimin, kontrollet e aksesit dhe planet e reagimit ndaj incidenteve. Modelet testohen për sjellje kundërshtare. Në rast të dështimeve ose keqfunksionimeve, proceset e emergjencës zbatohen për të kufizuar dëmtimin. Ne dokumentojmë dobësitë e njohura dhe ofrojmë arna.
Projektet e AI nga SCANDIC GROUP synojnë të japin një kontribut pozitiv për klimën dhe shoqërinë. Ne i kushtojmë vëmendje konsumit të energjisë gjatë trajnimit dhe përdorimit të modeleve dhe mbështetemi në algoritme efikase dhe burime të rinovueshme të energjisë. Ne vlerësojmë ndikimet e mundshme në punësim, arsim dhe struktura sociale dhe promovojmë inovacion të përgjegjshëm që mundëson rritje gjithëpërfshirëse.
Sistemet e AI monitorohen gjatë gjithë ciklit të tyre jetësor. Ne matim performancën, drejtësinë, sigurinë dhe pajtueshmërinë me kërkesat etike. Devijimet ose efektet e padëshiruara çojnë në rregullime ose mbyllje. Gjetjet nga auditimet, incidentet dhe reagimet nga përdoruesit janë përfshirë në zhvillimin e mëtejshëm. Deklarata e etikës së AI rishikohet rregullisht dhe përshtatet me teknologjitë e reja, kërkesat ligjore dhe pritshmëritë sociale.