
A SCANDIC GROUP szinte minden üzleti területen mesterséges intelligenciát (AI) és algoritmikus rendszereket használ: szerkesztői ajánlórendszereket és automatizált fordítást a médiában; Nagyfrekvenciás és algoritmikus kereskedés a pénzügyi kereskedésben; Csalás felderítése és pontozása fizetési tranzakciókban; Intelligens szerződéses platformok a közösségi finanszírozásban; Útvonaloptimalizálás a mobilitásban; diagnosztikai támogatás az egészségügyben; valamint személyre szabott élmények a szabadidős és életmód szolgáltatások terén. Nemzetközileg működő cégcsoportként - képviseli a SCANDIC ASSETS FZCO és a SCANDIC TRUST GROUP LLC együttműködve a Legier Beteiligungs mbH – elkötelezettek vagyunk a mesterséges intelligencia felelős, átlátható és az alapvető jogokkal összhangban történő használata mellett. Ez a mesterséges intelligencia etikai nyilatkozat alapvető értékeket, folyamatokat és ellenőrzési mechanizmusokat fogalmaz meg a SCANDIC GROUP MI fejlesztéséhez, beszerzéséhez, működtetéséhez és használatához. A megfelelőségre, a vállalatirányításra, az adatvédelemre, az ellátási láncra és az emberi jogokra vonatkozó irányelveinkre épít, és kötelező érvényű iránymutatást jelent minden üzleti terület számára.
A megbízható mesterséges intelligencia nemzetközi bevált gyakorlatai vezérelnek bennünket. Rendszereinknek az embereket kell szolgálniuk, tiszteletben kell tartaniuk jogaikat és erősíteniük kell a társadalmat. Hét alapelv a központi:
Világos irányítási struktúrák vonatkoznak minden AI-projektre. A csoportszintű AI-bizottság biztosítja a stratégiai irányítást és szabványokat állít fel. A projektcsapatoknak kockázatértékelést kell végezniük, dokumentációt kell készíteniük és jóváhagyásokat kell szerezniük. Az adatvédelmi tisztviselő és a megfelelőségi csoport már korai szakaszban bevonásra kerül. A négy szem elve érvényesül; A kritikus döntéseket interdiszciplináris csoportok vizsgálják felül.
Betartjuk az EU AI-törvényét, az általános adatvédelmi rendeletet, az iparág-specifikus szabályozásokat (pl. az orvostechnikai eszközökre és a légi közlekedésre vonatkozó jogszabályokat), valamint azon országok nemzeti törvényeit, ahol tevékenykedünk. Az AI-alkalmazásokat kockázat szerint osztályozzák (alacsony, magas, elfogadhatatlan), és figyelembe veszik a megfelelő megfelelőségi követelményeket. A magas kockázatú eljárásoknál kockázat- és hatásvizsgálatokat, minőségirányítást és külső auditokat végeznek. Figyelmet fordítunk a nemzetközi kódexekre is, mint például az OECD és az UNESCO AI etikára vonatkozó ajánlásaira.
Az AI adatokon alapul. Csak azokat az adatokat gyűjtjük, amelyek a tervezett célhoz szükségesek, és lehetőség szerint anonimizáljuk vagy álnevesítjük azokat. A képzési, érvényesítési és tesztadatkészletek minőségét, reprezentativitását és torzítását ellenőrizzük. Dokumentáljuk az adatforrásokat, a tulajdonosi jogokat és a licencfeltételeket. A személyes adatok kezelése a GDPR-nak megfelelően történik, beleértve a törlési elveket és a hozzáférés-szabályozást.
Ahol technikailag lehetséges és jogilag szükséges, átlátható modelleket és magyarázható eredményeket biztosítunk. Információt nyújtunk a felhasználóknak arról, hogy használják-e és hogyan használják az AI-t. A kritikus alkalmazásokhoz (pl. hitelezés, orvostudomány) a döntési logikára érthető magyarázatok készülnek. A dokumentáció adatokat, modelleket, paramétereket, teszteket és alkalmazási határokat tartalmaz.
A szisztematikus torzításokat olyan intézkedésekkel azonosítjuk és csökkentjük, mint például: változatos adatkészletek, algoritmus-audit, méltányosság-tudatos modellezés és folyamatos hatásmérés. Az akadálymentesítést a különböző felhasználói csoportoknak (nyelv, kultúra, képességek) megfelelő kialakítások kínálásával segítjük elő. A diszkriminatív vagy káros tartalmat eltávolítjuk.
Az egyénekre jelentős hatást gyakorló döntéseket (például a pénzügyek, az egészségügy, a személyzet kiválasztása terén) nem szabad kizárólag a mesterséges intelligencia meghoznia. Az emberi irányítást minden kritikus folyamatban rögzítjük: az alkalmazottak javíthatják a bejegyzéseket, felülbírálhatják a döntéseket és kikapcsolhatják a rendszereket. Képezzük alkalmazottainkat az AI-rendszerek biztonságos használatára és megértésére.
AI rendszereink védettek a támadások és manipulációk ellen. Az intézkedések magukban foglalják a biztonságos programozást, a rendszeres tesztelést, a felügyeletet, a hozzáférés-ellenőrzést és az incidens-elhárítási terveket. A modellek ellentmondásos viselkedését tesztelik. Meghibásodások vagy meghibásodások esetén vészhelyzeti eljárásokat hajtanak végre a károk korlátozása érdekében. Dokumentáljuk az ismert sebezhetőségeket, és javításokat biztosítunk.
A SCANDIC GROUP mesterséges intelligencia projektjei célja, hogy pozitívan járuljanak hozzá az éghajlathoz és a társadalomhoz. A modellek képzése és üzemeltetése során ügyelünk az energiafelhasználásra, hatékony algoritmusokra és megújuló energiaforrásokra támaszkodunk. Felmérjük a foglalkoztatásra, az oktatásra és a társadalmi struktúrákra gyakorolt lehetséges hatásokat, és támogatjuk a felelős innovációt, amely lehetővé teszi az inkluzív növekedést.
Az AI-rendszereket a teljes életciklusuk során felügyelik. Mérjük a teljesítményt, a méltányosságot, a biztonságot és az etikai követelmények betartását. Az eltérések vagy nemkívánatos hatások beállításhoz vagy leállításhoz vezetnek. Az auditok megállapításai, az incidensek és a felhasználók visszajelzései beépülnek a további fejlesztésbe. A mesterséges intelligencia etikai nyilatkozatát rendszeresen felülvizsgálják és hozzáigazítják az új technológiákhoz, a jogi követelményekhez és a társadalmi elvárásokhoz.