A SCANDIC GROUP AI etikai nyilatkozata

Bevezetés & Célkitűzés

A SCANDIC GROUP szinte minden üzleti területen mesterséges intelligenciát (AI) és algoritmikus rendszereket használ: szerkesztői ajánlórendszereket és automatizált fordítást a médiában; Nagyfrekvenciás és algoritmikus kereskedés a pénzügyi kereskedésben; Csalás felderítése és pontozása fizetési tranzakciókban; Intelligens szerződéses platformok a közösségi finanszírozásban; Útvonaloptimalizálás a mobilitásban; diagnosztikai támogatás az egészségügyben; valamint személyre szabott élmények a szabadidős és életmód szolgáltatások terén. Nemzetközileg működő cégcsoportként - képviseli a SCANDIC ASSETS FZCO és a SCANDIC TRUST GROUP LLC együttműködve a Legier Beteiligungs mbH – elkötelezettek vagyunk a mesterséges intelligencia felelős, átlátható és az alapvető jogokkal összhangban történő használata mellett. Ez a mesterséges intelligencia etikai nyilatkozat alapvető értékeket, folyamatokat és ellenőrzési mechanizmusokat fogalmaz meg a SCANDIC GROUP MI fejlesztéséhez, beszerzéséhez, működtetéséhez és használatához. A megfelelőségre, a vállalatirányításra, az adatvédelemre, az ellátási láncra és az emberi jogokra vonatkozó irányelveinkre épít, és kötelező érvényű iránymutatást jelent minden üzleti terület számára.

Áttekintő könyvtár

1. Alapvető értékek & Irányadó elvek

A megbízható mesterséges intelligencia nemzetközi bevált gyakorlatai vezérelnek bennünket. Rendszereinknek az embereket kell szolgálniuk, tiszteletben kell tartaniuk jogaikat és erősíteniük kell a társadalmat. Hét alapelv a központi:

  • Emberi ügynökség és felügyelet: Az emberek hozzák meg a végső döntéseket; Az AI támogatja, de nem helyettesíti az emberi felelősséget.

  • Műszaki robusztusság és biztonság: A rendszereknek megbízhatónak, rugalmasnak és hibatűrőnek kell lenniük. A biztonsági mechanizmusok, például a biztonsági mentési megoldások, a redundanciák és a vészhelyzeti protokollok kötelezőek.

  • Adatvédelem és adatszuverenitás: Az adatgyűjtés és -feldolgozás az adatminimalizálás, a célhoz kötöttség és az integritás elve szerint történik.

  • Átláthatóság: A döntéseket és folyamatokat közérthető módon dokumentálják. A felhasználóknak tudniuk kell, hogy mikor lépnek kapcsolatba az AI-val.

  • Sokszínűség, megkülönböztetésmentesség és méltányosság: A modelleket ellenőrzik torzítás szempontjából, és úgy tervezték, hogy minden populációt tisztességesen kezeljenek.

  • Társadalmi és környezeti jólét: Az AI-alkalmazásoknak hozzá kell járulniuk a fenntartható növekedéshez, a társadalmi fejlődéshez és a környezetvédelemhez.

  • Elszámoltathatóság: A teljes mesterséges intelligencia-életciklusra vonatkozóan meghatározzák a felelősségeket; A szabálysértéseket büntetik, és a megállapításokat beépítik a fejlesztésekbe.

2. Irányítás és amp; Felelősségek

Világos irányítási struktúrák vonatkoznak minden AI-projektre. A csoportszintű AI-bizottság biztosítja a stratégiai irányítást és szabványokat állít fel. A projektcsapatoknak kockázatértékelést kell végezniük, dokumentációt kell készíteniük és jóváhagyásokat kell szerezniük. Az adatvédelmi tisztviselő és a megfelelőségi csoport már korai szakaszban bevonásra kerül. A négy szem elve érvényesül; A kritikus döntéseket interdiszciplináris csoportok vizsgálják felül.

3. Jogi és amp; Szabályozási keret

Betartjuk az EU AI-törvényét, az általános adatvédelmi rendeletet, az iparág-specifikus szabályozásokat (pl. az orvostechnikai eszközökre és a légi közlekedésre vonatkozó jogszabályokat), valamint azon országok nemzeti törvényeit, ahol tevékenykedünk. Az AI-alkalmazásokat kockázat szerint osztályozzák (alacsony, magas, elfogadhatatlan), és figyelembe veszik a megfelelő megfelelőségi követelményeket. A magas kockázatú eljárásoknál kockázat- és hatásvizsgálatokat, minőségirányítást és külső auditokat végeznek. Figyelmet fordítunk a nemzetközi kódexekre is, mint például az OECD és az UNESCO AI etikára vonatkozó ajánlásaira.

4. Adatetika & Adatvédelem

Az AI adatokon alapul. Csak azokat az adatokat gyűjtjük, amelyek a tervezett célhoz szükségesek, és lehetőség szerint anonimizáljuk vagy álnevesítjük azokat. A képzési, érvényesítési és tesztadatkészletek minőségét, reprezentativitását és torzítását ellenőrizzük. Dokumentáljuk az adatforrásokat, a tulajdonosi jogokat és a licencfeltételeket. A személyes adatok kezelése a GDPR-nak megfelelően történik, beleértve a törlési elveket és a hozzáférés-szabályozást.

5. Átlátszóság & Magyarázatosság

Ahol technikailag lehetséges és jogilag szükséges, átlátható modelleket és magyarázható eredményeket biztosítunk. Információt nyújtunk a felhasználóknak arról, hogy használják-e és hogyan használják az AI-t. A kritikus alkalmazásokhoz (pl. hitelezés, orvostudomány) a döntési logikára érthető magyarázatok készülnek. A dokumentáció adatokat, modelleket, paramétereket, teszteket és alkalmazási határokat tartalmaz.

6. Méltányosság, elfogultság & Befoglalás

A szisztematikus torzításokat olyan intézkedésekkel azonosítjuk és csökkentjük, mint például: változatos adatkészletek, algoritmus-audit, méltányosság-tudatos modellezés és folyamatos hatásmérés. Az akadálymentesítést a különböző felhasználói csoportoknak (nyelv, kultúra, képességek) megfelelő kialakítások kínálásával segítjük elő. A diszkriminatív vagy káros tartalmat eltávolítjuk.

7. Emberi felügyelet és amp; Felelősség

Az egyénekre jelentős hatást gyakorló döntéseket (például a pénzügyek, az egészségügy, a személyzet kiválasztása terén) nem szabad kizárólag a mesterséges intelligencia meghoznia. Az emberi irányítást minden kritikus folyamatban rögzítjük: az alkalmazottak javíthatják a bejegyzéseket, felülbírálhatják a döntéseket és kikapcsolhatják a rendszereket. Képezzük alkalmazottainkat az AI-rendszerek biztonságos használatára és megértésére.

8. Robusztusság & Biztonság

AI rendszereink védettek a támadások és manipulációk ellen. Az intézkedések magukban foglalják a biztonságos programozást, a rendszeres tesztelést, a felügyeletet, a hozzáférés-ellenőrzést és az incidens-elhárítási terveket. A modellek ellentmondásos viselkedését tesztelik. Meghibásodások vagy meghibásodások esetén vészhelyzeti eljárásokat hajtanak végre a károk korlátozása érdekében. Dokumentáljuk az ismert sebezhetőségeket, és javításokat biztosítunk.

9. Fenntarthatóság & társadalmi hatás

A SCANDIC GROUP mesterséges intelligencia projektjei célja, hogy pozitívan járuljanak hozzá az éghajlathoz és a társadalomhoz. A modellek képzése és üzemeltetése során ügyelünk az energiafelhasználásra, hatékony algoritmusokra és megújuló energiaforrásokra támaszkodunk. Felmérjük a foglalkoztatásra, az oktatásra és a társadalmi struktúrákra gyakorolt ​​lehetséges hatásokat, és támogatjuk a felelős innovációt, amely lehetővé teszi az inkluzív növekedést.

10. Monitoring & folyamatos javulás

Az AI-rendszereket a teljes életciklusuk során felügyelik. Mérjük a teljesítményt, a méltányosságot, a biztonságot és az etikai követelmények betartását. Az eltérések vagy nemkívánatos hatások beállításhoz vagy leállításhoz vezetnek. Az auditok megállapításai, az incidensek és a felhasználók visszajelzései beépülnek a további fejlesztésbe. A mesterséges intelligencia etikai nyilatkozatát rendszeresen felülvizsgálják és hozzáigazítják az új technológiákhoz, a jogi követelményekhez és a társadalmi elvárásokhoz.