
SCANDIC GROUP používá umělou inteligenci (AI) a algoritmické systémy téměř ve všech obchodních oblastech: systémy redakčního doporučení a automatizovaný překlad v médiích; Vysokofrekvenční a algoritmické obchodování ve finančním obchodování; Odhalování a hodnocení podvodů v platebních transakcích; Inteligentní smluvní platformy v crowdfundingu; Optimalizace trasy v mobilitě; diagnostická podpora ve zdravotnictví; a personalizované zkušenosti ve službách pro volný čas a životní styl. Jako mezinárodně působící skupina společností - zastoupená SCANDIC ASSETS FZCO a SCANDIC TRUST GROUP LLC ve spolupráci s Legier Beteiligungs mbH – jsme odhodláni používat umělou inteligenci zodpovědně, transparentně a v souladu se základními právy. Toto etické prohlášení AI formuluje základní hodnoty, procesy a kontrolní mechanismy pro vývoj, nákup, provoz a používání AI ve skupině SCANDIC GROUP. Staví na našich stávajících směrnicích o dodržování předpisů, podnikovém řízení, ochraně dat, dodavatelském řetězci a zásadách lidských práv a představuje závaznou směrnici pro všechny obchodní oblasti.
Řídíme se mezinárodními osvědčenými postupy pro důvěryhodnou AI. Naše systémy by měly sloužit lidem, respektovat jejich práva a posilovat společnost. Ústředních je sedm základních principů:
Jasné struktury řízení platí pro všechny projekty AI. Celoskupinový výbor AI zajišťuje strategickou kontrolu a stanovuje standardy. Projektové týmy musí provádět hodnocení rizik, vytvářet dokumentaci a získávat souhlasy. Pověřenec pro ochranu údajů a tým pro dodržování předpisů jsou zapojeni již v rané fázi. Platí zásada čtyř očí; Kritická rozhodnutí jsou přezkoumávána interdisciplinárními týmy.
Dodržujeme zákon EU o umělé inteligenci, obecné nařízení o ochraně osobních údajů, předpisy specifické pro dané odvětví (např. zákony o zdravotnických pomůckách a letectví) a národní zákony zemí, ve kterých působíme. Aplikace AI jsou klasifikovány podle rizika (nízké, vysoké, nepřijatelné) a podle odpovídajících požadavků na shodu. U vysoce rizikových postupů se provádí hodnocení rizik a dopadů, řízení kvality a externí audity. Dbáme také na mezinárodní kodexy, jako jsou doporučení OECD a UNESCO o etice umělé inteligence.
AI je založena na datech. Shromažďujeme pouze údaje, které jsou nezbytné pro zamýšlený účel, a pokud je to možné, anonymizujeme je nebo pseudonymizujeme. U souborů dat školení, ověřování a testů se kontroluje kvalita, reprezentativnost a zkreslení. Dokumentujeme zdroje dat, vlastnická práva a licenční podmínky. Osobní údaje jsou zpracovávány v souladu s GDPR, včetně konceptů výmazu a řízení přístupu.
Tam, kde je to technicky možné a zákonné to vyžaduje, zajišťujeme transparentní modely a vysvětlitelné výsledky. Poskytujeme uživatelům informace o tom, zda a jak se používá AI. Pro kritické aplikace (např. půjčky, lékařství) jsou generována srozumitelná vysvětlení rozhodovací logiky. Dokumentace obsahuje informace o datech, modelech, parametrech, testech a aplikačních limitech.
Identifikujeme a omezíme systematické zkreslení pomocí opatření, jako jsou: různé soubory dat, audity algoritmů, modelování s ohledem na spravedlnost a průběžné měření dopadu. Podporujeme dostupnost tím, že nabízíme návrhy vhodné pro různé skupiny uživatelů (jazyk, kultura, schopnosti). Diskriminační nebo škodlivý obsah bude odstraněn.
Rozhodnutí, která mají významný dopad na jednotlivce (např. v oblasti financí, zdravotnictví, výběru personálu), nesmí činit výhradně AI. Ukotvujeme lidskou kontrolu v každém kritickém procesu: zaměstnanci mohou opravovat záznamy, přepisovat rozhodnutí a vypínat systémy. Školíme zaměstnance v bezpečném používání a porozumění systémům AI.
Naše systémy AI jsou chráněny proti útokům a manipulaci. Opatření zahrnují bezpečné programování, pravidelné testování, monitorování, kontroly přístupu a plány reakce na incidenty. Modely jsou testovány na nepříznivé chování. V případě poruch nebo poruch jsou implementovány nouzové procesy, aby se omezily škody. Dokumentujeme známé zranitelnosti a poskytujeme záplaty.
Projekty AI od SCANDIC GROUP mají pozitivně přispět ke klimatu a společnosti. Při školení a provozu modelů věnujeme pozornost spotřebě energie a spoléháme na efektivní algoritmy a obnovitelné zdroje energie. Posuzujeme potenciální dopady na zaměstnanost, vzdělávání a sociální struktury a podporujeme odpovědné inovace, které umožňují inkluzivní růst.
Systémy umělé inteligence jsou monitorovány během celého životního cyklu. Měříme výkon, spravedlnost, bezpečnost a dodržování etických požadavků. Odchylky nebo nežádoucí účinky vedou k úpravám nebo odstavení. Poznatky z auditů, incidentů a zpětná vazba od uživatelů jsou zapracovány do dalšího vývoje. Etické prohlášení AI je pravidelně revidováno a přizpůsobeno novým technologiím, právním požadavkům a společenským očekáváním.