
GRUPA SCANDIC wykorzystuje sztuczną inteligencję (AI) i systemy algorytmiczne w niemal wszystkich obszarach biznesowych: systemy rekomendacji redakcyjnych i automatyczne tłumaczenia w mediach; Handel wysokiej częstotliwości i algorytmiczny w obrocie finansowym; Wykrywanie oszustw i scoring w transakcjach płatniczych; Inteligentne platformy kontraktowe w crowdfundingu; Optymalizacja tras w mobilności; wsparcie diagnostyczne w służbie zdrowia; oraz spersonalizowane doświadczenia w zakresie usług związanych z rekreacją i stylem życia. Jako działająca na arenie międzynarodowej grupa firm - reprezentowana przez SCANDIC ASSETS FZCO i SCANDIC TRUST GROUP LLC we współpracy z Legier Beteiligungs mbH – zobowiązujemy się do korzystania ze sztucznej inteligencji w sposób odpowiedzialny, przejrzysty i zgodny z prawami podstawowymi. Niniejsze oświadczenie dotyczące etyki AI formułuje podstawowe wartości, procesy i mechanizmy kontrolne dotyczące rozwoju, zaopatrzenia, działania i wykorzystania sztucznej inteligencji w GRUPIE SCANDIC. Opiera się na naszych istniejących wytycznych dotyczących zgodności, ładu korporacyjnego, ochrony danych, łańcucha dostaw i polityki dotyczącej praw człowieka i stanowi wiążące wytyczne dla wszystkich obszarów biznesowych.
Kierujemy się międzynarodowymi najlepszymi praktykami w zakresie godnej zaufania sztucznej inteligencji. Nasze systemy powinny służyć ludziom, szanować ich prawa i wzmacniać społeczeństwo. Siedem podstawowych zasad ma kluczowe znaczenie:
Jasne struktury zarządzania mają zastosowanie do wszystkich projektów AI. Obejmujący całą grupę komitet ds. sztucznej inteligencji zapewnia kontrolę strategiczną i wyznacza standardy. Zespoły projektowe muszą przeprowadzić ocenę ryzyka, stworzyć dokumentację i uzyskać zgody. Inspektor ochrony danych i zespół ds. zgodności są zaangażowani na wczesnym etapie. Obowiązuje zasada czterech oczu; Krytyczne decyzje są weryfikowane przez zespoły interdyscyplinarne.
Przestrzegamy unijnej ustawy o sztucznej inteligencji, ogólnego rozporządzenia o ochronie danych, przepisów branżowych (np. prawa dotyczącego wyrobów medycznych i lotnictwa) oraz przepisów krajowych krajów, w których działamy. Aplikacje AI są klasyfikowane według ryzyka (niskie, wysokie, niedopuszczalne) i uwzględniając odpowiednie wymogi zgodności. W przypadku procedur wysokiego ryzyka przeprowadzane są oceny ryzyka i skutków, zarządzanie jakością oraz audyty zewnętrzne. Zwracamy także uwagę na kodeksy międzynarodowe, takie jak zalecenia OECD i UNESCO dotyczące etyki AI.
AI opiera się na danych. Gromadzimy wyłącznie dane niezbędne do zamierzonego celu i, jeśli to możliwe, anonimizujemy je lub pseudonimizujemy. Zbiory danych szkoleniowych, walidacyjnych i testowych sprawdzane są pod kątem jakości, reprezentatywności i stronniczości. Dokumentujemy źródła danych, prawa własności i warunki licencji. Dane osobowe są przetwarzane zgodnie z RODO, łącznie z koncepcjami usuwania i kontrolą dostępu.
Tam, gdzie jest to technicznie możliwe i wymagane prawnie, zapewniamy przejrzyste modele i zrozumiałe wyniki. Udostępniamy użytkownikom informacje o tym, czy i w jaki sposób wykorzystywana jest sztuczna inteligencja. Dla zastosowań krytycznych (np. kredyty, medycyna) generowane są zrozumiałe wyjaśnienia logiki decyzyjnej. Dokumentacja zawiera informacje o danych, modelach, parametrach, testach i granicach zastosowań.
Identyfikujemy i ograniczamy systematyczne błędy systematyczne za pomocą takich środków, jak: różnorodne zbiory danych, audyty algorytmów, modelowanie świadome uczciwości i ciągły pomiar wpływu. Promujemy dostępność, oferując projekty odpowiednie dla różnych grup użytkowników (język, kultura, umiejętności). Treści dyskryminujące lub szkodliwe zostaną usunięte.
Decyzje mające istotny wpływ na jednostki (np. w obszarach finansów, opieki zdrowotnej, doboru personelu) nie mogą być podejmowane wyłącznie przez sztuczną inteligencję. W każdym krytycznym procesie zakotwiczamy kontrolę ludzką: pracownicy mogą poprawiać wpisy, zmieniać decyzje i wyłączać systemy. Szkolimy pracowników w zakresie bezpiecznego użytkowania i zrozumienia systemów AI.
Nasze systemy AI są chronione przed atakami i manipulacją. Środki obejmują bezpieczne programowanie, regularne testowanie, monitorowanie, kontrolę dostępu i plany reagowania na incydenty. Modele są testowane pod kątem zachowań kontradyktoryjnych. W przypadku awarii lub awarii wdrażane są procesy awaryjne mające na celu ograniczenie szkód. Dokumentujemy znane luki i dostarczamy łatki.
Projekty AI SCANDIC GROUP mają na celu pozytywny wkład w klimat i społeczeństwo. Podczas szkolenia i obsługi modeli zwracamy uwagę na zużycie energii, stawiając na wydajne algorytmy i odnawialne źródła energii. Oceniamy potencjalny wpływ na zatrudnienie, edukację i struktury społeczne oraz promujemy odpowiedzialne innowacje, które umożliwiają rozwój włączający.
Systemy AI są monitorowane przez cały cykl ich życia. Mierzymy wydajność, uczciwość, bezpieczeństwo i zgodność z wymogami etycznymi. Odchylenia lub niepożądane skutki prowadzą do regulacji lub wyłączenia. Ustalenia z audytów, incydenty i opinie użytkowników są uwzględniane w dalszym rozwoju. Oświadczenie o etyce AI jest regularnie przeglądane i dostosowywane do nowych technologii, wymogów prawnych i oczekiwań społecznych.