Oświadczenie dotyczące etyki AI firmy SCANDIC GROUP

Wprowadzenie & Cel

GRUPA SCANDIC wykorzystuje sztuczną inteligencję (AI) i systemy algorytmiczne w niemal wszystkich obszarach biznesowych: systemy rekomendacji redakcyjnych i automatyczne tłumaczenia w mediach; Handel wysokiej częstotliwości i algorytmiczny w obrocie finansowym; Wykrywanie oszustw i scoring w transakcjach płatniczych; Inteligentne platformy kontraktowe w crowdfundingu; Optymalizacja tras w mobilności; wsparcie diagnostyczne w służbie zdrowia; oraz spersonalizowane doświadczenia w zakresie usług związanych z rekreacją i stylem życia. Jako działająca na arenie międzynarodowej grupa firm - reprezentowana przez SCANDIC ASSETS FZCO i SCANDIC TRUST GROUP LLC we współpracy z Legier Beteiligungs mbH – zobowiązujemy się do korzystania ze sztucznej inteligencji w sposób odpowiedzialny, przejrzysty i zgodny z prawami podstawowymi. Niniejsze oświadczenie dotyczące etyki AI formułuje podstawowe wartości, procesy i mechanizmy kontrolne dotyczące rozwoju, zaopatrzenia, działania i wykorzystania sztucznej inteligencji w GRUPIE SCANDIC. Opiera się na naszych istniejących wytycznych dotyczących zgodności, ładu korporacyjnego, ochrony danych, łańcucha dostaw i polityki dotyczącej praw człowieka i stanowi wiążące wytyczne dla wszystkich obszarów biznesowych.

Przegląd biblioteki

1. Podstawowe wartości i Zasady przewodnie

Kierujemy się międzynarodowymi najlepszymi praktykami w zakresie godnej zaufania sztucznej inteligencji. Nasze systemy powinny służyć ludziom, szanować ich prawa i wzmacniać społeczeństwo. Siedem podstawowych zasad ma kluczowe znaczenie:

  • Ludzka sprawczość i nadzór: Ostateczne decyzje podejmują ludzie; Sztuczna inteligencja wspiera, ale nie zastępuje ludzkiej odpowiedzialności.

  • Solidność techniczna i bezpieczeństwo: Systemy muszą być niezawodne, odporne i odporne na awarie. Mechanizmy bezpieczeństwa, takie jak rozwiązania w zakresie kopii zapasowych, redundancja i protokoły awaryjne, są obowiązkowe.

  • Prywatność i suwerenność danych: Zbieranie i przetwarzanie danych odbywa się z zachowaniem zasad minimalizacji danych, celowości i integralności.

  • Przezroczystość: Decyzje i procesy są dokumentowane w zrozumiały sposób. Użytkownicy powinni wiedzieć, kiedy wchodzą w interakcję z sztuczną inteligencją.

  • Różnorodność, niedyskryminacja i sprawiedliwość: Modele są sprawdzane pod kątem stronniczości i projektowane tak, aby sprawiedliwie traktować wszystkie populacje.

  • Dobrostan społeczny i środowiskowy: Zastosowania AI muszą przyczyniać się do zrównoważonego wzrostu, postępu społecznego i ochrony środowiska.

  • Odpowiedzialność: Określono obowiązki za cały cykl życia sztucznej inteligencji; Naruszenia są karane, a ustalenia uwzględniane w udoskonaleniach.

2. Zarządzanie i Obowiązki

Jasne struktury zarządzania mają zastosowanie do wszystkich projektów AI. Obejmujący całą grupę komitet ds. sztucznej inteligencji zapewnia kontrolę strategiczną i wyznacza standardy. Zespoły projektowe muszą przeprowadzić ocenę ryzyka, stworzyć dokumentację i uzyskać zgody. Inspektor ochrony danych i zespół ds. zgodności są zaangażowani na wczesnym etapie. Obowiązuje zasada czterech oczu; Krytyczne decyzje są weryfikowane przez zespoły interdyscyplinarne.

3. Informacje prawne Ramy regulacyjne

Przestrzegamy unijnej ustawy o sztucznej inteligencji, ogólnego rozporządzenia o ochronie danych, przepisów branżowych (np. prawa dotyczącego wyrobów medycznych i lotnictwa) oraz przepisów krajowych krajów, w których działamy. Aplikacje AI są klasyfikowane według ryzyka (niskie, wysokie, niedopuszczalne) i uwzględniając odpowiednie wymogi zgodności. W przypadku procedur wysokiego ryzyka przeprowadzane są oceny ryzyka i skutków, zarządzanie jakością oraz audyty zewnętrzne. Zwracamy także uwagę na kodeksy międzynarodowe, takie jak zalecenia OECD i UNESCO dotyczące etyki AI.

4. Etyka danych Ochrona danych

AI opiera się na danych. Gromadzimy wyłącznie dane niezbędne do zamierzonego celu i, jeśli to możliwe, anonimizujemy je lub pseudonimizujemy. Zbiory danych szkoleniowych, walidacyjnych i testowych sprawdzane są pod kątem jakości, reprezentatywności i stronniczości. Dokumentujemy źródła danych, prawa własności i warunki licencji. Dane osobowe są przetwarzane zgodnie z RODO, łącznie z koncepcjami usuwania i kontrolą dostępu.

5. Przejrzystość i Wyjaśnialność

Tam, gdzie jest to technicznie możliwe i wymagane prawnie, zapewniamy przejrzyste modele i zrozumiałe wyniki. Udostępniamy użytkownikom informacje o tym, czy i w jaki sposób wykorzystywana jest sztuczna inteligencja. Dla zastosowań krytycznych (np. kredyty, medycyna) generowane są zrozumiałe wyjaśnienia logiki decyzyjnej. Dokumentacja zawiera informacje o danych, modelach, parametrach, testach i granicach zastosowań.

6. Uczciwość, stronniczość i amp; Włączenie

Identyfikujemy i ograniczamy systematyczne błędy systematyczne za pomocą takich środków, jak: różnorodne zbiory danych, audyty algorytmów, modelowanie świadome uczciwości i ciągły pomiar wpływu. Promujemy dostępność, oferując projekty odpowiednie dla różnych grup użytkowników (język, kultura, umiejętności). Treści dyskryminujące lub szkodliwe zostaną usunięte.

7. Nadzór ludzki i Odpowiedzialność

Decyzje mające istotny wpływ na jednostki (np. w obszarach finansów, opieki zdrowotnej, doboru personelu) nie mogą być podejmowane wyłącznie przez sztuczną inteligencję. W każdym krytycznym procesie zakotwiczamy kontrolę ludzką: pracownicy mogą poprawiać wpisy, zmieniać decyzje i wyłączać systemy. Szkolimy pracowników w zakresie bezpiecznego użytkowania i zrozumienia systemów AI.

8. Wytrzymałość i amp; Bezpieczeństwo

Nasze systemy AI są chronione przed atakami i manipulacją. Środki obejmują bezpieczne programowanie, regularne testowanie, monitorowanie, kontrolę dostępu i plany reagowania na incydenty. Modele są testowane pod kątem zachowań kontradyktoryjnych. W przypadku awarii lub awarii wdrażane są procesy awaryjne mające na celu ograniczenie szkód. Dokumentujemy znane luki i dostarczamy łatki.

9. Zrównoważony rozwój wpływ społeczny

Projekty AI SCANDIC GROUP mają na celu pozytywny wkład w klimat i społeczeństwo. Podczas szkolenia i obsługi modeli zwracamy uwagę na zużycie energii, stawiając na wydajne algorytmy i odnawialne źródła energii. Oceniamy potencjalny wpływ na zatrudnienie, edukację i struktury społeczne oraz promujemy odpowiedzialne innowacje, które umożliwiają rozwój włączający.

10. Monitorowanie i wzmacnianie ciągłe doskonalenie

Systemy AI są monitorowane przez cały cykl ich życia. Mierzymy wydajność, uczciwość, bezpieczeństwo i zgodność z wymogami etycznymi. Odchylenia lub niepożądane skutki prowadzą do regulacji lub wyłączenia. Ustalenia z audytów, incydenty i opinie użytkowników są uwzględniane w dalszym rozwoju. Oświadczenie o etyce AI jest regularnie przeglądane i dostosowywane do nowych technologii, wymogów prawnych i oczekiwań społecznych.