Δήλωση Δεοντολογίας SCANDIC GROUP AI

Εισαγωγή & Σκοπός

Το SCANDIC GROUP χρησιμοποιεί τεχνητή νοημοσύνη (AI) και αλγοριθμικά συστήματα σε όλους σχεδόν τους επιχειρηματικούς τομείς: συστήματα προτάσεων σύνταξης και αυτοματοποιημένη μετάφραση στα μέσα. Υψηλής συχνότητας και αλγοριθμικές συναλλαγές σε χρηματοοικονομικές συναλλαγές. Ανίχνευση απάτης και βαθμολόγηση σε συναλλαγές πληρωμής. Πλατφόρμες έξυπνων συμβολαίων στο crowdfunding. Βελτιστοποίηση διαδρομής στην κινητικότητα. διαγνωστική υποστήριξη στην υγειονομική περίθαλψη· και εξατομικευμένες εμπειρίες σε υπηρεσίες αναψυχής και τρόπου ζωής. Ως όμιλος εταιρειών που λειτουργεί διεθνώς - εκπροσωπείται από την SCANDIC ASSETS FZCO και το SCANDIC TRUST GROUP LLC σε συνεργασία με την Legier Beteiligungs mbH – Δεσμευόμαστε να χρησιμοποιούμε την τεχνητή νοημοσύνη με υπευθυνότητα, διαφάνεια και σύμφωνα με τα θεμελιώδη δικαιώματα. Αυτή η δήλωση ηθικής τεχνητής νοημοσύνης διατυπώνει βασικές αξίες, διαδικασίες και μηχανισμούς ελέγχου για την ανάπτυξη, την προμήθεια, τη λειτουργία και τη χρήση της τεχνητής νοημοσύνης στο SCANDIC GROUP. Βασίζεται στις υπάρχουσες κατευθυντήριες γραμμές μας για τη συμμόρφωση, την εταιρική διακυβέρνηση, την προστασία δεδομένων, την αλυσίδα εφοδιασμού και την πολιτική για τα ανθρώπινα δικαιώματα και αντιπροσωπεύει μια δεσμευτική κατευθυντήρια γραμμή για όλους τους επιχειρηματικούς τομείς.

Επισκόπηση βιβλιοθήκης

1. Βασικές αξίες & Κατευθυντήριες αρχές

Καθοδηγούμαστε από διεθνείς βέλτιστες πρακτικές για αξιόπιστη τεχνητή νοημοσύνη. Τα συστήματά μας πρέπει να εξυπηρετούν τους ανθρώπους, να σέβονται τα δικαιώματά τους και να ενισχύουν την κοινωνία. Επτά βασικές αρχές είναι βασικές:

  • Ανθρώπινη υπηρεσία και εποπτεία: Οι άνθρωποι παίρνουν τις τελικές αποφάσεις. Η τεχνητή νοημοσύνη υποστηρίζει, αλλά δεν αντικαθιστά, την ανθρώπινη ευθύνη.

  • Τεχνική ευρωστία και ασφάλεια: Τα συστήματα πρέπει να είναι αξιόπιστα, ανθεκτικά και ανεκτικά σε σφάλματα. Μηχανισμοί ασφαλείας, όπως εφεδρικές λύσεις, απολύσεις και πρωτόκολλα έκτακτης ανάγκης είναι υποχρεωτικοί.

  • Απόρρητο και κυριαρχία δεδομένων: Η συλλογή και η επεξεργασία δεδομένων πραγματοποιείται σύμφωνα με τις αρχές της ελαχιστοποίησης των δεδομένων, του περιορισμού του σκοπού και της ακεραιότητας.

  • Διαφάνεια: Οι αποφάσεις και οι διαδικασίες τεκμηριώνονται με κατανοητό τρόπο. Οι χρήστες πρέπει να γνωρίζουν πότε αλληλεπιδρούν με την τεχνητή νοημοσύνη.

  • Διαφορετικότητα, μη διάκριση και δικαιοσύνη: Τα μοντέλα ελέγχονται για προκατάληψη και έχουν σχεδιαστεί για να αντιμετωπίζουν όλους τους πληθυσμούς δίκαια.

  • Κοινωνική και περιβαλλοντική ευημερία: Οι εφαρμογές τεχνητής νοημοσύνης πρέπει να συμβάλλουν στη βιώσιμη ανάπτυξη, την κοινωνική πρόοδο και την προστασία του περιβάλλοντος.

  • Ευθύνη: Καθορίζονται οι ευθύνες για ολόκληρο τον κύκλο ζωής της τεχνητής νοημοσύνης. Οι παραβάσεις τιμωρούνται και τα ευρήματα ενσωματώνονται στις βελτιώσεις.

2. Διακυβέρνηση & Ευθύνες

Σαφείς δομές διακυβέρνησης ισχύουν για όλα τα έργα τεχνητής νοημοσύνης. Μια επιτροπή τεχνητής νοημοσύνης σε όλη την ομάδα διασφαλίζει στρατηγικό έλεγχο και θέτει πρότυπα. Οι ομάδες έργου πρέπει να διεξάγουν αξιολογήσεις κινδύνου, να δημιουργούν τεκμηρίωση και να λαμβάνουν εγκρίσεις. Ο υπεύθυνος προστασίας δεδομένων και η ομάδα συμμόρφωσης συμμετέχουν σε πρώιμο στάδιο. Ισχύει η αρχή των τεσσάρων ματιών. Οι κρίσιμες αποφάσεις εξετάζονται από διεπιστημονικές ομάδες.

3. Νομική & Ρυθμιστικό πλαίσιο

Συμμορφωνόμαστε με τον νόμο της ΕΕ για την τεχνητή νοημοσύνη, τον Γενικό Κανονισμό για την Προστασία Δεδομένων, τους ειδικούς κανονισμούς του κλάδου (π.χ. νόμος περί ιατροτεχνολογικών προϊόντων και αερομεταφορών) και τους εθνικούς νόμους των χωρών στις οποίες δραστηριοποιούμαστε. Οι εφαρμογές τεχνητής νοημοσύνης ταξινομούνται ανάλογα με τον κίνδυνο (χαμηλό, υψηλό, μη αποδεκτό) και με βάση τις αντίστοιχες απαιτήσεις συμμόρφωσης. Εκτελούνται αξιολογήσεις κινδύνου και επιπτώσεων, διαχείριση ποιότητας και εξωτερικοί έλεγχοι για διαδικασίες υψηλού κινδύνου. Δίνουμε επίσης προσοχή σε διεθνείς κώδικες, όπως οι συστάσεις του ΟΟΣΑ και της UNESCO για την ηθική της τεχνητής νοημοσύνης.

4. Δεοντολογία Δεδομένων & Προστασία δεδομένων

Το AI βασίζεται σε δεδομένα. Συλλέγουμε μόνο δεδομένα που είναι απαραίτητα για τον επιδιωκόμενο σκοπό και τα ανωνυμοποιούμε ή τα ψευδωνυμοποιούμε όποτε είναι δυνατόν. Τα σύνολα δεδομένων εκπαίδευσης, επικύρωσης και δοκιμών ελέγχονται για ποιότητα, αντιπροσωπευτικότητα και μεροληψία. Τεκμηριώνουμε τις πηγές δεδομένων, τα δικαιώματα ιδιοκτησίας και τους όρους άδειας χρήσης. Τα προσωπικά δεδομένα υποβάλλονται σε επεξεργασία σύμφωνα με τον GDPR, συμπεριλαμβανομένων των εννοιών διαγραφής και των ελέγχων πρόσβασης.

5. Διαφάνεια & Επεξηγησιμότητα

Όπου είναι τεχνικά εφικτό και νομικά απαιτείται, διασφαλίζουμε διαφανή μοντέλα και εξηγήσιμα αποτελέσματα. Παρέχουμε στους χρήστες πληροφορίες σχετικά με το εάν και πώς χρησιμοποιείται η τεχνητή νοημοσύνη. Για κρίσιμες εφαρμογές (π.χ. δανεισμός, ιατρική) δημιουργούνται κατανοητές εξηγήσεις της λογικής απόφασης. Η τεκμηρίωση περιέχει πληροφορίες για δεδομένα, μοντέλα, παραμέτρους, δοκιμές και όρια εφαρμογών.

6. Δικαιοσύνη, Μεροληψία & Συμπερίληψη

Εντοπίζουμε και μειώνουμε τις συστηματικές προκαταλήψεις μέσω μέτρων όπως: διαφορετικά σύνολα δεδομένων, έλεγχοι αλγορίθμων, μοντελοποίηση με συνείδηση ​​της δικαιοσύνης και συνεχής μέτρηση επιπτώσεων. Προωθούμε την προσβασιμότητα προσφέροντας σχέδια κατάλληλα για διαφορετικές ομάδες χρηστών (γλώσσα, πολιτισμός, ικανότητες). Το μεροληπτικό ή επιβλαβές περιεχόμενο θα αφαιρεθεί.

7. Ανθρώπινη Επίβλεψη & Ευθύνη

Οι αποφάσεις που έχουν σημαντικό αντίκτυπο σε άτομα (π.χ. στους τομείς των οικονομικών, της υγειονομικής περίθαλψης, της επιλογής προσωπικού) δεν πρέπει να λαμβάνονται αποκλειστικά από AI. Βάζουμε τον ανθρώπινο έλεγχο σε κάθε κρίσιμη διαδικασία: οι εργαζόμενοι μπορούν να διορθώσουν καταχωρήσεις, να παρακάμψουν αποφάσεις και να απενεργοποιήσουν τα συστήματα. Εκπαιδεύουμε τους υπαλλήλους στην ασφαλή χρήση και κατανόηση των συστημάτων AI.

8. Ανθεκτικότητα & Ασφάλεια

Τα συστήματά μας AI προστατεύονται από επιθέσεις και χειραγώγηση. Τα μέτρα περιλαμβάνουν ασφαλή προγραμματισμό, τακτικές δοκιμές, παρακολούθηση, ελέγχους πρόσβασης και σχέδια αντιμετώπισης συμβάντων. Τα μοντέλα ελέγχονται για αντίθετη συμπεριφορά. Σε περίπτωση αστοχιών ή δυσλειτουργιών, εφαρμόζονται διαδικασίες έκτακτης ανάγκης για τον περιορισμό των ζημιών. Τεκμηριώνουμε γνωστά τρωτά σημεία και παρέχουμε ενημερώσεις κώδικα.

9. Βιωσιμότητα & κοινωνικό αντίκτυπο

Τα έργα τεχνητής νοημοσύνης από τον SCANDIC GROUP προορίζονται να συμβάλουν θετικά στο κλίμα και την κοινωνία. Δίνουμε προσοχή στην κατανάλωση ενέργειας κατά την εκπαίδευση και τη λειτουργία μοντέλων και βασιζόμαστε σε αποδοτικούς αλγόριθμους και ανανεώσιμες πηγές ενέργειας. Αξιολογούμε τις πιθανές επιπτώσεις στην απασχόληση, την εκπαίδευση και τις κοινωνικές δομές και προωθούμε την υπεύθυνη καινοτομία που επιτρέπει την ανάπτυξη χωρίς αποκλεισμούς.

10. Παρακολούθηση & συνεχής βελτίωση

Τα συστήματα AI παρακολουθούνται καθ' όλη τη διάρκεια του κύκλου ζωής τους. Μετράμε την απόδοση, τη δικαιοσύνη, την ασφάλεια και τη συμμόρφωση με ηθικές απαιτήσεις. Αποκλίσεις ή ανεπιθύμητες ενέργειες οδηγούν σε προσαρμογές ή τερματισμό λειτουργίας. Ευρήματα από ελέγχους, συμβάντα και σχόλια από χρήστες ενσωματώνονται στην περαιτέρω ανάπτυξη. Η δήλωση ηθικής τεχνητής νοημοσύνης αναθεωρείται τακτικά και προσαρμόζεται στις νέες τεχνολογίες, τις νομικές απαιτήσεις και τις κοινωνικές προσδοκίες.