
Το SCANDIC GROUP χρησιμοποιεί τεχνητή νοημοσύνη (AI) και αλγοριθμικά συστήματα σε όλους σχεδόν τους επιχειρηματικούς τομείς: συστήματα προτάσεων σύνταξης και αυτοματοποιημένη μετάφραση στα μέσα. Υψηλής συχνότητας και αλγοριθμικές συναλλαγές σε χρηματοοικονομικές συναλλαγές. Ανίχνευση απάτης και βαθμολόγηση σε συναλλαγές πληρωμής. Πλατφόρμες έξυπνων συμβολαίων στο crowdfunding. Βελτιστοποίηση διαδρομής στην κινητικότητα. διαγνωστική υποστήριξη στην υγειονομική περίθαλψη· και εξατομικευμένες εμπειρίες σε υπηρεσίες αναψυχής και τρόπου ζωής. Ως όμιλος εταιρειών που λειτουργεί διεθνώς - εκπροσωπείται από την SCANDIC ASSETS FZCO και το SCANDIC TRUST GROUP LLC σε συνεργασία με την Legier Beteiligungs mbH – Δεσμευόμαστε να χρησιμοποιούμε την τεχνητή νοημοσύνη με υπευθυνότητα, διαφάνεια και σύμφωνα με τα θεμελιώδη δικαιώματα. Αυτή η δήλωση ηθικής τεχνητής νοημοσύνης διατυπώνει βασικές αξίες, διαδικασίες και μηχανισμούς ελέγχου για την ανάπτυξη, την προμήθεια, τη λειτουργία και τη χρήση της τεχνητής νοημοσύνης στο SCANDIC GROUP. Βασίζεται στις υπάρχουσες κατευθυντήριες γραμμές μας για τη συμμόρφωση, την εταιρική διακυβέρνηση, την προστασία δεδομένων, την αλυσίδα εφοδιασμού και την πολιτική για τα ανθρώπινα δικαιώματα και αντιπροσωπεύει μια δεσμευτική κατευθυντήρια γραμμή για όλους τους επιχειρηματικούς τομείς.
Καθοδηγούμαστε από διεθνείς βέλτιστες πρακτικές για αξιόπιστη τεχνητή νοημοσύνη. Τα συστήματά μας πρέπει να εξυπηρετούν τους ανθρώπους, να σέβονται τα δικαιώματά τους και να ενισχύουν την κοινωνία. Επτά βασικές αρχές είναι βασικές:
Σαφείς δομές διακυβέρνησης ισχύουν για όλα τα έργα τεχνητής νοημοσύνης. Μια επιτροπή τεχνητής νοημοσύνης σε όλη την ομάδα διασφαλίζει στρατηγικό έλεγχο και θέτει πρότυπα. Οι ομάδες έργου πρέπει να διεξάγουν αξιολογήσεις κινδύνου, να δημιουργούν τεκμηρίωση και να λαμβάνουν εγκρίσεις. Ο υπεύθυνος προστασίας δεδομένων και η ομάδα συμμόρφωσης συμμετέχουν σε πρώιμο στάδιο. Ισχύει η αρχή των τεσσάρων ματιών. Οι κρίσιμες αποφάσεις εξετάζονται από διεπιστημονικές ομάδες.
Συμμορφωνόμαστε με τον νόμο της ΕΕ για την τεχνητή νοημοσύνη, τον Γενικό Κανονισμό για την Προστασία Δεδομένων, τους ειδικούς κανονισμούς του κλάδου (π.χ. νόμος περί ιατροτεχνολογικών προϊόντων και αερομεταφορών) και τους εθνικούς νόμους των χωρών στις οποίες δραστηριοποιούμαστε. Οι εφαρμογές τεχνητής νοημοσύνης ταξινομούνται ανάλογα με τον κίνδυνο (χαμηλό, υψηλό, μη αποδεκτό) και με βάση τις αντίστοιχες απαιτήσεις συμμόρφωσης. Εκτελούνται αξιολογήσεις κινδύνου και επιπτώσεων, διαχείριση ποιότητας και εξωτερικοί έλεγχοι για διαδικασίες υψηλού κινδύνου. Δίνουμε επίσης προσοχή σε διεθνείς κώδικες, όπως οι συστάσεις του ΟΟΣΑ και της UNESCO για την ηθική της τεχνητής νοημοσύνης.
Το AI βασίζεται σε δεδομένα. Συλλέγουμε μόνο δεδομένα που είναι απαραίτητα για τον επιδιωκόμενο σκοπό και τα ανωνυμοποιούμε ή τα ψευδωνυμοποιούμε όποτε είναι δυνατόν. Τα σύνολα δεδομένων εκπαίδευσης, επικύρωσης και δοκιμών ελέγχονται για ποιότητα, αντιπροσωπευτικότητα και μεροληψία. Τεκμηριώνουμε τις πηγές δεδομένων, τα δικαιώματα ιδιοκτησίας και τους όρους άδειας χρήσης. Τα προσωπικά δεδομένα υποβάλλονται σε επεξεργασία σύμφωνα με τον GDPR, συμπεριλαμβανομένων των εννοιών διαγραφής και των ελέγχων πρόσβασης.
Όπου είναι τεχνικά εφικτό και νομικά απαιτείται, διασφαλίζουμε διαφανή μοντέλα και εξηγήσιμα αποτελέσματα. Παρέχουμε στους χρήστες πληροφορίες σχετικά με το εάν και πώς χρησιμοποιείται η τεχνητή νοημοσύνη. Για κρίσιμες εφαρμογές (π.χ. δανεισμός, ιατρική) δημιουργούνται κατανοητές εξηγήσεις της λογικής απόφασης. Η τεκμηρίωση περιέχει πληροφορίες για δεδομένα, μοντέλα, παραμέτρους, δοκιμές και όρια εφαρμογών.
Εντοπίζουμε και μειώνουμε τις συστηματικές προκαταλήψεις μέσω μέτρων όπως: διαφορετικά σύνολα δεδομένων, έλεγχοι αλγορίθμων, μοντελοποίηση με συνείδηση της δικαιοσύνης και συνεχής μέτρηση επιπτώσεων. Προωθούμε την προσβασιμότητα προσφέροντας σχέδια κατάλληλα για διαφορετικές ομάδες χρηστών (γλώσσα, πολιτισμός, ικανότητες). Το μεροληπτικό ή επιβλαβές περιεχόμενο θα αφαιρεθεί.
Οι αποφάσεις που έχουν σημαντικό αντίκτυπο σε άτομα (π.χ. στους τομείς των οικονομικών, της υγειονομικής περίθαλψης, της επιλογής προσωπικού) δεν πρέπει να λαμβάνονται αποκλειστικά από AI. Βάζουμε τον ανθρώπινο έλεγχο σε κάθε κρίσιμη διαδικασία: οι εργαζόμενοι μπορούν να διορθώσουν καταχωρήσεις, να παρακάμψουν αποφάσεις και να απενεργοποιήσουν τα συστήματα. Εκπαιδεύουμε τους υπαλλήλους στην ασφαλή χρήση και κατανόηση των συστημάτων AI.
Τα συστήματά μας AI προστατεύονται από επιθέσεις και χειραγώγηση. Τα μέτρα περιλαμβάνουν ασφαλή προγραμματισμό, τακτικές δοκιμές, παρακολούθηση, ελέγχους πρόσβασης και σχέδια αντιμετώπισης συμβάντων. Τα μοντέλα ελέγχονται για αντίθετη συμπεριφορά. Σε περίπτωση αστοχιών ή δυσλειτουργιών, εφαρμόζονται διαδικασίες έκτακτης ανάγκης για τον περιορισμό των ζημιών. Τεκμηριώνουμε γνωστά τρωτά σημεία και παρέχουμε ενημερώσεις κώδικα.
Τα έργα τεχνητής νοημοσύνης από τον SCANDIC GROUP προορίζονται να συμβάλουν θετικά στο κλίμα και την κοινωνία. Δίνουμε προσοχή στην κατανάλωση ενέργειας κατά την εκπαίδευση και τη λειτουργία μοντέλων και βασιζόμαστε σε αποδοτικούς αλγόριθμους και ανανεώσιμες πηγές ενέργειας. Αξιολογούμε τις πιθανές επιπτώσεις στην απασχόληση, την εκπαίδευση και τις κοινωνικές δομές και προωθούμε την υπεύθυνη καινοτομία που επιτρέπει την ανάπτυξη χωρίς αποκλεισμούς.
Τα συστήματα AI παρακολουθούνται καθ' όλη τη διάρκεια του κύκλου ζωής τους. Μετράμε την απόδοση, τη δικαιοσύνη, την ασφάλεια και τη συμμόρφωση με ηθικές απαιτήσεις. Αποκλίσεις ή ανεπιθύμητες ενέργειες οδηγούν σε προσαρμογές ή τερματισμό λειτουργίας. Ευρήματα από ελέγχους, συμβάντα και σχόλια από χρήστες ενσωματώνονται στην περαιτέρω ανάπτυξη. Η δήλωση ηθικής τεχνητής νοημοσύνης αναθεωρείται τακτικά και προσαρμόζεται στις νέες τεχνολογίες, τις νομικές απαιτήσεις και τις κοινωνικές προσδοκίες.