SCANDIC GROUP AI ეთიკის განცხადება

შესავალი & amp; ობიექტური

SCANDIC GROUP იყენებს ხელოვნურ ინტელექტს (AI) და ალგორითმულ სისტემებს თითქმის ყველა ბიზნეს სფეროში: სარედაქციო რეკომენდაციების სისტემები და ავტომატური თარგმანი მედიაში; მაღალი სიხშირის და ალგორითმული ვაჭრობა ფინანსურ ვაჭრობაში; თაღლითობის გამოვლენა და ქულების დადგენა გადახდის ოპერაციებში; ჭკვიანი კონტრაქტის პლატფორმები crowdfunding-ში; მარშრუტის ოპტიმიზაცია მობილურობაში; დიაგნოსტიკური მხარდაჭერა ჯანდაცვის სფეროში; და პერსონალიზებული გამოცდილება დასვენებისა და ცხოვრების წესის სერვისებში. როგორც საერთაშორისო მოქმედი კომპანიების ჯგუფი - წარმოდგენილი SCANDIC აქტივები FZCO და შპს SCANDIC TRUST GROUP -თან თანამშრომლობით Legier Beteiligungs mbH - ჩვენ მზად ვართ გამოვიყენოთ AI პასუხისმგებლობით, გამჭვირვალედ და ფუნდამენტური უფლებების შესაბამისად. AI ეთიკის ეს განცხადება აყალიბებს ძირითად ღირებულებებს, პროცესებს და კონტროლის მექანიზმებს SCANDIC GROUP-ში ხელოვნური ინტელექტის განვითარების, შესყიდვის, ექსპლუატაციისა და გამოყენებისთვის. ის ეფუძნება ჩვენს არსებულ გაიდლაინებს შესაბამისობის, კორპორატიული მმართველობის, მონაცემთა დაცვის, მიწოდების ჯაჭვისა და ადამიანის უფლებების პოლიტიკაზე და წარმოადგენს სავალდებულო სახელმძღვანელოს ყველა ბიზნეს სფეროსთვის.

მიმოხილვა ბიბლიოთეკა

1. ძირითადი ღირებულებები & სახელმძღვანელო პრინციპები

ჩვენ ვხელმძღვანელობთ საერთაშორისო საუკეთესო პრაქტიკით სანდო AI-სთვის. ჩვენი სისტემები უნდა ემსახურებოდეს ხალხს, პატივი სცეს მათ უფლებებს და გააძლიეროს საზოგადოება. მთავარია შვიდი ძირითადი პრინციპი:

  • ადამიანური სააგენტო და ზედამხედველობა: ხალხი იღებს საბოლოო გადაწყვეტილებებს; AI მხარს უჭერს, მაგრამ არ ცვლის ადამიანის პასუხისმგებლობას.

  • ტექნიკური სიმტკიცე და უსაფრთხოება: სისტემები უნდა იყოს საიმედო, ელასტიური და დეფექტების მიმართ. უსაფრთხოების მექანიზმები, როგორიცაა სარეზერვო გადაწყვეტილებები, ზედმეტობები და გადაუდებელი პროტოკოლები, სავალდებულოა.

  • კონფიდენციალურობა და მონაცემთა სუვერენიტეტი: მონაცემთა შეგროვება და დამუშავება ხორციელდება მონაცემთა მინიმიზაციის, მიზნის შეზღუდვისა და მთლიანობის პრინციპების მიხედვით.

  • გამჭვირვალობა: გადაწყვეტილებები და პროცესები დოკუმენტირებულია გასაგებად. მომხმარებლებმა უნდა იცოდნენ, როდის ურთიერთობენ AI-სთან.

  • მრავალფეროვნება, არადისკრიმინაცია და სამართლიანობა: მოდელები შემოწმებულია მიკერძოებისთვის და შექმნილია ყველა პოპულაციის სამართლიანად მოპყრობისთვის.

  • სოციალური და გარემოსდაცვითი კეთილდღეობა: AI აპლიკაციებმა ხელი უნდა შეუწყოს მდგრად ზრდას, სოციალურ პროგრესს და გარემოს დაცვას.

  • ანგარიშვალდებულება: განსაზღვრულია პასუხისმგებლობა AI სასიცოცხლო ციკლისთვის; დარღვევები ისჯება და დასკვნები ჩართულია გაუმჯობესებაში.

2. მმართველობა & პასუხისმგებლობები

მკაფიო მმართველობის სტრუქტურები ვრცელდება ხელოვნური ინტელექტის ყველა პროექტზე. ჯგუფური AI კომიტეტი უზრუნველყოფს სტრატეგიულ კონტროლს და ადგენს სტანდარტებს. პროექტის გუნდებმა უნდა ჩაატარონ რისკის შეფასება, შექმნან დოკუმენტაცია და მიიღონ დამტკიცება. მონაცემთა დაცვის ოფიცერი და შესაბამისობის ჯგუფი ჩართულია ადრეულ ეტაპზე. მოქმედებს ოთხი თვალის პრინციპი; კრიტიკული გადაწყვეტილებები განიხილება ინტერდისციპლინარული გუნდების მიერ.

3. იურიდიული & მარეგულირებელი ჩარჩო

ჩვენ ვიცავთ ევროკავშირის AI აქტს, მონაცემთა დაცვის ზოგად რეგულაციებს, ინდუსტრიის სპეციფიკურ რეგულაციას (მაგ. სამედიცინო მოწყობილობებისა და საავიაციო კანონმდებლობა) და იმ ქვეყნების ეროვნულ კანონებს, სადაც ჩვენ ვმუშაობთ. AI აპლიკაციები კლასიფიცირებულია რისკის მიხედვით (დაბალი, მაღალი, მიუღებელი) და შესაბამისი მოთხოვნების გათვალისწინებით. რისკისა და ზემოქმედების შეფასება, ხარისხის მართვა და გარე აუდიტი ტარდება მაღალი რისკის პროცედურებისთვის. ჩვენ ასევე ყურადღებას ვაქცევთ საერთაშორისო კოდებს, როგორიცაა OECD და იუნესკოს რეკომენდაციები ხელოვნური ინტელექტის ეთიკის შესახებ.

4. მონაცემთა ეთიკა & amp; მონაცემთა დაცვა

AI ეფუძნება მონაცემებს. ჩვენ ვაგროვებთ მხოლოდ მონაცემებს, რომლებიც აუცილებელია დანიშნულებისამებრ და ვაკეთებთ ანონიმიზაციას ან ფსევდონიმიზაციას, როდესაც ეს შესაძლებელია. ტრენინგის, ვალიდაციისა და ტესტის მონაცემთა ნაკრები შემოწმებულია ხარისხის, წარმომადგენლობითობისა და მიკერძოებისთვის. ჩვენ ვადასტურებთ მონაცემთა წყაროებს, საკუთრების უფლებებს და ლიცენზიის პირობებს. პერსონალური მონაცემები მუშავდება GDPR-ის შესაბამისად, წაშლის კონცეფციებისა და წვდომის კონტროლის ჩათვლით.

5. გამჭვირვალობა & ახსნა-განმარტება

სადაც ტექნიკურად შესაძლებელია და იურიდიულად საჭიროა, ჩვენ უზრუნველვყოფთ გამჭვირვალე მოდელებსა და ახსნად შედეგებს. ჩვენ მომხმარებლებს ვაწვდით ინფორმაციას იმის შესახებ, არის თუ არა და როგორ გამოიყენება AI. კრიტიკული აპლიკაციებისთვის (მაგ. დაკრედიტება, მედიცინა) გენერირებულია გადაწყვეტილების ლოგიკის გასაგები ახსნა. დოკუმენტაცია შეიცავს ინფორმაციას მონაცემების, მოდელების, პარამეტრების, ტესტებისა და აპლიკაციის ლიმიტების შესახებ.

6. სამართლიანობა, მიკერძოება & amp; ჩართვა

ჩვენ ვიდენტიფიცირებთ და ვამცირებთ სისტემურ მიკერძოებებს ისეთი ღონისძიებების საშუალებით, როგორიცაა: მონაცემთა მრავალფეროვანი ნაკრები, ალგორითმის აუდიტი, სამართლიანობის გათვალისწინებით მოდელირება და უწყვეტი ზემოქმედების გაზომვა. ჩვენ ხელს ვუწყობთ ხელმისაწვდომობას სხვადასხვა მომხმარებლის ჯგუფისთვის (ენა, კულტურა, შესაძლებლობები) შესაფერისი დიზაინის შეთავაზებით. დისკრიმინაციული ან მავნე შინაარსი წაიშლება.

7. ადამიანის ზედამხედველობა & amp; პასუხისმგებლობა

გადაწყვეტილებები, რომლებიც მნიშვნელოვან გავლენას ახდენენ ინდივიდებზე (მაგ. ფინანსების, ჯანდაცვის, პერსონალის შერჩევის სფეროებში) არ უნდა იქნას მიღებული ექსკლუზიურად ხელოვნური ინტელექტის მიერ. ჩვენ ვამაგრებთ ადამიანურ კონტროლს ყველა კრიტიკულ პროცესში: თანამშრომლებს შეუძლიათ შეასწორონ ჩანაწერები, გადალახონ გადაწყვეტილებები და გამორთონ სისტემები. ჩვენ ვამზადებთ თანამშრომლებს AI სისტემების უსაფრთხო გამოყენებასა და გაგებაში.

8. გამძლეობა & უსაფრთხოება

ჩვენი AI სისტემები დაცულია თავდასხმებისა და მანიპულაციისგან. ზომები მოიცავს უსაფრთხო პროგრამირებას, რეგულარულ ტესტირებას, მონიტორინგს, წვდომის კონტროლს და ინციდენტებზე რეაგირების გეგმებს. მოდელები ტესტირებულია საპირისპირო ქცევაზე. წარუმატებლობის ან გაუმართაობის შემთხვევაში, საგანგებო პროცესები ხორციელდება დაზიანების შესამცირებლად. ჩვენ ვადასტურებთ ცნობილ დაუცველობას და ვაძლევთ პატჩებს.

9. მდგრადობა & სოციალური გავლენა

SCANDIC GROUP-ის ხელოვნური ინტელექტის პროექტები მიზნად ისახავს დადებითი წვლილი შეიტანოს კლიმატსა და საზოგადოებაში. ჩვენ ყურადღებას ვაქცევთ ენერგიის მოხმარებას ტრენინგისა და მოდელების მუშაობისას და ვეყრდნობით ეფექტურ ალგორითმებს და განახლებადი ენერგიის წყაროებს. ჩვენ ვაფასებთ პოტენციურ გავლენას დასაქმებაზე, განათლებასა და სოციალურ სტრუქტურებზე და ხელს ვუწყობთ პასუხისმგებელ ინოვაციებს, რომლებიც ინკლუზიურ ზრდას იძლევა.

10. მონიტორინგი & უწყვეტი გაუმჯობესება

ხელოვნური ინტელექტის სისტემების მონიტორინგი ხდება მთელი მათი სასიცოცხლო ციკლის განმავლობაში. ჩვენ ვზომავთ შესრულებას, სამართლიანობას, უსაფრთხოებას და ეთიკურ მოთხოვნებთან შესაბამისობას. გადახრები ან არასასურველი ეფექტები იწვევს კორექტირებას ან გამორთვას. აუდიტის შედეგები, ინციდენტები და მომხმარებლების გამოხმაურება ჩართულია შემდგომ განვითარებაში. ხელოვნური ინტელექტის ეთიკის განცხადება რეგულარულად განიხილება და ადაპტირდება ახალ ტექნოლოგიებთან, იურიდიულ მოთხოვნებთან და სოციალურ მოლოდინებთან.