SCANDIC GROUP AI Етична декларация

Въведение & Обективна

SCANDIC GROUP използва изкуствен интелект (AI) и алгоритмични системи в почти всички бизнес области: системи за редакционни препоръки и автоматизиран превод в медиите; Високочестотна и алгоритмична търговия във финансовата търговия; Откриване на измами и скоринг при платежни транзакции; Платформи за интелигентни договори при групово финансиране; Оптимизиране на маршрута в мобилността; диагностична помощ в здравеопазването; и персонализирани изживявания в услугите за отдих и начин на живот. Като международна група от компании - представлявана от SCANDIC ASSETS FZCO и на SCANDIC TRUST GROUP LLC в сътрудничество с Legier Beteiligungs mbH – ние се ангажираме да използваме AI отговорно, прозрачно и в съответствие с основните права. Тази декларация за етика на ИИ формулира основните ценности, процеси и механизми за контрол за разработването, доставката, експлоатацията и използването на ИИ в SCANDIC GROUP. Той се основава на нашите съществуващи насоки относно спазването, корпоративното управление, защитата на данните, веригата на доставки и политиката за правата на човека и представлява задължителна насока за всички бизнес области.

Обзорна библиотека

1. Основни ценности & Ръководни принципи

Ние се ръководим от най-добрите международни практики за надежден AI. Нашите системи трябва да служат на хората, да зачитат техните права и да укрепват обществото. Седем основни принципа са централни:

  • Човешка агенция и надзор: Хората вземат крайните решения; AI поддържа, но не замества човешката отговорност.

  • Техническа издръжливост и сигурност: Системите трябва да бъдат надеждни, устойчиви и толерантни към грешки. Механизмите за сигурност като решения за архивиране, резервиране и протоколи за спешни случаи са задължителни.

  • Поверителност и суверенитет на данните: Събирането и обработката на данни се извършва в съответствие с принципите на минимизиране на данните, ограничаване на целта и цялост.

  • Прозрачност: Решенията и процесите се документират по разбираем начин. Потребителите трябва да знаят, когато взаимодействат с AI.

  • Разнообразие, недискриминация и справедливост: Моделите се проверяват за пристрастия и са проектирани да третират справедливо всички популации.

  • Социално и екологично благополучие: Приложенията с изкуствен интелект трябва да допринасят за устойчив растеж, социален прогрес и опазване на околната среда.

  • Отговорност: Дефинирани са отговорности за целия жизнен цикъл на ИИ; Нарушенията се наказват и констатациите се включват в подобрения.

2. Управление и усилвател; Отговорности

Ясните структури на управление се прилагат за всички проекти за ИИ. Комитет за ИИ в цялата група осигурява стратегически контрол и определя стандарти. Проектните екипи трябва да извършат оценка на риска, да създадат документация и да получат одобрения. Длъжностното лице по защита на данните и екипът за съответствие участват на ранен етап. Прилага се принципът на четирите очи; Критичните решения се преглеждат от интердисциплинарни екипи.

3. Правни & Нормативна рамка

Ние спазваме Закона за изкуствен интелект на ЕС, Общия регламент за защита на данните, специфичните за индустрията разпоредби (напр. Закон за медицинските изделия и авиацията) и националните закони на страните, в които работим. Приложенията за изкуствен интелект се класифицират според риска (нисък, висок, неприемлив) и предвид съответните изисквания за съответствие. Извършват се оценки на риска и въздействието, управление на качеството и външни одити за процедури с висок риск. Ние също така обръщаме внимание на международните кодекси като препоръките на ОИСР и ЮНЕСКО относно етиката на ИИ.

4. Етика на данните & Защита на данните

AI се основава на данни. Ние събираме само данни, които са необходими за предвидената цел и ги анонимизираме или псевдонимизираме, когато е възможно. Наборите от данни за обучение, валидиране и тестове се проверяват за качество, представителност и пристрастност. Ние документираме източници на данни, права на собственост и лицензионни условия. Личните данни се обработват в съответствие с GDPR, включително концепции за изтриване и контрол на достъпа.

5. Прозрачност и усилвател; Обяснимост

Когато е технически възможно и се изисква от закона, ние гарантираме прозрачни модели и обясними резултати. Предоставяме на потребителите информация дали и как се използва AI. За критични приложения (напр. кредитиране, медицина) се генерират разбираеми обяснения на логиката на решението. Документацията съдържа информация за данни, модели, параметри, тестове и граници на приложение.

6. Справедливост, пристрастност и усилвател; Включване

Ние идентифицираме и намаляваме систематичните отклонения чрез мерки като: разнообразни набори от данни, одити на алгоритми, съобразено с справедливостта моделиране и непрекъснато измерване на въздействието. Ние насърчаваме достъпността, като предлагаме дизайни, подходящи за различни потребителски групи (език, култура, способности). Дискриминационно или вредно съдържание ще бъде премахнато.

7. Човешки надзор и усилвател; Отговорност

Решенията, които имат значително въздействие върху отделните лица (например в областта на финансите, здравеопазването, подбора на персонал), не трябва да се вземат изключително от AI. Ние закотвяме човешки контрол във всеки критичен процес: служителите могат да коригират въведени данни, да отменят решения и да изключват системи. Ние обучаваме служители за безопасна употреба и разбиране на AI системите.

8. Здравина и усилвател; сигурност

Нашите AI системи са защитени срещу атаки и манипулации. Мерките включват сигурно програмиране, редовно тестване, мониторинг, контрол на достъпа и планове за реакция при инциденти. Моделите се тестват за противопоставяне. В случай на повреди или неизправности се прилагат аварийни процеси за ограничаване на щетите. Ние документираме известните уязвимости и предоставяме кръпки.

9. Устойчивост & социално въздействие

AI проектите от SCANDIC GROUP имат за цел да дадат положителен принос за климата и обществото. Обръщаме внимание на потреблението на енергия при обучение и работа с модели и разчитаме на ефективни алгоритми и възобновяеми енергийни източници. Ние оценяваме потенциалните въздействия върху заетостта, образованието и социалните структури и насърчаваме отговорни иновации, които позволяват приобщаващ растеж.

10. Мониторинг & непрекъснато усъвършенстване

AI системите се наблюдават през целия им жизнен цикъл. Ние измерваме ефективността, справедливостта, сигурността и спазването на етичните изисквания. Отклонения или нежелани ефекти водят до корекции или спиране. Констатациите от одити, инциденти и обратна връзка от потребителите се включват в по-нататъшното развитие. Декларацията за етиката на AI се преразглежда редовно и се адаптира към новите технологии, законовите изисквания и социалните очаквания.