
SCANDIC GROUP използва изкуствен интелект (AI) и алгоритмични системи в почти всички бизнес области: системи за редакционни препоръки и автоматизиран превод в медиите; Високочестотна и алгоритмична търговия във финансовата търговия; Откриване на измами и скоринг при платежни транзакции; Платформи за интелигентни договори при групово финансиране; Оптимизиране на маршрута в мобилността; диагностична помощ в здравеопазването; и персонализирани изживявания в услугите за отдих и начин на живот. Като международна група от компании - представлявана от SCANDIC ASSETS FZCO и на SCANDIC TRUST GROUP LLC в сътрудничество с Legier Beteiligungs mbH – ние се ангажираме да използваме AI отговорно, прозрачно и в съответствие с основните права. Тази декларация за етика на ИИ формулира основните ценности, процеси и механизми за контрол за разработването, доставката, експлоатацията и използването на ИИ в SCANDIC GROUP. Той се основава на нашите съществуващи насоки относно спазването, корпоративното управление, защитата на данните, веригата на доставки и политиката за правата на човека и представлява задължителна насока за всички бизнес области.
Ние се ръководим от най-добрите международни практики за надежден AI. Нашите системи трябва да служат на хората, да зачитат техните права и да укрепват обществото. Седем основни принципа са централни:
Ясните структури на управление се прилагат за всички проекти за ИИ. Комитет за ИИ в цялата група осигурява стратегически контрол и определя стандарти. Проектните екипи трябва да извършат оценка на риска, да създадат документация и да получат одобрения. Длъжностното лице по защита на данните и екипът за съответствие участват на ранен етап. Прилага се принципът на четирите очи; Критичните решения се преглеждат от интердисциплинарни екипи.
Ние спазваме Закона за изкуствен интелект на ЕС, Общия регламент за защита на данните, специфичните за индустрията разпоредби (напр. Закон за медицинските изделия и авиацията) и националните закони на страните, в които работим. Приложенията за изкуствен интелект се класифицират според риска (нисък, висок, неприемлив) и предвид съответните изисквания за съответствие. Извършват се оценки на риска и въздействието, управление на качеството и външни одити за процедури с висок риск. Ние също така обръщаме внимание на международните кодекси като препоръките на ОИСР и ЮНЕСКО относно етиката на ИИ.
AI се основава на данни. Ние събираме само данни, които са необходими за предвидената цел и ги анонимизираме или псевдонимизираме, когато е възможно. Наборите от данни за обучение, валидиране и тестове се проверяват за качество, представителност и пристрастност. Ние документираме източници на данни, права на собственост и лицензионни условия. Личните данни се обработват в съответствие с GDPR, включително концепции за изтриване и контрол на достъпа.
Когато е технически възможно и се изисква от закона, ние гарантираме прозрачни модели и обясними резултати. Предоставяме на потребителите информация дали и как се използва AI. За критични приложения (напр. кредитиране, медицина) се генерират разбираеми обяснения на логиката на решението. Документацията съдържа информация за данни, модели, параметри, тестове и граници на приложение.
Ние идентифицираме и намаляваме систематичните отклонения чрез мерки като: разнообразни набори от данни, одити на алгоритми, съобразено с справедливостта моделиране и непрекъснато измерване на въздействието. Ние насърчаваме достъпността, като предлагаме дизайни, подходящи за различни потребителски групи (език, култура, способности). Дискриминационно или вредно съдържание ще бъде премахнато.
Решенията, които имат значително въздействие върху отделните лица (например в областта на финансите, здравеопазването, подбора на персонал), не трябва да се вземат изключително от AI. Ние закотвяме човешки контрол във всеки критичен процес: служителите могат да коригират въведени данни, да отменят решения и да изключват системи. Ние обучаваме служители за безопасна употреба и разбиране на AI системите.
Нашите AI системи са защитени срещу атаки и манипулации. Мерките включват сигурно програмиране, редовно тестване, мониторинг, контрол на достъпа и планове за реакция при инциденти. Моделите се тестват за противопоставяне. В случай на повреди или неизправности се прилагат аварийни процеси за ограничаване на щетите. Ние документираме известните уязвимости и предоставяме кръпки.
AI проектите от SCANDIC GROUP имат за цел да дадат положителен принос за климата и обществото. Обръщаме внимание на потреблението на енергия при обучение и работа с модели и разчитаме на ефективни алгоритми и възобновяеми енергийни източници. Ние оценяваме потенциалните въздействия върху заетостта, образованието и социалните структури и насърчаваме отговорни иновации, които позволяват приобщаващ растеж.
AI системите се наблюдават през целия им жизнен цикъл. Ние измерваме ефективността, справедливостта, сигурността и спазването на етичните изисквания. Отклонения или нежелани ефекти водят до корекции или спиране. Констатациите от одити, инциденти и обратна връзка от потребителите се включват в по-нататъшното развитие. Декларацията за етиката на AI се преразглежда редовно и се адаптира към новите технологии, законовите изисквания и социалните очаквания.