Заявление об этике SCANDIC GROUP AI

Введение и усиление; Цель

SCANDIC GROUP использует искусственный интеллект (ИИ) и алгоритмические системы практически во всех сферах бизнеса: редакционные рекомендательные системы и автоматизированный перевод в СМИ; Высокочастотный и алгоритмический трейдинг в финансовой торговле; Обнаружение и скоринг мошенничества в платежных операциях; Платформы смарт-контрактов в краудфандинге; Оптимизация маршрутов в условиях мобильности; диагностическая поддержка в здравоохранении; и персонализированный опыт в сфере услуг для отдыха и образа жизни. Будучи международной группой компаний, представленной СКАНДИК АКТИВЫ ФЗКО и ООО «СКАНДИК ТРАСТ ГРУП» в сотрудничестве с Легье Бетайлигунгс мбХ – мы стремимся использовать ИИ ответственно, прозрачно и в соответствии с фундаментальными правами. В этом заявлении об этике ИИ сформулированы основные ценности, процессы и механизмы контроля разработки, закупок, эксплуатации и использования ИИ в SCANDIC GROUP. Он основан на наших существующих руководящих принципах по соблюдению требований, корпоративному управлению, защите данных, цепочке поставок и политике в области прав человека и представляет собой обязательное руководство для всех сфер бизнеса.

Обзор библиотеки

1. Основные ценности и усиление; Руководящие принципы

Мы руководствуемся лучшими международными практиками создания надежного искусственного интеллекта. Наши системы должны служить людям, уважать их права и укреплять общество. Семь основных принципов являются центральными:

  • Человеческая деятельность и надзор: Люди принимают окончательные решения; ИИ поддерживает, но не заменяет ответственность человека.

  • Техническая надежность и безопасность: Системы должны быть надежными, отказоустойчивыми и отказоустойчивыми. Механизмы безопасности, такие как решения для резервного копирования, резервирования и протоколы экстренной помощи, являются обязательными.

  • Конфиденциальность и суверенитет данных: Сбор и обработка данных осуществляются согласно принципам минимизации данных, целевого ограничения и целостности.

  • Прозрачность: Решения и процессы документируются в понятной форме. Пользователи должны знать, когда они взаимодействуют с ИИ.

  • Разнообразие, недискриминация и справедливость: Модели проверяются на предмет предвзятости и предназначены для справедливого подхода ко всем группам населения.

  • Социальное и экологическое благополучие: Приложения искусственного интеллекта должны способствовать устойчивому росту, социальному прогрессу и защите окружающей среды.

  • Подотчетность: Определены обязанности за весь жизненный цикл ИИ; Нарушения наказываются, а выводы учитываются при улучшениях.

2. Управление и усиление; Обязанности

Четкие структуры управления применимы ко всем проектам ИИ. Общегрупповой комитет по искусственному интеллекту обеспечивает стратегический контроль и устанавливает стандарты. Проектные команды должны провести оценку рисков, создать документацию и получить одобрения. Сотрудник по защите данных и группа по соблюдению требований привлекаются на ранней стадии. Применяется принцип четырех глаз; Критические решения рассматриваются междисциплинарными группами.

3. Юридические и amp; Нормативно-правовая база

Мы соблюдаем Закон ЕС об искусственном интеллекте, Общий регламент по защите данных, отраслевые правила (например, законы о медицинском оборудовании и авиации) и национальные законы стран, в которых мы работаем. Приложения ИИ классифицируются по степени риска (низкий, высокий, неприемлемый) и с учетом соответствующих требований соответствия. Для процедур высокого риска проводятся оценка рисков и последствий, управление качеством и внешний аудит. Мы также обращаем внимание на международные кодексы, такие как рекомендации ОЭСР и ЮНЕСКО по этике ИИ.

4. Этика данных и amp; Защита данных

ИИ основан на данных. Мы собираем только те данные, которые необходимы для намеченной цели, и по возможности анонимизируем или псевдонимизируем их. Наборы данных для обучения, валидации и тестирования проверяются на качество, репрезентативность и предвзятость. Мы документируем источники данных, права собственности и условия лицензии. Персональные данные обрабатываются в соответствии с GDPR, включая концепции удаления и контроля доступа.

5. Прозрачность и усиление; Объясняемость

Там, где это технически возможно и требуется по закону, мы обеспечиваем прозрачные модели и объяснимые результаты. Мы предоставляем пользователям информацию о том, используется ли ИИ и если да, то как. Для критически важных приложений (например, кредитование, медицина) генерируются понятные объяснения логики принятия решений. Документация содержит информацию о данных, моделях, параметрах, тестах и ​​ограничениях применения.

6. Справедливость, предвзятость и усиление; Включение

Мы выявляем и уменьшаем систематические предвзятости с помощью таких мер, как: разнообразные наборы данных, аудит алгоритмов, моделирование с учетом принципов справедливости и постоянное измерение воздействия. Мы продвигаем доступность, предлагая дизайны, подходящие для разных групп пользователей (язык, культура, способности). Дискриминационный или вредный контент будет удален.

7. Человеческий надзор и усиление; Ответственность

Решения, которые оказывают существенное влияние на отдельных людей (например, в области финансов, здравоохранения, подбора персонала), не должны приниматься исключительно ИИ. Мы закрепляем человеческий контроль над каждым критическим процессом: сотрудники могут исправлять записи, отменять решения и отключать системы. Мы обучаем сотрудников безопасному использованию и пониманию систем искусственного интеллекта.

8. Надежность и усиление; Безопасность

Наши системы искусственного интеллекта защищены от атак и манипуляций. Меры включают безопасное программирование, регулярное тестирование, мониторинг, контроль доступа и планы реагирования на инциденты. Модели проверяются на состязательное поведение. В случае сбоев или неисправностей реализуются аварийные процессы для ограничения ущерба. Мы документируем известные уязвимости и предоставляем исправления.

9. Устойчивое развитие и усиление; социальное воздействие

Проекты искусственного интеллекта от SCANDIC GROUP призваны внести положительный вклад в улучшение климата и общества. Мы уделяем внимание энергопотреблению при обучении и эксплуатации моделей и полагаемся на эффективные алгоритмы и возобновляемые источники энергии. Мы оцениваем потенциальное воздействие на занятость, образование и социальные структуры и продвигаем ответственные инновации, которые обеспечивают инклюзивный рост.

10. Мониторинг и усиление; постоянное улучшение

Системы искусственного интеллекта контролируются на протяжении всего жизненного цикла. Мы измеряем производительность, справедливость, безопасность и соответствие этическим требованиям. Отклонения или нежелательные эффекты приводят к корректировкам или отключению. Результаты аудитов, инцидентов и отзывы пользователей учитываются при дальнейшей разработке. Заявление об этике ИИ регулярно пересматривается и адаптируется к новым технологиям, требованиям законодательства и социальным ожиданиям.