
SCANDIC GROUP использует искусственный интеллект (ИИ) и алгоритмические системы практически во всех сферах бизнеса: редакционные рекомендательные системы и автоматизированный перевод в СМИ; Высокочастотный и алгоритмический трейдинг в финансовой торговле; Обнаружение и скоринг мошенничества в платежных операциях; Платформы смарт-контрактов в краудфандинге; Оптимизация маршрутов в условиях мобильности; диагностическая поддержка в здравоохранении; и персонализированный опыт в сфере услуг для отдыха и образа жизни. Будучи международной группой компаний, представленной СКАНДИК АКТИВЫ ФЗКО и ООО «СКАНДИК ТРАСТ ГРУП» в сотрудничестве с Легье Бетайлигунгс мбХ – мы стремимся использовать ИИ ответственно, прозрачно и в соответствии с фундаментальными правами. В этом заявлении об этике ИИ сформулированы основные ценности, процессы и механизмы контроля разработки, закупок, эксплуатации и использования ИИ в SCANDIC GROUP. Он основан на наших существующих руководящих принципах по соблюдению требований, корпоративному управлению, защите данных, цепочке поставок и политике в области прав человека и представляет собой обязательное руководство для всех сфер бизнеса.
Мы руководствуемся лучшими международными практиками создания надежного искусственного интеллекта. Наши системы должны служить людям, уважать их права и укреплять общество. Семь основных принципов являются центральными:
Четкие структуры управления применимы ко всем проектам ИИ. Общегрупповой комитет по искусственному интеллекту обеспечивает стратегический контроль и устанавливает стандарты. Проектные команды должны провести оценку рисков, создать документацию и получить одобрения. Сотрудник по защите данных и группа по соблюдению требований привлекаются на ранней стадии. Применяется принцип четырех глаз; Критические решения рассматриваются междисциплинарными группами.
Мы соблюдаем Закон ЕС об искусственном интеллекте, Общий регламент по защите данных, отраслевые правила (например, законы о медицинском оборудовании и авиации) и национальные законы стран, в которых мы работаем. Приложения ИИ классифицируются по степени риска (низкий, высокий, неприемлемый) и с учетом соответствующих требований соответствия. Для процедур высокого риска проводятся оценка рисков и последствий, управление качеством и внешний аудит. Мы также обращаем внимание на международные кодексы, такие как рекомендации ОЭСР и ЮНЕСКО по этике ИИ.
ИИ основан на данных. Мы собираем только те данные, которые необходимы для намеченной цели, и по возможности анонимизируем или псевдонимизируем их. Наборы данных для обучения, валидации и тестирования проверяются на качество, репрезентативность и предвзятость. Мы документируем источники данных, права собственности и условия лицензии. Персональные данные обрабатываются в соответствии с GDPR, включая концепции удаления и контроля доступа.
Там, где это технически возможно и требуется по закону, мы обеспечиваем прозрачные модели и объяснимые результаты. Мы предоставляем пользователям информацию о том, используется ли ИИ и если да, то как. Для критически важных приложений (например, кредитование, медицина) генерируются понятные объяснения логики принятия решений. Документация содержит информацию о данных, моделях, параметрах, тестах и ограничениях применения.
Мы выявляем и уменьшаем систематические предвзятости с помощью таких мер, как: разнообразные наборы данных, аудит алгоритмов, моделирование с учетом принципов справедливости и постоянное измерение воздействия. Мы продвигаем доступность, предлагая дизайны, подходящие для разных групп пользователей (язык, культура, способности). Дискриминационный или вредный контент будет удален.
Решения, которые оказывают существенное влияние на отдельных людей (например, в области финансов, здравоохранения, подбора персонала), не должны приниматься исключительно ИИ. Мы закрепляем человеческий контроль над каждым критическим процессом: сотрудники могут исправлять записи, отменять решения и отключать системы. Мы обучаем сотрудников безопасному использованию и пониманию систем искусственного интеллекта.
Наши системы искусственного интеллекта защищены от атак и манипуляций. Меры включают безопасное программирование, регулярное тестирование, мониторинг, контроль доступа и планы реагирования на инциденты. Модели проверяются на состязательное поведение. В случае сбоев или неисправностей реализуются аварийные процессы для ограничения ущерба. Мы документируем известные уязвимости и предоставляем исправления.
Проекты искусственного интеллекта от SCANDIC GROUP призваны внести положительный вклад в улучшение климата и общества. Мы уделяем внимание энергопотреблению при обучении и эксплуатации моделей и полагаемся на эффективные алгоритмы и возобновляемые источники энергии. Мы оцениваем потенциальное воздействие на занятость, образование и социальные структуры и продвигаем ответственные инновации, которые обеспечивают инклюзивный рост.
Системы искусственного интеллекта контролируются на протяжении всего жизненного цикла. Мы измеряем производительность, справедливость, безопасность и соответствие этическим требованиям. Отклонения или нежелательные эффекты приводят к корректировкам или отключению. Результаты аудитов, инцидентов и отзывы пользователей учитываются при дальнейшей разработке. Заявление об этике ИИ регулярно пересматривается и адаптируется к новым технологиям, требованиям законодательства и социальным ожиданиям.