SCANDIC GROUP AI 道德声明

简介与 客观的

SCANDIC GROUP 在几乎所有业务领域都使用人工智能 (AI) 和算法系统:编辑推荐系统和媒体自动翻译;金融交易中的高频交易和算法交易;支付交易中的欺诈检测和评分;众筹中的智能合约平台;移动路线优化;医疗保健诊断支持;以及休闲和生活方式服务的个性化体验。作为一家国际化运营的公司集团 - 以 斯堪迪克资产 FZCO斯堪迪克信托集团有限责任公司 与合作 Legier Beteiligungs mbH – 我们致力于负责任、透明并符合基本权利地使用人工智能。本人工智能道德声明制定了斯堪迪克集团人工智能开发、采购、运营和使用的核心价值观、流程和控制机制。它建立在我们现有的合规、公司治理、数据保护、供应链和人权政策准则的基础上,是对所有业务领域具有约束力的准则。

概览库

1. 核心价值观& 指导原则

我们以值得信赖的人工智能国际最佳实践为指导。我们的系统应该为人民服务,尊重他们的权利并加强社会。七个基本原则是核心:

  • 人力代理和监督: 人们做出最终决定;人工智能支持但不会取代人类的责任。

  • 技术稳健性和安全性: 系统必须可靠、有弹性且具有容错能力。备份解决方案、冗余和紧急协议等安全机制是强制性的。

  • 隐私和数据主权: 数据收集和处理按照数据最小化、目的限制和完整性的原则进行。

  • 透明度: 决策和流程以易于理解的方式记录下来。用户在与人工智能交互时应该知道。

  • 多样性、非歧视和公平: 检查模型是否存在偏差,并旨在公平对待所有人群。

  • 社会和环境福祉: 人工智能应用必须有助于可持续增长、社会进步和环境保护。

  • 责任: 定义了整个人工智能生命周期的职责;违规行为将受到惩罚,调查结果将被纳入改进措施。

2. 治理与治理 职责

清晰的治理结构适用于所有人工智能项目。整个集团范围内的人工智能委员会确保战略控制并制定标准。项目团队必须进行风险评估、创建文档并获得批准。数据保护官和合规团队在早期阶段就参与其中。适用四眼原则;关键决策由跨学科团队审查。

3. 法律与法律 监管框架

我们遵守《欧盟人工智能法案》、《通用数据保护条例》、行业特定法规(例如医疗器械和航空法)以及我们运营所在国家/地区的国家法律。 AI应用根据风险(低、高、不可接受)进行分类,并给出相应的合规要求。针对高风险程序进行风险和影响评估、质量管理和外部审核。我们还关注国际准则,例如经合组织和联合国教科文组织关于人工智能伦理的建议。

4. 数据伦理与数据伦理 数据保护

人工智能是基于数据的。我们仅收集达到预期目的所需的数据,并尽可能对其进行匿名化或假名化。检查训练、验证和测试数据集的质量、代表性和偏差。我们记录数据源、所有权和许可条件。个人数据根据 GDPR 进行处理,包括删除概念和访问控制。

5. 透明度和透明度 可解释性

在技​​术可行和法律要求的情况下,我们确保透明的模型和可解释的结果。我们为用户提供有关是否以及如何使用人工智能的信息。对于关键应用(例如贷款、医药),会生成决策逻辑的可理解的解释。文档包含有关数据、模型、参数、测试和应用限制的信息。

6. 公平、偏见和公平 包容性

我们通过以下措施识别并减少系统偏差:多样化的数据集、算法审核、公平意识建模和持续影响衡量。我们通过提供适合不同用户群体(语言、文化、能力)的设计来促进可访问性。歧视性或有害内容将被删除。

7. 人工监督和监督 责任

对个人有重大影响的决策(例如在财务、医疗保健、人员选拔领域)不能完全由人工智能做出。我们将人为控制融入到每个关键流程中:员工可以更正条目、推翻决策以及关闭系统。我们对员工进行安全使用和理解人工智能系统的培训。

8. 鲁棒性和稳定性 安全

我们的人工智能系统受到保护,免受攻击和操纵。措施包括安全编程、定期测试、监控、访问控制和事件响应计划。测试模型的对抗行为。如果发生故障或故障,将实施紧急程序以限制损失。我们记录已知漏洞并提供补丁。

9. 可持续发展与可持续发展 社会影响

SCANDIC 集团的人工智能项目旨在为气候和社会做出积极贡献。我们在训练和运行模型时关注能源消耗,并依赖高效的算法和可再生能源。我们评估对就业、教育和社会结构的潜在影响,并促进负责任的创新,以实现包容性增长。

10. 监控与监控 持续改进

人工智能系统的整个生命周期都受到监控。我们衡量绩效、公平性、安全性以及对道德要求的遵守情况。偏差或不良影响会导致调整或关闭。审计结果、事件和用户反馈都被纳入进一步的开发中。人工智能道德声明会定期审查并适应新技术、法律要求和社会期望。