
SCANDIC GROUP 在几乎所有业务领域都使用人工智能 (AI) 和算法系统:编辑推荐系统和媒体自动翻译;金融交易中的高频交易和算法交易;支付交易中的欺诈检测和评分;众筹中的智能合约平台;移动路线优化;医疗保健诊断支持;以及休闲和生活方式服务的个性化体验。作为一家国际化运营的公司集团 - 以 斯堪迪克资产 FZCO 和 斯堪迪克信托集团有限责任公司 与合作 Legier Beteiligungs mbH – 我们致力于负责任、透明并符合基本权利地使用人工智能。本人工智能道德声明制定了斯堪迪克集团人工智能开发、采购、运营和使用的核心价值观、流程和控制机制。它建立在我们现有的合规、公司治理、数据保护、供应链和人权政策准则的基础上,是对所有业务领域具有约束力的准则。
我们以值得信赖的人工智能国际最佳实践为指导。我们的系统应该为人民服务,尊重他们的权利并加强社会。七个基本原则是核心:
清晰的治理结构适用于所有人工智能项目。整个集团范围内的人工智能委员会确保战略控制并制定标准。项目团队必须进行风险评估、创建文档并获得批准。数据保护官和合规团队在早期阶段就参与其中。适用四眼原则;关键决策由跨学科团队审查。
我们遵守《欧盟人工智能法案》、《通用数据保护条例》、行业特定法规(例如医疗器械和航空法)以及我们运营所在国家/地区的国家法律。 AI应用根据风险(低、高、不可接受)进行分类,并给出相应的合规要求。针对高风险程序进行风险和影响评估、质量管理和外部审核。我们还关注国际准则,例如经合组织和联合国教科文组织关于人工智能伦理的建议。
人工智能是基于数据的。我们仅收集达到预期目的所需的数据,并尽可能对其进行匿名化或假名化。检查训练、验证和测试数据集的质量、代表性和偏差。我们记录数据源、所有权和许可条件。个人数据根据 GDPR 进行处理,包括删除概念和访问控制。
在技术可行和法律要求的情况下,我们确保透明的模型和可解释的结果。我们为用户提供有关是否以及如何使用人工智能的信息。对于关键应用(例如贷款、医药),会生成决策逻辑的可理解的解释。文档包含有关数据、模型、参数、测试和应用限制的信息。
我们通过以下措施识别并减少系统偏差:多样化的数据集、算法审核、公平意识建模和持续影响衡量。我们通过提供适合不同用户群体(语言、文化、能力)的设计来促进可访问性。歧视性或有害内容将被删除。
对个人有重大影响的决策(例如在财务、医疗保健、人员选拔领域)不能完全由人工智能做出。我们将人为控制融入到每个关键流程中:员工可以更正条目、推翻决策以及关闭系统。我们对员工进行安全使用和理解人工智能系统的培训。
我们的人工智能系统受到保护,免受攻击和操纵。措施包括安全编程、定期测试、监控、访问控制和事件响应计划。测试模型的对抗行为。如果发生故障或故障,将实施紧急程序以限制损失。我们记录已知漏洞并提供补丁。
SCANDIC 集团的人工智能项目旨在为气候和社会做出积极贡献。我们在训练和运行模型时关注能源消耗,并依赖高效的算法和可再生能源。我们评估对就业、教育和社会结构的潜在影响,并促进负责任的创新,以实现包容性增长。
人工智能系统的整个生命周期都受到监控。我们衡量绩效、公平性、安全性以及对道德要求的遵守情况。偏差或不良影响会导致调整或关闭。审计结果、事件和用户反馈都被纳入进一步的开发中。人工智能道德声明会定期审查并适应新技术、法律要求和社会期望。