SCANDIC GROUP AI倫理声明

紹介と 客観的

SCANDIC GROUP は、ほぼすべてのビジネス分野で人工知能 (AI) とアルゴリズム システムを使用しています。メディアの編集推奨システムや自動翻訳などです。金融取引における高頻度およびアルゴリズム取引。支払い取引における不正行為の検出とスコアリング。クラウドファンディングにおけるスマートコントラクトプラットフォーム。モビリティにおけるルートの最適化。医療における診断サポート。レジャーやライフスタイルサービスにおけるパーソナライズされた体験。国際的に事業を展開する企業グループとして、 スカンディック アセット FZCO そして スカンディック トラスト グループ LLC と協力して Legier Bepeiligungs mbH – 私たちは、基本的権利に従って、責任を持って透明性を持って AI を使用することに取り組んでいます。このAI倫理声明は、SCANDIC GROUPにおけるAIの開発、調達、運用、使用のための中核となる価値観、プロセス、制御メカニズムを策定します。これは、コンプライアンス、コーポレートガバナンス、データ保護、サプライチェーン、人権ポリシーに関する当社の既存のガイドラインに基づいており、すべてのビジネス分野に対する拘束力のあるガイドラインを表しています。

概要ライブラリ

1. 基本的な価値観と価値観 指針となる原則

私たちは、信頼できる AI のための国際的なベスト プラクティスに従っています。私たちのシステムは人々に奉仕し、彼らの権利を尊重し、社会を強化する必要があります。 7 つの基本原則が中心となります。

  • 人間の主体性と監督: 最終的な決断を下すのは人々です。 AI は人間の責任をサポートしますが、それに代わるものではありません。

  • 技術的な堅牢性とセキュリティ: システムは信頼性が高く、回復力があり、フォールトトレラントである必要があります。バックアップ ソリューション、冗長性、緊急プロトコルなどのセキュリティ メカニズムは必須です。

  • プライバシーとデータ主権: データの収集と処理は、データの最小化、目的の制限、完全性の原則に従って実行されます。

  • 透明度: 意思決定とプロセスはわかりやすい方法で文書化されます。ユーザーは、いつ AI と対話しているかを認識する必要があります。

  • 多様性、無差別、公平性: モデルはバイアスがチェックされ、すべての母集団を公平に扱うように設計されています。

  • 社会的および環境的福祉: AI アプリケーションは持続可能な成長、社会の進歩、環境保護に貢献しなければなりません。

  • 説明責任: AI ライフサイクル全体に対する責任が定義されています。違反は罰せられ、発見事項は改善に反映されます。

2. ガバナンスとガバナンス 責任

明確なガバナンス構造がすべての AI プロジェクトに適用されます。グループ全体の AI 委員会が戦略的な管理を確保し、基準を設定します。プロジェクト チームはリスク評価を実施し、文書を作成し、承認を取得する必要があります。データ保護責任者とコンプライアンス チームが初期段階から関与します。 4 つの目の原則が適用されます。重要な決定は、学際的なチームによって検討されます。

3. 法的および法的事項 規制の枠組み

当社は、EU AI 法、一般データ保護規則、業界固有の規制 (医療機器法や航空法など)、および当社が事業を展開している国の国内法を遵守しています。 AI アプリケーションはリスク (低、高、許容不可能) に応じて分類され、対応するコンプライアンス要件が与えられます。高リスクの手順については、リスクと影響の評価、品質管理、外部監査が実施されます。また、AI 倫理に関する OECD やユネスコの勧告などの国際規範にも注意を払っています。

4. データ倫理とデータ倫理 データ保護

AIはデータに基づいています。当社は、意図された目的に必要なデータのみを収集し、可能な限り匿名化または仮名化します。トレーニング、検証、テストのデータセットの品質、代表性、バイアスがチェックされます。データソース、所有権、ライセンス条件を文書化します。個人データは、削除の概念やアクセス制御を含む GDPR に従って処理されます。

5.透明性と透明性 説明可能性

技術的に可能で法的に義務付けられている場合には、透明性のあるモデルと説明可能な結果を​​保証します。 AIが使用されているかどうか、またどのように使用されているかに関する情報をユーザーに提供します。重要なアプリケーション (融資、医療など) の場合、意思決定ロジックのわかりやすい説明が生成されます。ドキュメントには、データ、モデル、パラメーター、テスト、およびアプリケーションの制限に関する情報が含まれています。

6. 公平性、偏見、および インクルージョン

当社は、多様なデータセット、アルゴリズム監査、公平性を意識したモデリング、継続的な影響測定などの手段を通じて、体系的なバイアスを特定し、軽減します。さまざまなユーザー グループ (言語、文化、能力) に適したデザインを提供することで、アクセシビリティを促進します。差別的または有害なコンテンツは削除されます。

7. 人間による監視と監視 責任

個人に重大な影響を与える意思決定(財務、医療、人事選考などの分野)を AI だけで行うべきではありません。当社はあらゆる重要なプロセスにおいて人間による制御を確立しています。従業員は入力内容を修正し、決定を上書きし、システムをオフにすることができます。私たちは従業員に AI システムの安全な使用と理解を訓練します。

8.堅牢性と耐久性 安全

当社の AI システムは攻撃や操作から保護されています。対策には、安全なプログラミング、定期的なテスト、モニタリング、アクセス制御、インシデント対応計画が含まれます。モデルは敵対的な動作についてテストされます。障害や誤動作が発生した場合には、被害を最小限に抑えるための緊急プロセスが実装されます。既知の脆弱性を文書化し、パッチを提供します。

9. 持続可能性と持続可能性 社会的影響

SCANDIC GROUP の AI プロジェクトは、気候と社会に積極的に貢献することを目的としています。私たちはモデルのトレーニングと運用時のエネルギー消費に注意を払い、効率的なアルゴリズムと再生可能エネルギー源に依存しています。私たちは雇用、教育、社会構造への潜在的な影響を評価し、包括的な成長を可能にする責任あるイノベーションを推進します。

10. 監視と監視 継続的な改善

AI システムはライフサイクル全体を通じて監視されます。私たちはパフォーマンス、公平性、セキュリティ、倫理要件の順守を測定します。逸脱または望ましくない影響は、調整または停止につながります。監査、インシデント、ユーザーからのフィードバックからの発見は、さらなる開発に組み込まれます。 AI の倫理声明は定期的に見直され、新しいテクノロジー、法的要件、社会的期待に適応されます。