بيان أخلاقيات مجموعة سكانديك للذكاء الاصطناعي

مقدمة وأمبير. موضوعي

تستخدم مجموعة SCANDIC الذكاء الاصطناعي (AI) وأنظمة الخوارزميات في جميع مجالات الأعمال تقريبًا: أنظمة التوصيات التحريرية والترجمة الآلية في وسائل الإعلام؛ التداول عالي التردد والخوارزمي في التداول المالي؛ كشف الاحتيال وتسجيله في معاملات الدفع؛ منصات العقود الذكية في التمويل الجماعي؛ تحسين الطريق في التنقل؛ الدعم التشخيصي في مجال الرعاية الصحية؛ والتجارب الشخصية في خدمات الترفيه وأسلوب الحياة. كمجموعة شركات عاملة دوليًا - ممثلة بـ سكانديك للأصول ش.م.ح و مجموعة سكانديك تراست ذ.م.م بالتعاون مع ليجيير Beteiligungs mbH – نحن ملتزمون باستخدام الذكاء الاصطناعي بطريقة مسؤولة وشفافة وبما يتوافق مع الحقوق الأساسية. يصوغ بيان أخلاقيات الذكاء الاصطناعي هذا القيم الأساسية والعمليات وآليات التحكم لتطوير وشراء وتشغيل واستخدام الذكاء الاصطناعي في مجموعة SCANDIC. إنه يعتمد على إرشاداتنا الحالية بشأن الامتثال وحوكمة الشركات وحماية البيانات وسلسلة التوريد وسياسة حقوق الإنسان ويمثل مبادئ توجيهية ملزمة لجميع مجالات الأعمال.

مكتبة نظرة عامة

1. القيم الأساسية & المبادئ التوجيهية

نحن نسترشد بأفضل الممارسات الدولية للذكاء الاصطناعي الجدير بالثقة. يجب أن تخدم أنظمتنا الناس وتحترم حقوقهم وتقوي المجتمع. سبعة مبادئ أساسية أساسية:

  • الوكالة البشرية والإشراف: يتخذ الناس القرارات النهائية. يدعم الذكاء الاصطناعي المسؤولية البشرية، لكنه لا يحل محلها.

  • القوة التقنية والأمن: يجب أن تكون الأنظمة موثوقة ومرنة ومتسامحة مع الأخطاء. تعتبر الآليات الأمنية مثل حلول النسخ الاحتياطي والتكرار وبروتوكولات الطوارئ إلزامية.

  • الخصوصية وسيادة البيانات: يتم جمع البيانات ومعالجتها وفقًا لمبادئ تقليل البيانات وتحديد الغرض والنزاهة.

  • الشفافية: يتم توثيق القرارات والعمليات بطريقة مفهومة. يجب أن يعرف المستخدمون متى يتفاعلون مع الذكاء الاصطناعي.

  • التنوع وعدم التمييز والعدالة: ويتم فحص النماذج بحثًا عن التحيز، كما يتم تصميمها لمعاملة جميع المجموعات السكانية بشكل عادل.

  • الرفاه الاجتماعي والبيئي: يجب أن تساهم تطبيقات الذكاء الاصطناعي في النمو المستدام والتقدم الاجتماعي وحماية البيئة.

  • المساءلة: يتم تحديد المسؤوليات المتعلقة بدورة حياة الذكاء الاصطناعي بأكملها؛ تتم معاقبة الانتهاكات ويتم دمج النتائج في التحسينات.

2. الحكم والإدارة المسؤوليات

تنطبق هياكل الإدارة الواضحة على جميع مشاريع الذكاء الاصطناعي. تضمن لجنة الذكاء الاصطناعي على مستوى المجموعة التحكم الاستراتيجي وتضع المعايير. يجب على فرق المشروع إجراء تقييمات المخاطر وإنشاء الوثائق والحصول على الموافقات. ويشارك مسؤول حماية البيانات وفريق الامتثال في مرحلة مبكرة. ينطبق مبدأ العيون الأربع. تتم مراجعة القرارات الحاسمة من قبل فرق متعددة التخصصات.

3. القانونية & الإطار التنظيمي

نحن نلتزم بقانون الذكاء الاصطناعي للاتحاد الأوروبي، واللائحة العامة لحماية البيانات، واللوائح الخاصة بالصناعة (مثل قانون الأجهزة الطبية والطيران) والقوانين الوطنية للدول التي نعمل فيها. يتم تصنيف تطبيقات الذكاء الاصطناعي وفقًا للمخاطر (منخفضة، عالية، غير مقبولة) وبالنظر إلى متطلبات الامتثال المقابلة. يتم إجراء تقييمات المخاطر والأثر وإدارة الجودة وعمليات التدقيق الخارجية للإجراءات عالية المخاطر. كما نولي اهتمامًا للمدونات الدولية مثل توصيات منظمة التعاون الاقتصادي والتنمية واليونسكو بشأن أخلاقيات الذكاء الاصطناعي.

4. أخلاقيات البيانات حماية البيانات

يعتمد الذكاء الاصطناعي على البيانات. نحن نجمع فقط البيانات الضرورية للغرض المقصود ونخفي هويتها أو نسميها مستعارًا كلما أمكن ذلك. ويتم فحص مجموعات بيانات التدريب والتحقق والاختبار للتأكد من الجودة والتمثيل والتحيز. نقوم بتوثيق مصادر البيانات وحقوق الملكية وشروط الترخيص. تتم معالجة البيانات الشخصية وفقًا للائحة العامة لحماية البيانات، بما في ذلك مفاهيم الحذف وضوابط الوصول.

5. الشفافية والشفافية قابلية الشرح

عندما يكون ذلك ممكنًا تقنيًا ومطلوبًا قانونيًا، فإننا نضمن نماذج شفافة ونتائج قابلة للتفسير. نحن نقدم للمستخدمين معلومات حول ما إذا كان يتم استخدام الذكاء الاصطناعي وكيفية استخدامه. بالنسبة للتطبيقات المهمة (مثل الإقراض والطب) يتم إنشاء تفسيرات مفهومة لمنطق القرار. يحتوي التوثيق على معلومات حول البيانات والنماذج والمعلمات والاختبارات وحدود التطبيق.

6. العدالة والتحيز والنزاهة الشمول

نحن نحدد التحيزات المنهجية ونحد منها من خلال تدابير مثل: مجموعات البيانات المتنوعة، وعمليات تدقيق الخوارزميات، والنمذجة الواعية بالعدالة، وقياس التأثير المستمر. نحن نعزز إمكانية الوصول من خلال تقديم تصميمات مناسبة لمجموعات المستخدمين المختلفة (اللغة والثقافة والقدرات). ستتم إزالة المحتوى التمييزي أو الضار.

7. الإشراف البشري& مسؤولية

يجب ألا يتم اتخاذ القرارات التي لها تأثير كبير على الأفراد (على سبيل المثال في مجالات المالية والرعاية الصحية واختيار الموظفين) بواسطة الذكاء الاصطناعي حصريًا. نحن نرسي التحكم البشري في كل عملية حرجة: يمكن للموظفين تصحيح الإدخالات وتجاوز القرارات وإيقاف تشغيل الأنظمة. نقوم بتدريب الموظفين على الاستخدام الآمن وفهم أنظمة الذكاء الاصطناعي.

8. المتانة & amp؛ حماية

أنظمة الذكاء الاصطناعي لدينا محمية ضد الهجمات والتلاعب. وتشمل التدابير البرمجة الآمنة، والاختبارات المنتظمة، والمراقبة، وضوابط الوصول، وخطط الاستجابة للحوادث. يتم اختبار النماذج للسلوك العدائي. في حالة حدوث أعطال أو أعطال، يتم تنفيذ عمليات الطوارئ للحد من الأضرار. نحن نوثق نقاط الضعف المعروفة ونوفر التصحيحات.

9. الاستدامة& التأثير الاجتماعي

تهدف مشاريع الذكاء الاصطناعي من مجموعة SCANDIC إلى تقديم مساهمة إيجابية في المناخ والمجتمع. نحن نهتم باستهلاك الطاقة عند تدريب النماذج وتشغيلها ونعتمد على الخوارزميات الفعالة ومصادر الطاقة المتجددة. نقوم بتقييم التأثيرات المحتملة على التوظيف والتعليم والهياكل الاجتماعية ونشجع الابتكار المسؤول الذي يتيح النمو الشامل.

10. الرصد والمراقبة التحسين المستمر

تتم مراقبة أنظمة الذكاء الاصطناعي طوال دورة حياتها بأكملها. نحن نقيس الأداء والعدالة والأمن والامتثال للمتطلبات الأخلاقية. تؤدي الانحرافات أو التأثيرات غير المرغوب فيها إلى إجراء تعديلات أو إيقاف التشغيل. يتم دمج نتائج عمليات التدقيق والحوادث وردود الفعل من المستخدمين في مزيد من التطوير. تتم مراجعة بيان أخلاقيات الذكاء الاصطناعي بانتظام وتكييفه مع التقنيات الجديدة والمتطلبات القانونية والتوقعات الاجتماعية.