
تستخدم مجموعة SCANDIC الذكاء الاصطناعي (AI) وأنظمة الخوارزميات في جميع مجالات الأعمال تقريبًا: أنظمة التوصيات التحريرية والترجمة الآلية في وسائل الإعلام؛ التداول عالي التردد والخوارزمي في التداول المالي؛ كشف الاحتيال وتسجيله في معاملات الدفع؛ منصات العقود الذكية في التمويل الجماعي؛ تحسين الطريق في التنقل؛ الدعم التشخيصي في مجال الرعاية الصحية؛ والتجارب الشخصية في خدمات الترفيه وأسلوب الحياة. كمجموعة شركات عاملة دوليًا - ممثلة بـ سكانديك للأصول ش.م.ح و مجموعة سكانديك تراست ذ.م.م بالتعاون مع ليجيير Beteiligungs mbH – نحن ملتزمون باستخدام الذكاء الاصطناعي بطريقة مسؤولة وشفافة وبما يتوافق مع الحقوق الأساسية. يصوغ بيان أخلاقيات الذكاء الاصطناعي هذا القيم الأساسية والعمليات وآليات التحكم لتطوير وشراء وتشغيل واستخدام الذكاء الاصطناعي في مجموعة SCANDIC. إنه يعتمد على إرشاداتنا الحالية بشأن الامتثال وحوكمة الشركات وحماية البيانات وسلسلة التوريد وسياسة حقوق الإنسان ويمثل مبادئ توجيهية ملزمة لجميع مجالات الأعمال.
نحن نسترشد بأفضل الممارسات الدولية للذكاء الاصطناعي الجدير بالثقة. يجب أن تخدم أنظمتنا الناس وتحترم حقوقهم وتقوي المجتمع. سبعة مبادئ أساسية أساسية:
تنطبق هياكل الإدارة الواضحة على جميع مشاريع الذكاء الاصطناعي. تضمن لجنة الذكاء الاصطناعي على مستوى المجموعة التحكم الاستراتيجي وتضع المعايير. يجب على فرق المشروع إجراء تقييمات المخاطر وإنشاء الوثائق والحصول على الموافقات. ويشارك مسؤول حماية البيانات وفريق الامتثال في مرحلة مبكرة. ينطبق مبدأ العيون الأربع. تتم مراجعة القرارات الحاسمة من قبل فرق متعددة التخصصات.
نحن نلتزم بقانون الذكاء الاصطناعي للاتحاد الأوروبي، واللائحة العامة لحماية البيانات، واللوائح الخاصة بالصناعة (مثل قانون الأجهزة الطبية والطيران) والقوانين الوطنية للدول التي نعمل فيها. يتم تصنيف تطبيقات الذكاء الاصطناعي وفقًا للمخاطر (منخفضة، عالية، غير مقبولة) وبالنظر إلى متطلبات الامتثال المقابلة. يتم إجراء تقييمات المخاطر والأثر وإدارة الجودة وعمليات التدقيق الخارجية للإجراءات عالية المخاطر. كما نولي اهتمامًا للمدونات الدولية مثل توصيات منظمة التعاون الاقتصادي والتنمية واليونسكو بشأن أخلاقيات الذكاء الاصطناعي.
يعتمد الذكاء الاصطناعي على البيانات. نحن نجمع فقط البيانات الضرورية للغرض المقصود ونخفي هويتها أو نسميها مستعارًا كلما أمكن ذلك. ويتم فحص مجموعات بيانات التدريب والتحقق والاختبار للتأكد من الجودة والتمثيل والتحيز. نقوم بتوثيق مصادر البيانات وحقوق الملكية وشروط الترخيص. تتم معالجة البيانات الشخصية وفقًا للائحة العامة لحماية البيانات، بما في ذلك مفاهيم الحذف وضوابط الوصول.
عندما يكون ذلك ممكنًا تقنيًا ومطلوبًا قانونيًا، فإننا نضمن نماذج شفافة ونتائج قابلة للتفسير. نحن نقدم للمستخدمين معلومات حول ما إذا كان يتم استخدام الذكاء الاصطناعي وكيفية استخدامه. بالنسبة للتطبيقات المهمة (مثل الإقراض والطب) يتم إنشاء تفسيرات مفهومة لمنطق القرار. يحتوي التوثيق على معلومات حول البيانات والنماذج والمعلمات والاختبارات وحدود التطبيق.
نحن نحدد التحيزات المنهجية ونحد منها من خلال تدابير مثل: مجموعات البيانات المتنوعة، وعمليات تدقيق الخوارزميات، والنمذجة الواعية بالعدالة، وقياس التأثير المستمر. نحن نعزز إمكانية الوصول من خلال تقديم تصميمات مناسبة لمجموعات المستخدمين المختلفة (اللغة والثقافة والقدرات). ستتم إزالة المحتوى التمييزي أو الضار.
يجب ألا يتم اتخاذ القرارات التي لها تأثير كبير على الأفراد (على سبيل المثال في مجالات المالية والرعاية الصحية واختيار الموظفين) بواسطة الذكاء الاصطناعي حصريًا. نحن نرسي التحكم البشري في كل عملية حرجة: يمكن للموظفين تصحيح الإدخالات وتجاوز القرارات وإيقاف تشغيل الأنظمة. نقوم بتدريب الموظفين على الاستخدام الآمن وفهم أنظمة الذكاء الاصطناعي.
أنظمة الذكاء الاصطناعي لدينا محمية ضد الهجمات والتلاعب. وتشمل التدابير البرمجة الآمنة، والاختبارات المنتظمة، والمراقبة، وضوابط الوصول، وخطط الاستجابة للحوادث. يتم اختبار النماذج للسلوك العدائي. في حالة حدوث أعطال أو أعطال، يتم تنفيذ عمليات الطوارئ للحد من الأضرار. نحن نوثق نقاط الضعف المعروفة ونوفر التصحيحات.
تهدف مشاريع الذكاء الاصطناعي من مجموعة SCANDIC إلى تقديم مساهمة إيجابية في المناخ والمجتمع. نحن نهتم باستهلاك الطاقة عند تدريب النماذج وتشغيلها ونعتمد على الخوارزميات الفعالة ومصادر الطاقة المتجددة. نقوم بتقييم التأثيرات المحتملة على التوظيف والتعليم والهياكل الاجتماعية ونشجع الابتكار المسؤول الذي يتيح النمو الشامل.
تتم مراقبة أنظمة الذكاء الاصطناعي طوال دورة حياتها بأكملها. نحن نقيس الأداء والعدالة والأمن والامتثال للمتطلبات الأخلاقية. تؤدي الانحرافات أو التأثيرات غير المرغوب فيها إلى إجراء تعديلات أو إيقاف التشغيل. يتم دمج نتائج عمليات التدقيق والحوادث وردود الفعل من المستخدمين في مزيد من التطوير. تتم مراجعة بيان أخلاقيات الذكاء الاصطناعي بانتظام وتكييفه مع التقنيات الجديدة والمتطلبات القانونية والتوقعات الاجتماعية.