بیانیه اخلاق AI SCANDIC GROUP

مقدمه & هدف

SCANDIC GROUP از هوش مصنوعی (AI) و سیستم‌های الگوریتمی تقریباً در همه حوزه‌های تجاری استفاده می‌کند: سیستم‌های توصیه سرمقاله و ترجمه خودکار در رسانه؛ تجارت با فرکانس بالا و الگوریتمی در معاملات مالی؛ کشف تقلب و امتیازدهی در تراکنش های پرداخت؛ پلتفرم های قرارداد هوشمند در تامین مالی جمعی؛ بهینه سازی مسیر در تحرک؛ پشتیبانی تشخیصی در مراقبت های بهداشتی؛ و تجربیات شخصی در خدمات اوقات فراغت و سبک زندگی. به عنوان یک گروه عامل بین المللی از شرکت ها - با نمایندگی دارایی های SCANDIC FZCO و SCANDIC TRUST GROUP LLC با همکاری Legier Beteiligungs mbH - ما متعهد به استفاده مسئولانه، شفاف و مطابق با حقوق اساسی از هوش مصنوعی هستیم. این بیانیه اخلاق هوش مصنوعی، ارزش‌های اصلی، فرآیندها و مکانیسم‌های کنترلی را برای توسعه، تهیه، عملیات و استفاده از هوش مصنوعی در گروه SCANDIC فرموله می‌کند. این بر اساس دستورالعمل های موجود ما در مورد انطباق، حاکمیت شرکتی، حفاظت از داده ها، زنجیره تامین و خط مشی حقوق بشر است و یک دستورالعمل الزام آور برای همه حوزه های تجاری است.

کتابخانه مروری

1. ارزش های اصلی & اصول راهنما

ما توسط بهترین شیوه های بین المللی برای هوش مصنوعی قابل اعتماد هدایت می شویم. سیستم های ما باید به مردم خدمت کنند، به حقوق آنها احترام بگذارند و جامعه را تقویت کنند. هفت اصل اساسی مهم هستند:

  • نمایندگی و نظارت انسانی: مردم تصمیمات نهایی را می گیرند. هوش مصنوعی از مسئولیت انسانی پشتیبانی می کند، اما جایگزین آن نمی شود.

  • استحکام فنی و امنیت: سیستم ها باید قابل اعتماد، انعطاف پذیر و مقاوم در برابر خطا باشند. مکانیسم های امنیتی مانند راه حل های پشتیبان، افزونگی ها و پروتکل های اضطراری اجباری هستند.

  • حریم خصوصی و حاکمیت داده: جمع آوری و پردازش داده ها بر اساس اصول کمینه سازی داده ها، محدودیت هدف و یکپارچگی انجام می شود.

  • شفافیت: تصمیمات و فرآیندها به شیوه ای قابل درک مستند می شوند. کاربران باید بدانند چه زمانی با هوش مصنوعی تعامل دارند.

  • تنوع، عدم تبعیض و انصاف: مدل‌ها از نظر سوگیری بررسی می‌شوند و برای رفتار منصفانه با همه جمعیت‌ها طراحی شده‌اند.

  • رفاه اجتماعی و محیطی: کاربردهای هوش مصنوعی باید به رشد پایدار، پیشرفت اجتماعی و حفاظت از محیط زیست کمک کنند.

  • مسئولیت پذیری: مسئولیت ها برای کل چرخه زندگی هوش مصنوعی تعریف شده است. تخلفات مجازات می شوند و یافته ها در بهبودها گنجانده می شوند.

2. حاکمیت & مسئولیت ها

ساختارهای شفاف حاکمیتی برای همه پروژه های هوش مصنوعی اعمال می شود. یک کمیته هوش مصنوعی در سطح گروه کنترل استراتژیک را تضمین می کند و استانداردها را تعیین می کند. تیم های پروژه باید ارزیابی ریسک، ایجاد مستندات و اخذ تاییدیه ها را انجام دهند. افسر حفاظت از داده ها و تیم انطباق در مراحل اولیه درگیر هستند. اصل چهار چشم صدق می کند. تصمیمات حیاتی توسط تیم های بین رشته ای بررسی می شود.

3. حقوقی & چارچوب نظارتی

ما از قانون هوش مصنوعی اتحادیه اروپا، مقررات حفاظت از داده های عمومی، مقررات خاص صنعت (مانند قوانین تجهیزات پزشکی و هوانوردی) و قوانین ملی کشورهایی که در آن فعالیت می کنیم، پیروی می کنیم. برنامه های کاربردی هوش مصنوعی بر اساس ریسک (کم، زیاد، غیرقابل قبول) و با توجه به الزامات انطباق مربوطه طبقه بندی می شوند. ارزیابی ریسک و تاثیر، مدیریت کیفیت و ممیزی های خارجی برای رویه های پرخطر انجام می شود. ما همچنین به کدهای بین المللی مانند توصیه های OECD و یونسکو در مورد اخلاق هوش مصنوعی توجه می کنیم.

4. اخلاق داده و amp; حفاظت از داده ها

هوش مصنوعی بر اساس داده ها است. ما فقط داده‌هایی را جمع‌آوری می‌کنیم که برای هدف مورد نظر ضروری هستند و در صورت امکان آن‌ها را ناشناس یا مستعار می‌کنیم. مجموعه داده های آموزش، اعتبار سنجی و آزمون از نظر کیفیت، نمایندگی و سوگیری بررسی می شوند. ما منابع داده، حقوق مالکیت و شرایط مجوز را مستند می کنیم. داده های شخصی مطابق با GDPR، از جمله مفاهیم حذف و کنترل های دسترسی، پردازش می شوند.

5. شفافیت & قابل توضیح

در صورت امکان فنی و الزام قانونی، ما از مدل‌های شفاف و نتایج قابل توضیح اطمینان می‌دهیم. ما اطلاعاتی در مورد اینکه آیا و چگونه از هوش مصنوعی استفاده می شود به کاربران ارائه می دهیم. برای کاربردهای حیاتی (مانند وام دادن، پزشکی) توضیحات قابل فهمی از منطق تصمیم تولید می شود. مستندات حاوی اطلاعاتی در مورد داده ها، مدل ها، پارامترها، تست ها و محدودیت های کاربردی است.

6. انصاف، تعصب و amp; شمول

ما سوگیری های سیستماتیک را از طریق اقداماتی مانند: مجموعه داده های متنوع، ممیزی الگوریتم، مدل سازی آگاهانه انصاف و اندازه گیری تأثیر مستمر شناسایی و کاهش می دهیم. ما با ارائه طرح‌های مناسب برای گروه‌های کاربری مختلف (زبان، فرهنگ، توانایی‌ها) دسترسی را ارتقا می‌دهیم. محتوای تبعیض آمیز یا مضر حذف خواهد شد.

7. نظارت انسانی و amp; مسئولیت

تصمیماتی که تأثیر قابل توجهی بر افراد دارند (به عنوان مثال در زمینه های مالی، مراقبت های بهداشتی، انتخاب پرسنل) نباید منحصراً توسط هوش مصنوعی اتخاذ شوند. ما کنترل انسانی را در هر فرآیند حیاتی ثابت می کنیم: کارمندان می توانند ورودی ها را تصحیح کنند، تصمیمات را نادیده بگیرند و سیستم ها را خاموش کنند. ما کارکنان را در استفاده ایمن و درک سیستم های هوش مصنوعی آموزش می دهیم.

8. استحکام & امنیت

سیستم های هوش مصنوعی ما در برابر حملات و دستکاری محافظت می شوند. اقدامات شامل برنامه نویسی ایمن، آزمایش منظم، نظارت، کنترل های دسترسی و طرح های واکنش به حادثه است. مدل ها برای رفتار خصمانه آزمایش می شوند. در صورت خرابی یا نقص، فرآیندهای اضطراری برای محدود کردن آسیب اجرا می شود. ما آسیب‌پذیری‌های شناخته شده را مستند می‌کنیم و وصله‌هایی ارائه می‌کنیم.

9. پایداری & تاثیر اجتماعی

پروژه های هوش مصنوعی از گروه SCANDIC برای کمک به اقلیم و جامعه در نظر گرفته شده است. ما هنگام آموزش و اجرای مدل‌ها به مصرف انرژی توجه می‌کنیم و بر الگوریتم‌های کارآمد و منابع انرژی تجدیدپذیر تکیه می‌کنیم. ما تأثیرات بالقوه بر اشتغال، آموزش و ساختارهای اجتماعی را ارزیابی می‌کنیم و نوآوری مسئولانه را ترویج می‌کنیم که رشد فراگیر را ممکن می‌سازد.

10. نظارت & بهبود مستمر

سیستم‌های هوش مصنوعی در تمام طول چرخه حیات خود نظارت می‌شوند. ما عملکرد، انصاف، امنیت و انطباق با الزامات اخلاقی را اندازه گیری می کنیم. انحرافات یا اثرات نامطلوب منجر به تنظیمات یا خاموش شدن می شود. یافته‌های حاصل از ممیزی‌ها، حوادث و بازخورد کاربران در توسعه بیشتر گنجانده شده است. بیانیه اخلاق هوش مصنوعی به طور منظم با فناوری‌های جدید، الزامات قانونی و انتظارات اجتماعی تطبیق داده می‌شود.