
SCANDIC GROUP از هوش مصنوعی (AI) و سیستمهای الگوریتمی تقریباً در همه حوزههای تجاری استفاده میکند: سیستمهای توصیه سرمقاله و ترجمه خودکار در رسانه؛ تجارت با فرکانس بالا و الگوریتمی در معاملات مالی؛ کشف تقلب و امتیازدهی در تراکنش های پرداخت؛ پلتفرم های قرارداد هوشمند در تامین مالی جمعی؛ بهینه سازی مسیر در تحرک؛ پشتیبانی تشخیصی در مراقبت های بهداشتی؛ و تجربیات شخصی در خدمات اوقات فراغت و سبک زندگی. به عنوان یک گروه عامل بین المللی از شرکت ها - با نمایندگی دارایی های SCANDIC FZCO و SCANDIC TRUST GROUP LLC با همکاری Legier Beteiligungs mbH - ما متعهد به استفاده مسئولانه، شفاف و مطابق با حقوق اساسی از هوش مصنوعی هستیم. این بیانیه اخلاق هوش مصنوعی، ارزشهای اصلی، فرآیندها و مکانیسمهای کنترلی را برای توسعه، تهیه، عملیات و استفاده از هوش مصنوعی در گروه SCANDIC فرموله میکند. این بر اساس دستورالعمل های موجود ما در مورد انطباق، حاکمیت شرکتی، حفاظت از داده ها، زنجیره تامین و خط مشی حقوق بشر است و یک دستورالعمل الزام آور برای همه حوزه های تجاری است.
ما توسط بهترین شیوه های بین المللی برای هوش مصنوعی قابل اعتماد هدایت می شویم. سیستم های ما باید به مردم خدمت کنند، به حقوق آنها احترام بگذارند و جامعه را تقویت کنند. هفت اصل اساسی مهم هستند:
ساختارهای شفاف حاکمیتی برای همه پروژه های هوش مصنوعی اعمال می شود. یک کمیته هوش مصنوعی در سطح گروه کنترل استراتژیک را تضمین می کند و استانداردها را تعیین می کند. تیم های پروژه باید ارزیابی ریسک، ایجاد مستندات و اخذ تاییدیه ها را انجام دهند. افسر حفاظت از داده ها و تیم انطباق در مراحل اولیه درگیر هستند. اصل چهار چشم صدق می کند. تصمیمات حیاتی توسط تیم های بین رشته ای بررسی می شود.
ما از قانون هوش مصنوعی اتحادیه اروپا، مقررات حفاظت از داده های عمومی، مقررات خاص صنعت (مانند قوانین تجهیزات پزشکی و هوانوردی) و قوانین ملی کشورهایی که در آن فعالیت می کنیم، پیروی می کنیم. برنامه های کاربردی هوش مصنوعی بر اساس ریسک (کم، زیاد، غیرقابل قبول) و با توجه به الزامات انطباق مربوطه طبقه بندی می شوند. ارزیابی ریسک و تاثیر، مدیریت کیفیت و ممیزی های خارجی برای رویه های پرخطر انجام می شود. ما همچنین به کدهای بین المللی مانند توصیه های OECD و یونسکو در مورد اخلاق هوش مصنوعی توجه می کنیم.
هوش مصنوعی بر اساس داده ها است. ما فقط دادههایی را جمعآوری میکنیم که برای هدف مورد نظر ضروری هستند و در صورت امکان آنها را ناشناس یا مستعار میکنیم. مجموعه داده های آموزش، اعتبار سنجی و آزمون از نظر کیفیت، نمایندگی و سوگیری بررسی می شوند. ما منابع داده، حقوق مالکیت و شرایط مجوز را مستند می کنیم. داده های شخصی مطابق با GDPR، از جمله مفاهیم حذف و کنترل های دسترسی، پردازش می شوند.
در صورت امکان فنی و الزام قانونی، ما از مدلهای شفاف و نتایج قابل توضیح اطمینان میدهیم. ما اطلاعاتی در مورد اینکه آیا و چگونه از هوش مصنوعی استفاده می شود به کاربران ارائه می دهیم. برای کاربردهای حیاتی (مانند وام دادن، پزشکی) توضیحات قابل فهمی از منطق تصمیم تولید می شود. مستندات حاوی اطلاعاتی در مورد داده ها، مدل ها، پارامترها، تست ها و محدودیت های کاربردی است.
ما سوگیری های سیستماتیک را از طریق اقداماتی مانند: مجموعه داده های متنوع، ممیزی الگوریتم، مدل سازی آگاهانه انصاف و اندازه گیری تأثیر مستمر شناسایی و کاهش می دهیم. ما با ارائه طرحهای مناسب برای گروههای کاربری مختلف (زبان، فرهنگ، تواناییها) دسترسی را ارتقا میدهیم. محتوای تبعیض آمیز یا مضر حذف خواهد شد.
تصمیماتی که تأثیر قابل توجهی بر افراد دارند (به عنوان مثال در زمینه های مالی، مراقبت های بهداشتی، انتخاب پرسنل) نباید منحصراً توسط هوش مصنوعی اتخاذ شوند. ما کنترل انسانی را در هر فرآیند حیاتی ثابت می کنیم: کارمندان می توانند ورودی ها را تصحیح کنند، تصمیمات را نادیده بگیرند و سیستم ها را خاموش کنند. ما کارکنان را در استفاده ایمن و درک سیستم های هوش مصنوعی آموزش می دهیم.
سیستم های هوش مصنوعی ما در برابر حملات و دستکاری محافظت می شوند. اقدامات شامل برنامه نویسی ایمن، آزمایش منظم، نظارت، کنترل های دسترسی و طرح های واکنش به حادثه است. مدل ها برای رفتار خصمانه آزمایش می شوند. در صورت خرابی یا نقص، فرآیندهای اضطراری برای محدود کردن آسیب اجرا می شود. ما آسیبپذیریهای شناخته شده را مستند میکنیم و وصلههایی ارائه میکنیم.
پروژه های هوش مصنوعی از گروه SCANDIC برای کمک به اقلیم و جامعه در نظر گرفته شده است. ما هنگام آموزش و اجرای مدلها به مصرف انرژی توجه میکنیم و بر الگوریتمهای کارآمد و منابع انرژی تجدیدپذیر تکیه میکنیم. ما تأثیرات بالقوه بر اشتغال، آموزش و ساختارهای اجتماعی را ارزیابی میکنیم و نوآوری مسئولانه را ترویج میکنیم که رشد فراگیر را ممکن میسازد.
سیستمهای هوش مصنوعی در تمام طول چرخه حیات خود نظارت میشوند. ما عملکرد، انصاف، امنیت و انطباق با الزامات اخلاقی را اندازه گیری می کنیم. انحرافات یا اثرات نامطلوب منجر به تنظیمات یا خاموش شدن می شود. یافتههای حاصل از ممیزیها، حوادث و بازخورد کاربران در توسعه بیشتر گنجانده شده است. بیانیه اخلاق هوش مصنوعی به طور منظم با فناوریهای جدید، الزامات قانونی و انتظارات اجتماعی تطبیق داده میشود.