คำชี้แจงจริยธรรมของ SCANDIC GROUP AI

บทนำ & วัตถุประสงค์

SCANDIC GROUP ใช้ปัญญาประดิษฐ์ (AI) และระบบอัลกอริทึมในเกือบทุกสาขาธุรกิจ: ระบบแนะนำบรรณาธิการและการแปลอัตโนมัติในสื่อ การซื้อขายทางการเงินด้วยความถี่สูงและอัลกอริธึม การตรวจจับการฉ้อโกงและการให้คะแนนในธุรกรรมการชำระเงิน แพลตฟอร์มสัญญาอัจฉริยะในการระดมทุน การเพิ่มประสิทธิภาพเส้นทางในการเคลื่อนย้าย การสนับสนุนการวินิจฉัยในการดูแลสุขภาพ และประสบการณ์ส่วนตัวในบริการด้านการพักผ่อนและไลฟ์สไตล์ ในฐานะกลุ่มบริษัทที่ดำเนินงานในระดับสากล - เป็นตัวแทนโดย สินทรัพย์สแกนดิก FZCO และ สแกนดิค ทรัสต์ กรุ๊ป แอลแอลซี โดยความร่วมมือกับ ลีเยอร์ เบเตลิกุงส์ เอ็มบีเอช – เรามุ่งมั่นที่จะใช้ AI อย่างมีความรับผิดชอบ โปร่งใส และสอดคล้องกับสิทธิขั้นพื้นฐาน คำแถลงด้านจริยธรรมของ AI นี้กำหนดคุณค่าหลัก กระบวนการ และกลไกการควบคุมสำหรับการพัฒนา การจัดซื้อ การดำเนินการ และการใช้ AI ใน SCANDIC GROUP โดยสร้างขึ้นจากแนวปฏิบัติที่มีอยู่ของเราในด้านการปฏิบัติตามกฎระเบียบ การกำกับดูแลกิจการ การปกป้องข้อมูล ห่วงโซ่อุปทาน และนโยบายสิทธิมนุษยชน และแสดงถึงแนวปฏิบัติที่มีผลผูกพันสำหรับทุกพื้นที่ธุรกิจ

ห้องสมุดภาพรวม

1. ค่านิยมหลัก & หลักการชี้นำ

เราได้รับคำแนะนำจากแนวทางปฏิบัติที่ดีที่สุดระดับสากลสำหรับ AI ที่น่าเชื่อถือ ระบบของเราควรให้บริการผู้คน เคารพสิทธิของพวกเขา และสร้างความเข้มแข็งให้กับสังคม หลักการพื้นฐานเจ็ดประการเป็นศูนย์กลาง:

  • หน่วยงานและการกำกับดูแลของมนุษย์: ผู้คนทำการตัดสินใจขั้นสุดท้าย AI สนับสนุนแต่ไม่ได้แทนที่ความรับผิดชอบของมนุษย์

  • ความทนทานทางเทคนิคและความปลอดภัย: ระบบจะต้องเชื่อถือได้ ยืดหยุ่น และทนทานต่อข้อผิดพลาด จำเป็นต้องมีกลไกการรักษาความปลอดภัย เช่น โซลูชันการสำรองข้อมูล ความซ้ำซ้อน และโปรโตคอลฉุกเฉิน

  • ความเป็นส่วนตัวและอำนาจอธิปไตยของข้อมูล: การรวบรวมและประมวลผลข้อมูลดำเนินการตามหลักการของการลดข้อมูล การจำกัดวัตถุประสงค์ และความสมบูรณ์

  • ความโปร่งใส: การตัดสินใจและกระบวนการได้รับการบันทึกไว้ในลักษณะที่เข้าใจได้ ผู้ใช้ควรรู้เมื่อพวกเขาโต้ตอบกับ AI

  • ความหลากหลาย การไม่เลือกปฏิบัติ และความเป็นธรรม: แบบจำลองได้รับการตรวจสอบอคติและออกแบบมาเพื่อปฏิบัติต่อประชากรทั้งหมดอย่างยุติธรรม

  • ความอยู่ดีมีสุขทางสังคมและสิ่งแวดล้อม: แอปพลิเคชัน AI จะต้องมีส่วนสนับสนุนการเติบโตที่ยั่งยืน ความก้าวหน้าทางสังคม และการปกป้องสิ่งแวดล้อม

  • ความรับผิดชอบ: มีการกำหนดความรับผิดชอบสำหรับวงจรชีวิตของ AI ทั้งหมด การละเมิดจะถูกลงโทษและข้อค้นพบจะถูกรวมเข้ากับการปรับปรุง

2. การกำกับดูแล & ความรับผิดชอบ

โครงสร้างการกำกับดูแลที่ชัดเจนนำไปใช้กับโครงการ AI ทั้งหมด คณะกรรมการ AI ทั่วทั้งกลุ่มรับประกันการควบคุมเชิงกลยุทธ์และกำหนดมาตรฐาน ทีมงานโครงการจะต้องดำเนินการประเมินความเสี่ยง สร้างเอกสาร และได้รับการอนุมัติ เจ้าหน้าที่ปกป้องข้อมูลและทีมงานปฏิบัติตามกฎระเบียบมีส่วนร่วมตั้งแต่ระยะเริ่มต้น ใช้หลักการสี่ตา การตัดสินใจที่สำคัญจะได้รับการตรวจสอบโดยทีมสหวิทยาการ

3. กฎหมาย & กรอบการกำกับดูแล

เราปฏิบัติตามกฎหมาย AI ของสหภาพยุโรป กฎระเบียบให้ความคุ้มครองข้อมูลทั่วไป กฎระเบียบเฉพาะอุตสาหกรรม (เช่น กฎหมายอุปกรณ์ทางการแพทย์และการบิน) และกฎหมายของประเทศที่เราดำเนินธุรกิจ แอปพลิเคชัน AI ได้รับการจัดประเภทตามความเสี่ยง (ต่ำ สูง ไม่สามารถยอมรับได้) และเป็นไปตามข้อกำหนดการปฏิบัติตามข้อกำหนดที่เกี่ยวข้อง การประเมินความเสี่ยงและผลกระทบ การจัดการคุณภาพ และการตรวจสอบภายนอกจะดำเนินการสำหรับขั้นตอนที่มีความเสี่ยงสูง นอกจากนี้เรายังใส่ใจกับหลักปฏิบัติสากล เช่น คำแนะนำของ OECD และ UNESCO เกี่ยวกับจริยธรรมของ AI

4. จริยธรรมข้อมูล & การปกป้องข้อมูล

AI ขึ้นอยู่กับข้อมูล เรารวบรวมข้อมูลที่จำเป็นสำหรับวัตถุประสงค์ที่ตั้งใจไว้เท่านั้น และจะไม่เปิดเผยชื่อหรือนามแฝงทุกครั้งที่เป็นไปได้ ชุดข้อมูลการฝึกอบรม การตรวจสอบ และการทดสอบจะได้รับการตรวจสอบคุณภาพ ความเป็นตัวแทน และอคติ เราจัดทำเอกสารแหล่งข้อมูล สิทธิ์การเป็นเจ้าของ และเงื่อนไขใบอนุญาต ข้อมูลส่วนบุคคลได้รับการประมวลผลตาม GDPR รวมถึงแนวคิดการลบและการควบคุมการเข้าถึง

5. ความโปร่งใส & อธิบายได้

ในกรณีที่เป็นไปได้ทางเทคนิคและจำเป็นตามกฎหมาย เราจะรับรองแบบจำลองที่โปร่งใสและผลลัพธ์ที่สามารถอธิบายได้ เราให้ข้อมูลแก่ผู้ใช้ว่า AI ถูกนำมาใช้หรือไม่และอย่างไร สำหรับการใช้งานที่สำคัญ (เช่น การให้กู้ยืม การแพทย์) จะมีการสร้างคำอธิบายที่เข้าใจได้ของตรรกะการตัดสินใจ เอกสารประกอบด้วยข้อมูลเกี่ยวกับข้อมูล แบบจำลอง พารามิเตอร์ การทดสอบ และขีดจำกัดการใช้งาน

6. ความเป็นธรรม อคติ & การรวม

เราระบุและลดอคติอย่างเป็นระบบผ่านมาตรการต่างๆ เช่น ชุดข้อมูลที่หลากหลาย การตรวจสอบอัลกอริทึม การสร้างแบบจำลองที่คำนึงถึงความเป็นธรรม และการวัดผลกระทบอย่างต่อเนื่อง เราส่งเสริมการเข้าถึงโดยนำเสนอการออกแบบที่เหมาะกับกลุ่มผู้ใช้ที่แตกต่างกัน (ภาษา วัฒนธรรม ความสามารถ) เนื้อหาที่เลือกปฏิบัติหรือเป็นอันตรายจะถูกลบออก

7. การกำกับดูแลของมนุษย์ & ความรับผิดชอบ

การตัดสินใจที่มีผลกระทบสำคัญต่อบุคคล (เช่น ในด้านการเงิน การดูแลสุขภาพ การคัดเลือกบุคลากร) จะต้องไม่กระทำโดย AI แต่เพียงผู้เดียว เรายึดการควบคุมของมนุษย์ในทุกกระบวนการที่สำคัญ: พนักงานสามารถแก้ไขรายการ แทนที่การตัดสินใจ และปิดระบบได้ เราฝึกอบรมพนักงานเกี่ยวกับการใช้งานอย่างปลอดภัยและความเข้าใจในระบบ AI

8. ความทนทาน & ความปลอดภัย

ระบบ AI ของเราได้รับการปกป้องจากการโจมตีและการยักย้าย มาตรการต่างๆ ได้แก่ การตั้งโปรแกรมที่ปลอดภัย การทดสอบเป็นประจำ การตรวจสอบ การควบคุมการเข้าถึง และแผนการตอบสนองต่อเหตุการณ์ โมเดลได้รับการทดสอบพฤติกรรมที่ไม่เป็นมิตร ในกรณีที่เกิดความล้มเหลวหรือทำงานผิดปกติ จะมีการดำเนินการตามกระบวนการฉุกเฉินเพื่อจำกัดความเสียหาย เราบันทึกช่องโหว่ที่ทราบและจัดเตรียมแพตช์

9. ความยั่งยืน & ผลกระทบทางสังคม

โครงการ AI จาก SCANDIC GROUP มีวัตถุประสงค์เพื่อสร้างคุณประโยชน์เชิงบวกต่อสภาพภูมิอากาศและสังคม เราใส่ใจกับการใช้พลังงานเมื่อฝึกอบรมและใช้งานโมเดลต่างๆ และอาศัยอัลกอริธึมที่มีประสิทธิภาพและแหล่งพลังงานหมุนเวียน เราประเมินผลกระทบที่อาจเกิดขึ้นต่อการจ้างงาน การศึกษา และโครงสร้างทางสังคม และส่งเสริมนวัตกรรมที่มีความรับผิดชอบซึ่งทำให้เกิดการเติบโตอย่างครอบคลุม

10. การติดตาม & การปรับปรุงอย่างต่อเนื่อง

ระบบ AI ได้รับการตรวจสอบตลอดวงจรชีวิตทั้งหมด เราวัดผลการปฏิบัติงาน ความเป็นธรรม ความปลอดภัย และการปฏิบัติตามข้อกำหนดทางจริยธรรม การเบี่ยงเบนหรือผลกระทบที่ไม่พึงประสงค์นำไปสู่การปรับเปลี่ยนหรือปิดตัวลง ข้อค้นพบจากการตรวจสอบ เหตุการณ์ และผลตอบรับจากผู้ใช้จะรวมอยู่ในการพัฒนาเพิ่มเติม คำแถลงด้านจริยธรรมของ AI ได้รับการตรวจสอบและปรับให้เข้ากับเทคโนโลยีใหม่ ข้อกำหนดทางกฎหมาย และความคาดหวังทางสังคมเป็นประจำ