
SCANDIC GROUP ใช้ปัญญาประดิษฐ์ (AI) และระบบอัลกอริทึมในเกือบทุกสาขาธุรกิจ: ระบบแนะนำบรรณาธิการและการแปลอัตโนมัติในสื่อ การซื้อขายทางการเงินด้วยความถี่สูงและอัลกอริธึม การตรวจจับการฉ้อโกงและการให้คะแนนในธุรกรรมการชำระเงิน แพลตฟอร์มสัญญาอัจฉริยะในการระดมทุน การเพิ่มประสิทธิภาพเส้นทางในการเคลื่อนย้าย การสนับสนุนการวินิจฉัยในการดูแลสุขภาพ และประสบการณ์ส่วนตัวในบริการด้านการพักผ่อนและไลฟ์สไตล์ ในฐานะกลุ่มบริษัทที่ดำเนินงานในระดับสากล - เป็นตัวแทนโดย สินทรัพย์สแกนดิก FZCO และ สแกนดิค ทรัสต์ กรุ๊ป แอลแอลซี โดยความร่วมมือกับ ลีเยอร์ เบเตลิกุงส์ เอ็มบีเอช – เรามุ่งมั่นที่จะใช้ AI อย่างมีความรับผิดชอบ โปร่งใส และสอดคล้องกับสิทธิขั้นพื้นฐาน คำแถลงด้านจริยธรรมของ AI นี้กำหนดคุณค่าหลัก กระบวนการ และกลไกการควบคุมสำหรับการพัฒนา การจัดซื้อ การดำเนินการ และการใช้ AI ใน SCANDIC GROUP โดยสร้างขึ้นจากแนวปฏิบัติที่มีอยู่ของเราในด้านการปฏิบัติตามกฎระเบียบ การกำกับดูแลกิจการ การปกป้องข้อมูล ห่วงโซ่อุปทาน และนโยบายสิทธิมนุษยชน และแสดงถึงแนวปฏิบัติที่มีผลผูกพันสำหรับทุกพื้นที่ธุรกิจ
เราได้รับคำแนะนำจากแนวทางปฏิบัติที่ดีที่สุดระดับสากลสำหรับ AI ที่น่าเชื่อถือ ระบบของเราควรให้บริการผู้คน เคารพสิทธิของพวกเขา และสร้างความเข้มแข็งให้กับสังคม หลักการพื้นฐานเจ็ดประการเป็นศูนย์กลาง:
โครงสร้างการกำกับดูแลที่ชัดเจนนำไปใช้กับโครงการ AI ทั้งหมด คณะกรรมการ AI ทั่วทั้งกลุ่มรับประกันการควบคุมเชิงกลยุทธ์และกำหนดมาตรฐาน ทีมงานโครงการจะต้องดำเนินการประเมินความเสี่ยง สร้างเอกสาร และได้รับการอนุมัติ เจ้าหน้าที่ปกป้องข้อมูลและทีมงานปฏิบัติตามกฎระเบียบมีส่วนร่วมตั้งแต่ระยะเริ่มต้น ใช้หลักการสี่ตา การตัดสินใจที่สำคัญจะได้รับการตรวจสอบโดยทีมสหวิทยาการ
เราปฏิบัติตามกฎหมาย AI ของสหภาพยุโรป กฎระเบียบให้ความคุ้มครองข้อมูลทั่วไป กฎระเบียบเฉพาะอุตสาหกรรม (เช่น กฎหมายอุปกรณ์ทางการแพทย์และการบิน) และกฎหมายของประเทศที่เราดำเนินธุรกิจ แอปพลิเคชัน AI ได้รับการจัดประเภทตามความเสี่ยง (ต่ำ สูง ไม่สามารถยอมรับได้) และเป็นไปตามข้อกำหนดการปฏิบัติตามข้อกำหนดที่เกี่ยวข้อง การประเมินความเสี่ยงและผลกระทบ การจัดการคุณภาพ และการตรวจสอบภายนอกจะดำเนินการสำหรับขั้นตอนที่มีความเสี่ยงสูง นอกจากนี้เรายังใส่ใจกับหลักปฏิบัติสากล เช่น คำแนะนำของ OECD และ UNESCO เกี่ยวกับจริยธรรมของ AI
AI ขึ้นอยู่กับข้อมูล เรารวบรวมข้อมูลที่จำเป็นสำหรับวัตถุประสงค์ที่ตั้งใจไว้เท่านั้น และจะไม่เปิดเผยชื่อหรือนามแฝงทุกครั้งที่เป็นไปได้ ชุดข้อมูลการฝึกอบรม การตรวจสอบ และการทดสอบจะได้รับการตรวจสอบคุณภาพ ความเป็นตัวแทน และอคติ เราจัดทำเอกสารแหล่งข้อมูล สิทธิ์การเป็นเจ้าของ และเงื่อนไขใบอนุญาต ข้อมูลส่วนบุคคลได้รับการประมวลผลตาม GDPR รวมถึงแนวคิดการลบและการควบคุมการเข้าถึง
ในกรณีที่เป็นไปได้ทางเทคนิคและจำเป็นตามกฎหมาย เราจะรับรองแบบจำลองที่โปร่งใสและผลลัพธ์ที่สามารถอธิบายได้ เราให้ข้อมูลแก่ผู้ใช้ว่า AI ถูกนำมาใช้หรือไม่และอย่างไร สำหรับการใช้งานที่สำคัญ (เช่น การให้กู้ยืม การแพทย์) จะมีการสร้างคำอธิบายที่เข้าใจได้ของตรรกะการตัดสินใจ เอกสารประกอบด้วยข้อมูลเกี่ยวกับข้อมูล แบบจำลอง พารามิเตอร์ การทดสอบ และขีดจำกัดการใช้งาน
เราระบุและลดอคติอย่างเป็นระบบผ่านมาตรการต่างๆ เช่น ชุดข้อมูลที่หลากหลาย การตรวจสอบอัลกอริทึม การสร้างแบบจำลองที่คำนึงถึงความเป็นธรรม และการวัดผลกระทบอย่างต่อเนื่อง เราส่งเสริมการเข้าถึงโดยนำเสนอการออกแบบที่เหมาะกับกลุ่มผู้ใช้ที่แตกต่างกัน (ภาษา วัฒนธรรม ความสามารถ) เนื้อหาที่เลือกปฏิบัติหรือเป็นอันตรายจะถูกลบออก
การตัดสินใจที่มีผลกระทบสำคัญต่อบุคคล (เช่น ในด้านการเงิน การดูแลสุขภาพ การคัดเลือกบุคลากร) จะต้องไม่กระทำโดย AI แต่เพียงผู้เดียว เรายึดการควบคุมของมนุษย์ในทุกกระบวนการที่สำคัญ: พนักงานสามารถแก้ไขรายการ แทนที่การตัดสินใจ และปิดระบบได้ เราฝึกอบรมพนักงานเกี่ยวกับการใช้งานอย่างปลอดภัยและความเข้าใจในระบบ AI
ระบบ AI ของเราได้รับการปกป้องจากการโจมตีและการยักย้าย มาตรการต่างๆ ได้แก่ การตั้งโปรแกรมที่ปลอดภัย การทดสอบเป็นประจำ การตรวจสอบ การควบคุมการเข้าถึง และแผนการตอบสนองต่อเหตุการณ์ โมเดลได้รับการทดสอบพฤติกรรมที่ไม่เป็นมิตร ในกรณีที่เกิดความล้มเหลวหรือทำงานผิดปกติ จะมีการดำเนินการตามกระบวนการฉุกเฉินเพื่อจำกัดความเสียหาย เราบันทึกช่องโหว่ที่ทราบและจัดเตรียมแพตช์
โครงการ AI จาก SCANDIC GROUP มีวัตถุประสงค์เพื่อสร้างคุณประโยชน์เชิงบวกต่อสภาพภูมิอากาศและสังคม เราใส่ใจกับการใช้พลังงานเมื่อฝึกอบรมและใช้งานโมเดลต่างๆ และอาศัยอัลกอริธึมที่มีประสิทธิภาพและแหล่งพลังงานหมุนเวียน เราประเมินผลกระทบที่อาจเกิดขึ้นต่อการจ้างงาน การศึกษา และโครงสร้างทางสังคม และส่งเสริมนวัตกรรมที่มีความรับผิดชอบซึ่งทำให้เกิดการเติบโตอย่างครอบคลุม
ระบบ AI ได้รับการตรวจสอบตลอดวงจรชีวิตทั้งหมด เราวัดผลการปฏิบัติงาน ความเป็นธรรม ความปลอดภัย และการปฏิบัติตามข้อกำหนดทางจริยธรรม การเบี่ยงเบนหรือผลกระทบที่ไม่พึงประสงค์นำไปสู่การปรับเปลี่ยนหรือปิดตัวลง ข้อค้นพบจากการตรวจสอบ เหตุการณ์ และผลตอบรับจากผู้ใช้จะรวมอยู่ในการพัฒนาเพิ่มเติม คำแถลงด้านจริยธรรมของ AI ได้รับการตรวจสอบและปรับให้เข้ากับเทคโนโลยีใหม่ ข้อกำหนดทางกฎหมาย และความคาดหวังทางสังคมเป็นประจำ