
SCANDIC GROUP neredeyse tüm iş alanlarında yapay zeka (AI) ve algoritmik sistemler kullanıyor: editoryal öneri sistemleri ve medyada otomatik çeviri; Finansal ticarette yüksek frekanslı ve algoritmik ticaret; Ödeme işlemlerinde dolandırıcılık tespiti ve puanlama; Kitlesel fonlamada akıllı sözleşme platformları; Mobilitede rota optimizasyonu; sağlık hizmetlerinde teşhis desteği; ve eğlence ve yaşam tarzı hizmetlerinde kişiselleştirilmiş deneyimler. Uluslararası alanda faaliyet gösteren bir şirketler grubu olarak - temsil edilen SCANDIC VARLIKLAR FZCO ve SCANDIC GÜVEN GRUBU LLC ile işbirliği içinde Legier Beteiligungs mbH – Yapay zekayı sorumlu, şeffaf ve temel haklara uygun şekilde kullanmaya kararlıyız. Bu yapay zeka etik beyanı, SCANDIC GROUP'ta yapay zekanın geliştirilmesi, satın alınması, işletilmesi ve kullanımına yönelik temel değerleri, süreçleri ve kontrol mekanizmalarını formüle etmektedir. Uyumluluk, kurumsal yönetim, veri koruma, tedarik zinciri ve insan hakları politikasına ilişkin mevcut yönergelerimizi temel alır ve tüm iş alanları için bağlayıcı bir kılavuzu temsil eder.
Güvenilir yapay zeka için uluslararası en iyi uygulamalara rehberlik ediyoruz. Sistemlerimiz insanlara hizmet etmeli, onların haklarına saygı göstermeli ve toplumu güçlendirmelidir. Yedi temel prensip merkezidir:
Açık yönetişim yapıları tüm yapay zeka projeleri için geçerlidir. Grup çapında bir yapay zeka komitesi stratejik kontrolü sağlar ve standartları belirler. Proje ekipleri risk değerlendirmeleri yapmalı, dokümantasyon oluşturmalı ve onayları almalıdır. Veri koruma görevlisi ve uyum ekibi erken bir aşamada sürece dahil olur. Dört göz prensibi geçerlidir; Kritik kararlar disiplinler arası ekipler tarafından gözden geçirilir.
AB Yapay Zeka Yasasına, Genel Veri Koruma Yönetmeliğine, sektöre özel düzenlemelere (örneğin tıbbi cihaz ve havacılık yasası) ve faaliyet gösterdiğimiz ülkelerin ulusal yasalarına uyarız. Yapay zeka uygulamaları riske göre (düşük, yüksek, kabul edilemez) sınıflandırılır ve ilgili uyumluluk gereklilikleri dikkate alınır. Yüksek riskli prosedürler için risk ve etki değerlendirmeleri, kalite yönetimi ve dış denetimler yapılmaktadır. Yapay zeka etiğine ilişkin OECD ve UNESCO tavsiyeleri gibi uluslararası kuralları da dikkate alıyoruz.
Yapay zeka verilere dayanır. Yalnızca amaçlanan amaç için gerekli olan verileri topluyoruz ve mümkün olduğunda bunları anonimleştiriyor veya takma ad veriyoruz. Eğitim, doğrulama ve test veri setleri kalite, temsiliyet ve önyargı açısından kontrol edilir. Veri kaynaklarını, mülkiyet haklarını ve lisans koşullarını belgeliyoruz. Kişisel veriler, silme kavramları ve erişim kontrolleri dahil olmak üzere GDPR'ye uygun olarak işlenir.
Teknik olarak mümkün ve yasal olarak gerekli olduğu durumlarda şeffaf modeller ve açıklanabilir sonuçlar sağlıyoruz. Kullanıcılara yapay zekanın kullanılıp kullanılmadığı ve nasıl kullanıldığı hakkında bilgi sağlıyoruz. Kritik uygulamalar için (örn. kredi verme, ilaç) karar mantığına ilişkin anlaşılır açıklamalar oluşturulur. Dokümantasyon veriler, modeller, parametreler, testler ve uygulama limitleri hakkında bilgi içerir.
Çeşitli veri setleri, algoritma denetimleri, adalet bilincine sahip modelleme ve sürekli etki ölçümü gibi önlemler aracılığıyla sistematik önyargıları tespit ediyor ve azaltıyoruz. Farklı kullanıcı gruplarına (dil, kültür, yetenekler) uygun tasarımlar sunarak erişilebilirliği teşvik ediyoruz. Ayrımcı veya zararlı içerik kaldırılacaktır.
Bireyler üzerinde önemli etkisi olan kararlar (örneğin finans, sağlık hizmetleri, personel seçimi alanlarında) yalnızca yapay zeka tarafından alınmamalıdır. Her kritik süreçte insan kontrolünü esas alıyoruz: Çalışanlar girişleri düzeltebilir, kararları geçersiz kılabilir ve sistemleri kapatabilir. Çalışanlarımızı yapay zeka sistemlerinin güvenli kullanımı ve anlaşılması konusunda eğitiyoruz.
Yapay zeka sistemlerimiz saldırılara ve manipülasyona karşı korunmaktadır. Önlemler arasında güvenli programlama, düzenli testler, izleme, erişim kontrolleri ve olay müdahale planları yer alır. Modeller düşmanca davranışlar açısından test edilir. Arıza veya arıza durumlarında hasarı sınırlamak için acil durum süreçleri uygulanır. Bilinen güvenlik açıklarını belgeliyor ve yamalar sağlıyoruz.
SCANDIC GROUP'un yapay zeka projelerinin iklime ve topluma olumlu katkı sağlaması amaçlanıyor. Modelleri eğitirken ve çalıştırırken enerji tüketimine dikkat ediyor, verimli algoritmalara ve yenilenebilir enerji kaynaklarına güveniyoruz. İstihdam, eğitim ve sosyal yapılar üzerindeki potansiyel etkileri değerlendiriyor ve kapsayıcı büyümeyi mümkün kılan sorumlu inovasyonu destekliyoruz.
Yapay zeka sistemleri tüm yaşam döngüleri boyunca izlenir. Performansı, adaleti, güvenliği ve etik gerekliliklere uyumu ölçüyoruz. Sapmalar veya istenmeyen etkiler, ayarlamalara veya kapatmaya neden olur. Denetimlerden, olaylardan ve kullanıcılardan gelen geri bildirimlerden elde edilen bulgular daha sonraki geliştirme çalışmalarına dahil edilir. Yapay zeka etik beyanı düzenli olarak gözden geçirilmekte ve yeni teknolojilere, yasal gerekliliklere ve toplumsal beklentilere göre uyarlanmaktadır.