
SCANDIC GROUP käyttää tekoälyä (AI) ja algoritmijärjestelmiä lähes kaikilla liiketoiminta-alueilla: toimitukselliset suositusjärjestelmät ja automaattinen kääntäminen tiedotusvälineissä; Korkean taajuuden ja algoritminen kaupankäynti rahoituskaupassa; Petosten havaitseminen ja pisteytys maksutapahtumissa; Älykkäät sopimusalustat joukkorahoituksessa; Reitin optimointi liikkuvuudessa; diagnostinen tuki terveydenhuollossa; sekä henkilökohtaisia kokemuksia vapaa-ajan ja elämäntapapalveluista. Kansainvälisesti toimivana yritysryhmänä, jota edustaa SCANDIC ASSETS FZCO ja SCANDIC TRUST GROUP LLC yhteistyössä Legier Beteiligungs mbH – Olemme sitoutuneet käyttämään tekoälyä vastuullisesti, läpinäkyvästi ja perusoikeuksien mukaisesti. Tämä tekoälyn eettinen lausunto muotoilee ydinarvot, prosessit ja ohjausmekanismit tekoälyn kehittämistä, hankintaa, käyttöä ja käyttöä varten SCANDIC GROUPissa. Se perustuu olemassa oleviin vaatimustenmukaisuutta, yritysjohtamista, tietosuojaa, toimitusketjua ja ihmisoikeuspolitiikkaa koskeviin ohjeisiimme ja on sitova ohje kaikille liiketoiminta-alueille.
Meitä ohjaavat kansainväliset parhaat käytännöt luotettavaan tekoälyyn. Järjestelmiemme tulee palvella ihmisiä, kunnioittaa heidän oikeuksiaan ja vahvistaa yhteiskuntaa. Keskeisiä on seitsemän perusperiaatetta:
Selkeät hallintorakenteet koskevat kaikkia tekoälyprojekteja. Konserninlaajuinen tekoälykomitea varmistaa strategisen valvonnan ja asettaa standardeja. Projektiryhmien on suoritettava riskiarvioinnit, laadittava dokumentaatio ja hankittava hyväksynnät. Tietosuojavastaava ja vaatimustenmukaisuustiimi ovat mukana varhaisessa vaiheessa. Neljän silmän periaate pätee; Kriittiset päätökset käyvät läpi monialaiset tiimit.
Noudatamme EU:n tekoälylakia, yleistä tietosuoja-asetusta, toimialakohtaisia säännöksiä (esim. lääkinnällisiä laitteita ja lentoliikennelakia) sekä toimintamaiden kansallisia lakeja. Tekoälysovellukset luokitellaan riskin mukaan (pieni, korkea, ei-hyväksyttävä) ja vastaavat vaatimustenmukaisuusvaatimukset. Riski- ja vaikutusarviointeja, laadunhallintaa ja ulkoisia auditointeja tehdään riskialttiille menettelyille. Kiinnitämme huomiota myös kansainvälisiin koodeihin, kuten OECD:n ja Unescon suosituksiin tekoälyn eettisyydestä.
AI perustuu dataan. Keräämme vain aiottuun tarkoitukseen tarpeellisia tietoja ja anonymisoimme tai pseudonyyme ne aina kun mahdollista. Koulutus-, validointi- ja testidatasarjojen laatu, edustavuus ja puolueellisuus tarkistetaan. Dokumentoimme tietolähteet, omistusoikeudet ja lisenssiehdot. Henkilötietoja käsitellään GDPR:n mukaisesti, mukaan lukien poistoehdot ja pääsynvalvonta.
Jos se on teknisesti mahdollista ja lain vaatima, varmistamme läpinäkyvät mallit ja selitettävät tulokset. Tarjoamme käyttäjille tietoa siitä, käytetäänkö tekoälyä ja miten. Kriittisiä sovelluksia varten (esim. lainaus, lääketiede) luodaan ymmärrettäviä selityksiä päätöslogiikasta. Dokumentaatio sisältää tietoa tiedoista, malleista, parametreista, testeistä ja sovellusrajoista.
Tunnistamme ja vähennämme systemaattista harhaa seuraavilla toimenpiteillä: monipuoliset tietojoukot, algoritmien auditoinnit, oikeudenmukaisuustietoinen mallinnus ja jatkuva vaikutusmittaus. Edistämme saavutettavuutta tarjoamalla eri käyttäjäryhmille (kieli, kulttuuri, kyvyt) sopivia malleja. Syrjivä tai haitallinen sisältö poistetaan.
Yksilöihin merkittävästi vaikuttavia päätöksiä (esim. rahoituksen, terveydenhuollon, henkilöstön valinnan alalla) ei saa tehdä yksinomaan tekoälyn toimesta. Ankkuroimme ihmisen ohjauksen jokaiseen kriittiseen prosessiin: työntekijät voivat korjata syötteitä, ohittaa päätöksiä ja sammuttaa järjestelmiä. Koulutamme työntekijöitä tekoälyjärjestelmien turvalliseen käyttöön ja ymmärtämiseen.
Tekoälyjärjestelmämme on suojattu hyökkäyksiltä ja manipuloinnilta. Toimenpiteisiin kuuluvat suojattu ohjelmointi, säännöllinen testaus, valvonta, kulunvalvonta ja häiriötilanteiden hallintasuunnitelmat. Mallit testataan kilpailevan toiminnan varalta. Vikojen tai toimintahäiriöiden sattuessa toteutetaan hätäprosesseja vahinkojen rajoittamiseksi. Dokumentoimme tunnetut haavoittuvuudet ja tarjoamme korjaustiedostoja.
SCANDIC GROUPin tekoälyprojektit on tarkoitettu edistämään positiivisesti ilmastoa ja yhteiskuntaa. Kiinnitämme huomiota energiankulutukseen koulutuksessa ja toimintamalleja ja luotamme tehokkaisiin algoritmeihin ja uusiutuviin energialähteisiin. Arvioimme mahdollisia vaikutuksia työllisyyteen, koulutukseen ja yhteiskuntarakenteisiin ja edistämme vastuullista innovaatiota, joka mahdollistaa osallistavan kasvun.
Tekoälyjärjestelmiä valvotaan koko niiden elinkaaren ajan. Mittaamme suorituskykyä, oikeudenmukaisuutta, turvallisuutta ja eettisten vaatimusten noudattamista. Poikkeamat tai ei-toivotut vaikutukset johtavat säätöihin tai sammuttamiseen. Tarkastuksista saadut havainnot, tapaukset ja käyttäjien palaute otetaan huomioon jatkokehityksessä. Tekoälyn eettinen lausunto tarkistetaan säännöllisesti ja mukautetaan uusiin teknologioihin, lakivaatimuksiin ja sosiaalisiin odotuksiin.