
O GRUPO SCANDIC utiliza inteligência artificial (IA) e sistemas algorítmicos em quase todas as áreas de negócios: sistemas de recomendação editorial e tradução automatizada na mídia; Negociação algorítmica e de alta frequência em negociações financeiras; Detecção de fraude e pontuação em transações de pagamento; Plataformas de contratos inteligentes em crowdfunding; Otimização de rotas em mobilidade; apoio diagnóstico em saúde; e experiências personalizadas em serviços de lazer e estilo de vida. Como grupo de empresas que operam internacionalmente - representado pela ATIVOS SCANDIC FZCO e o GRUPO SCANDIC TRUST LLC em cooperação com o Legier Beteiligungs mbH – estamos empenhados em utilizar a IA de forma responsável, transparente e de acordo com os direitos fundamentais. Esta declaração de ética em IA formula valores, processos e mecanismos de controle fundamentais para o desenvolvimento, aquisição, operação e uso de IA no GRUPO SCANDIC. Baseia-se nas nossas diretrizes existentes sobre conformidade, governança corporativa, proteção de dados, cadeia de fornecimento e política de direitos humanos e representa uma diretriz vinculativa para todas as áreas de negócios.
Somos guiados pelas melhores práticas internacionais para uma IA confiável. Os nossos sistemas devem servir as pessoas, respeitar os seus direitos e fortalecer a sociedade. Sete princípios básicos são centrais:
Estruturas de governação claras aplicam-se a todos os projetos de IA. Um comitê de IA que abrange todo o grupo garante o controle estratégico e define padrões. As equipes do projeto devem realizar avaliações de risco, criar documentação e obter aprovações. O responsável pela proteção de dados e a equipa de conformidade são envolvidos numa fase inicial. Aplica-se o princípio dos quatro olhos; As decisões críticas são revisadas por equipes interdisciplinares.
Cumprimos a Lei de IA da UE, o Regulamento Geral de Proteção de Dados, regulamentos específicos do setor (por exemplo, legislação sobre dispositivos médicos e aviação) e leis nacionais dos países em que operamos. As aplicações de IA são classificadas de acordo com o risco (baixo, alto, inaceitável) e atendendo aos correspondentes requisitos de conformidade. Avaliações de riscos e impactos, gestão da qualidade e auditorias externas são realizadas para procedimentos de alto risco. Também prestamos atenção aos códigos internacionais, como as recomendações da OCDE e da UNESCO sobre ética na IA.
A IA é baseada em dados. Apenas recolhemos os dados necessários à finalidade pretendida e os anonimizamos ou pseudonimizamos sempre que possível. Os conjuntos de dados de treinamento, validação e teste são verificados quanto à qualidade, representatividade e viés. Documentamos fontes de dados, direitos de propriedade e condições de licença. Os dados pessoais são processados de acordo com o GDPR, incluindo conceitos de exclusão e controles de acesso.
Sempre que for tecnicamente possível e legalmente exigido, garantimos modelos transparentes e resultados explicáveis. Fornecemos aos usuários informações sobre se e como a IA é usada. Para aplicações críticas (por exemplo, empréstimos, medicamentos), são geradas explicações compreensíveis da lógica de decisão. A documentação contém informações sobre dados, modelos, parâmetros, testes e limites de aplicação.
Identificamos e reduzimos preconceitos sistemáticos por meio de medidas como: diversos conjuntos de dados, auditorias de algoritmos, modelagem consciente de justiça e medição contínua de impacto. Promovemos a acessibilidade oferecendo designs adequados para diferentes grupos de usuários (idioma, cultura, habilidades). Conteúdo discriminatório ou prejudicial será removido.
As decisões que têm um impacto significativo nos indivíduos (por exemplo, nas áreas de finanças, saúde, seleção de pessoal) não devem ser tomadas exclusivamente pela IA. Ancoramos o controle humano em todos os processos críticos: os funcionários podem corrigir entradas, anular decisões e desligar sistemas. Treinamos funcionários no uso seguro e na compreensão dos sistemas de IA.
Nossos sistemas de IA estão protegidos contra ataques e manipulação. As medidas incluem programação segura, testes regulares, monitoramento, controles de acesso e planos de resposta a incidentes. Os modelos são testados quanto ao comportamento adversário. Em caso de falhas ou mau funcionamento, são implementados processos de emergência para limitar os danos. Documentamos vulnerabilidades conhecidas e fornecemos patches.
Os projetos de IA do GRUPO SCANDIC pretendem dar uma contribuição positiva ao clima e à sociedade. Prestamos atenção ao consumo de energia ao treinar e operar modelos e contamos com algoritmos eficientes e fontes de energia renováveis. Avaliamos os potenciais impactos no emprego, na educação e nas estruturas sociais e promovemos a inovação responsável que permite o crescimento inclusivo.
Os sistemas de IA são monitorizados ao longo de todo o seu ciclo de vida. Medimos desempenho, justiça, segurança e conformidade com requisitos éticos. Desvios ou efeitos indesejáveis levam a ajustes ou desligamentos. As descobertas de auditorias, incidentes e feedback dos usuários são incorporados em desenvolvimentos futuros. A declaração de ética da IA é regularmente revista e adaptada às novas tecnologias, requisitos legais e expectativas sociais.