
SCANDIC GROUP utiliza inteligencia artificial (IA) y sistemas algorítmicos en casi todas las áreas de negocio: sistemas de recomendación editorial y traducción automática en los medios; Comercio algorítmico y de alta frecuencia en el comercio financiero; Detección y puntuación de fraude en transacciones de pago; Plataformas de contratos inteligentes en crowdfunding; Optimización de rutas en movilidad; apoyo diagnóstico en salud; y experiencias personalizadas en servicios de ocio y estilo de vida. Como grupo de empresas que opera a nivel internacional, representado por la SCANDIC ASSETS FZCO y el SCANDIC TRUST GROUP LLC en cooperación con el Legier Beteiligungs mbH – estamos comprometidos a utilizar la IA de manera responsable, transparente y de acuerdo con los derechos fundamentales. Esta declaración de ética de la IA formula valores, procesos y mecanismos de control fundamentales para el desarrollo, adquisición, operación y uso de la IA en SCANDIC GROUP. Se basa en nuestras directrices existentes sobre cumplimiento, gobierno corporativo, protección de datos, cadena de suministro y política de derechos humanos y representa una directriz vinculante para todas las áreas comerciales.
Nos guiamos por las mejores prácticas internacionales para una IA confiable. Nuestros sistemas deben servir a las personas, respetar sus derechos y fortalecer la sociedad. Siete principios básicos son centrales:
Se aplican estructuras de gobernanza claras a todos los proyectos de IA. Un comité de IA de todo el grupo garantiza el control estratégico y establece estándares. Los equipos de proyecto deben realizar evaluaciones de riesgos, crear documentación y obtener aprobaciones. El delegado de protección de datos y el equipo de cumplimiento participan desde el principio. Se aplica el principio de los cuatro ojos; Las decisiones críticas son revisadas por equipos interdisciplinarios.
Cumplimos con la Ley de IA de la UE, el Reglamento general de protección de datos, las regulaciones específicas de la industria (por ejemplo, la ley de dispositivos médicos y aviación) y las leyes nacionales de los países en los que operamos. Las aplicaciones de IA se clasifican según el riesgo (bajo, alto, inaceptable) y según los requisitos de cumplimiento correspondientes. Para los procedimientos de alto riesgo se realizan evaluaciones de riesgos e impactos, gestión de calidad y auditorías externas. También prestamos atención a códigos internacionales como las recomendaciones de la OCDE y la UNESCO sobre ética de la IA.
La IA se basa en datos. Solo recopilamos los datos necesarios para el fin previsto y los anonimizamos o seudonimizamos siempre que sea posible. Se verifica la calidad, la representatividad y el sesgo de los conjuntos de datos de entrenamiento, validación y prueba. Documentamos fuentes de datos, derechos de propiedad y condiciones de licencia. Los datos personales se procesan de acuerdo con el RGPD, incluidos los conceptos de eliminación y controles de acceso.
Cuando sea técnicamente posible y legalmente requerido, garantizamos modelos transparentes y resultados explicables. Proporcionamos a los usuarios información sobre si se utiliza la IA y cómo. Para aplicaciones críticas (por ejemplo, préstamos, medicina) se generan explicaciones comprensibles de la lógica de decisión. La documentación contiene información sobre datos, modelos, parámetros, pruebas y límites de aplicación.
Identificamos y reducimos sesgos sistemáticos a través de medidas tales como: conjuntos de datos diversos, auditorías de algoritmos, modelos conscientes de la equidad y medición continua del impacto. Promovemos la accesibilidad ofreciendo diseños adecuados a diferentes grupos de usuarios (idioma, cultura, habilidades). Se eliminará el contenido discriminatorio o dañino.
Las decisiones que tienen un impacto significativo en las personas (por ejemplo, en las áreas de finanzas, atención médica, selección de personal) no deben ser tomadas exclusivamente por la IA. Anclamos el control humano en cada proceso crítico: los empleados pueden corregir entradas, anular decisiones y apagar sistemas. Capacitamos a los empleados en el uso seguro y la comprensión de los sistemas de IA.
Nuestros sistemas de IA están protegidos contra ataques y manipulación. Las medidas incluyen programación segura, pruebas periódicas, monitoreo, controles de acceso y planes de respuesta a incidentes. Los modelos se prueban para detectar comportamiento adversario. En caso de averías o mal funcionamiento, se implementan procesos de emergencia para limitar los daños. Documentamos vulnerabilidades conocidas y proporcionamos parches.
Los proyectos de IA de SCANDIC GROUP tienen como objetivo contribuir positivamente al clima y a la sociedad. Prestamos atención al consumo de energía al entrenar y operar modelos y confiamos en algoritmos eficientes y fuentes de energía renovables. Evaluamos los impactos potenciales en el empleo, la educación y las estructuras sociales y promovemos la innovación responsable que permita un crecimiento inclusivo.
Los sistemas de IA se monitorean durante todo su ciclo de vida. Medimos el desempeño, la equidad, la seguridad y el cumplimiento de los requisitos éticos. Las desviaciones o efectos indeseables provocan ajustes o paradas. Los resultados de auditorías, incidentes y comentarios de los usuarios se incorporan al desarrollo posterior. La declaración de ética de la IA se revisa periódicamente y se adapta a las nuevas tecnologías, los requisitos legales y las expectativas sociales.