Formulaire de contact
Votre demande a bien été envoyée.
Veuillez saisir votre nom
Merci de saisir une adresse e-mail
Le format de l’e-mail est incorrect
Veuillez saisir le nom de votre société
Veuillez saisir un message

Charte éthique de Preligens sur l’IA

← Toutes les ressources
Charte éthique de Preligens sur l’IA

En créant cette charte sur l’éthique de l’Intelligence Artificielle (IA), nous souhaitons assumer la responsabilité d’une entreprise engagée tous les jours aux côtés des forces armées et d’agences de renseignement.

Notre principe directeur est simple : l’utilisation de nos logiciels doit préserver la place de l’homme dans le processus décisionnel et l’aider à prendre des décisions plus pertinentes. Dans la pratique, cela signifie que nous exerçons un contrôle éthique significatif sur notre technologie tout au long de son cycle de vie, de la conception au retour d’expérience; et que nous appliquons des normes éthiques internationalement reconnues pour notre prospection commerciale.

Ce principe directeur se traduit par une charte en sept points que voici:

 

1) Mise en conformité

En raison de la nature de ses activités, Preligens opère dans des cadres législatifs et réglementaires nationaux ou européens en constante évolution, qui imposent le strict respect d’un certain nombre de règles spécifiques, notamment dans les domaines de l’export, de la protection des données, etc. Ces différentes normes constituent le socle de la politique de compliance de Preligens, indispensable dans notre démarche éthique globale. C’est avec le même état d’esprit que nous suivons également avec intérêt les recommandations européennes sur l’IA ainsi que les débats sur l’éthique des nouvelles technologies animés par des institutions ou organisations reconnues telles que l’Union Européenne, l’OCDE ou l’ONU.

 

2) Dialogue ouvert entre dirigeants et employés

Nous nous assurons que notre personnel est sensibilisé aux enjeux éthiques de l’IA. Des ingénieurs développant les algorithmes jusqu’à ceux n’ayant pas de technicité informatique propre, chacun doit être conscient des effets des technologies appliquées aux domaines du renseignement et de la défense - leur potentiel, leur puissance, leur limite. Deux moyens permettent l’atteinte de cet objectif: une formation ciblée lors des débuts dans l’entreprise et des présentations régulières quant aux objectifs technologiques et commerciaux de la société. De cette conversation interne doit naître ensuite un échange constructif entre employés et dirigeants.

 

3) Participation au progrès de la recherche

En amont de nos efforts de recherche et de développement (R&D), nous établissons un dialogue étroit avec l’univers de la recherche scientifique pour pouvoir concilier collégialité, performance et discernement; car nous pensons qu’être à la pointe technologique induit aujourd’hui plus de précision et donc plus de confiance dans les décisions produites. Par la participation de nos ingénieurs à des séminaires académiques ou par l’embauche de chercheurs ou de docteurs, nous contribuons à l’avancement de cet état de l’art sur l’IA. Nous reversons régulièrement cette contribution via des publications, articles ou conférences. C’est la raison pour laquelle notre département dédié à la recherche en IA intègre des considérations éthiques dès les premiers pas de nos concepts innovants. 

 

4) Technologie éthique by design

Dans la phase de conception et de développement elle-même, nos équipes s’assurent que les problématiques soulevées par nos clients sont comprises de façon à ce que la technologie choisie soit adaptée au cas d’usage. Il en va ici de l'optimisation de la précision des analyses et de leur niveau d'information. Nous adaptons les technologies au niveau d’explicabilité et de criticité demandé par le cas d’usage. Nous minimisons les biais cognitifs et techniques pour ne pas déséquilibrer le processus de décision et assurer des analyses de la meilleure qualité possible. Notre culture technologique impose un test systématique du code afin de valider la pertinence de nos livrables par rapport au besoin. Nous stockons et traçons systématiquement toutes les données utilisées pour les entraînements afin de soutenir un processus d’amélioration continu des algorithmes.

 

5) Robustesse de nos systèmes

Pour protéger le fruit de ce développement, nous accroissons constamment la robustesse de nos algorithmes et de nos systèmes informatiques. Les modèles que nous livrons sont protégés et cryptés. Nous nous adaptons aux menaces cyber, notamment en entraînant nos algorithmes sur des données issues d’un système d’annotation propriétaire qui sont automatiquement tracées dans notre système d’information. Afin de rendre nos algorithmes le plus robuste possible aux erreurs, nous analysons continuellement leurs domaines de fonctionnement et leurs axes d’amélioration. Pour cela, nous les testons sur nos bases de test propriétaires de grandes tailles et représentatives des cas d’usage de nos clients. Ceci nous permet d’améliorer continuellement nos algorithmes, et de livrer de nouvelles versions toutes les six semaines aux utilisateurs.

 

6) Encadrement de notre politique commerciale

Conscient que nos technologies servent des objectifs de sécurité et de protection dans un cadre d’emploi particulièrement sensible - conscient aussi que certaines fonctionnalités de nos logiciels peuvent être détournées - nous avons établi des règles de vente strictes. Le périmètre géographique qui en découle résulte ainsi de l’application des politiques nationales, européennes et multilatérales de restrictions commerciales en matière de sécurité internationale et de lutte contre la prolifération des armements conventionnels, couplée à une évaluation et une cartographie des risques/pays. Cette évaluation peut également reposer sur des données d’organisations internationales reconnues en matière d’analyse comparative de l’état de droit et des libertés fondamentales (presse, association, croyance, vote, etc.).

 

7) Accompagnement de nos clients dans leur transition vers l’IA

Si la pertinence de nos algorithmes permet de traiter un volume toujours croissant d’informations et de capteurs, nous nous assurons de leur validation à partir de données réelles avant une explication à nos clients sur leur bon fonctionnement. Nous avons un système permettant à l’utilisateur d’annoter ses propres données et de mesurer la performance des algorithmes en autonomie. De plus, Preligens se rend disponible pour accompagner les utilisateurs à synthétiser l’analyse de la performance. Ce processus se conclut chez nous par un retour d’expérience détaillé permettant une co-construction des logiciels livrés où développeurs et utilisateurs participent ensemble au perfectionnement des produits. Nous dispensons également à nos clients une formation exhaustive afin que les utilisateurs finaux possèdent un niveau de maîtrise suffisant des techniques livrées. Ces formations sont également fournies à chaque livraison d’une nouvelle fonctionnalité.

Publié en mai 2021