Formulaire de contact
Votre demande a bien été envoyée.
Veuillez saisir votre nom
Merci de saisir une adresse e-mail
Le format de l’e-mail est incorrect
Veuillez saisir le nom de votre société
Veuillez saisir un message

3 questions à Aurélie Jean

← Toutes les ressources
3 questions à Aurélie Jean

02/11/2021 par Preligens

Aurélie Jean, docteure en sciences et entrepreneure répond à nos 3 questions suite à la sortie de son livre: Les algorithmes font-ils la loi?

En matière d'IA, les Etats-Unis et surtout la Chine prennent une avance significative sur l'Europe. En quoi cela peut-il être problématique pour les pays d'Europe ?

Il est important de conserver une place significative sur la scène internationale de l’intelligence artificielle afin d’assurer de marquer son empreinte dans cette discipline, de faire profiter ses citoyens des prochaines avancées, mais aussi d’influencer les pratiques de développement et d’usage de ces algorithmes. En cela, le RGPD a brillamment réussi le pari d’influencer la vision de nombreuses nations sur la collecte des données à caractère personnel, à commencer par les États-Unis avec le CCPA (California Consumer Privacy Act).

Selon vous, quels moyens peuvent être utilisés pour diffuser une culture de l'IA, de ses notions, de son éthique à tous les citoyens ?

C’est un sujet multi-échelles. Tout d’abord à l’école dès la maternelle en développant chez tous les enfants de l’appétence pour les sciences afin que chaque enfant devienne un citoyen curieux et éclairé qui saura poser les bonnes questions. Je croise encore beaucoup trop d’adultes “traumatisés” (c’est le terme qu’ils utilisent) par les mathématiques ou les sciences en général. Puis, il faut que les entreprises proposent à leurs employés des formations continues à la culture scientifique et à la méthode scientifique. Les scientifiques et les ingénieurs de leur côté doivent partager leurs connaissances et leurs savoirs auprès du grand public. Aussi, les acteurs technologiques doivent être dans l’obligation morale de s’assurer que leurs utilisateurs comprennent, même dans les grandes lignes, les tenants et aboutissants du fonctionnement de leurs outils. Quelles données sont collectées, à quelle fin (suggestion de contenu, proposition de mise en relation, test d’efficacité de l’outil…) ? C’est un sujet où la cohésion sociale et la responsabilité de chacun, ont un rôle prédominant.

Dans "les algorithmes font-ils la loi?", vous expliquez notamment qu'il ne faut pas chercher à réguler les algorithmes mais à les expliquer. Qu'entendez-vous par là et cela vous paraît-il suffisant pour garantir leur bonne utilisation ?

On ne peut pas réguler un algorithme pour la simple et bonne raison qu’on ne peut bien souvent pas l’évaluer entièrement. Cela étant dit, et ce que j’explique dans mon livre, on peut et on devrait réguler les pratiques de développement, de tests et d’usages des algorithmes. On parle aussi de gouvernance algorithmique. C’est en cela que la notion d’explicabilité algorithmique - qui est un des piliers du livre - est le sujet des prochains encadrements juridiques. Exiger de la part des acteurs qu’ils appliquent des méthodes de calculs d’explicabilité pour s’assurer qu’ils maîtrisent autant que possible la logique de fonctionnement - même partielle - de leurs algorithmes, est fondamental. Ainsi on anticipe les erreurs, les bugs, voire des discriminations technologiques liées à des biais algorithmiques provenant de biais dans les jeux de données d'entraînement par exemple. Dans mon livre j’introduis de manière non exhaustive ces méthodes de calcul d’explicabilité qu’on peut appliquer avant l'entraînement - sur les jeux de données -, pendant l'entraînement, ou après une fois que l’algorithme est entraîné.

Related articles
S'inscrire à notre Newsletter Roberta
S'inscrire à notre Newsletter Roberta
S'inscrire à notre Newsletter Roberta
3 questions à Olivier Ezratty
3 questions à Olivier Ezratty
3 questions à Olivier Ezratty
3 questions à Laurence Devillers
3 questions à Laurence Devillers
3 questions à Laurence Devillers