Grand Débat National : Analyse des contributions par une intelligence artificielle, un pari risqué ?
A moins d’une semaine de la clôture des contributions du Grand Débat National, l’analyse de l’ensemble des réponses aux questions ouvertes par une solution d’intelligence artificielle (IA) représente un défi de taille. En effet, l’algorithme devra passer en revue plus d’un million de contributions sur la plateforme et ce, en moins de 2 semaines.
Ainsi, cette analyse sémantique devra classer les propositions par thèmes (« impôts », par exemple) voire par thèses (« réduire les impôts ») et ainsi alléger la charge de travail humaine. Les techniques citées bien que performantes, ne sont pas exemptes : risque de biais générés par des actions groupées, difficulté à identifier des subtilités dans les propositions (ironies, ambiguïtés, sous-entendus, synonymes…), hypothèses choisies et partis pris lors de la conception de l’algorithme IA…
Les équipes du cabinet Wavestone se sont prêtées à l’exercice en analysant les réponses à la question « En qui faites-vous le plus confiance pour vous faire représenter dans la société et pourquoi ? » (« Démocratie et citoyenneté »). Si l’analyse permet d’identifier 3 thèses principales (centralisation des pouvoirs sur le président ~ 31%, décentralisation du pouvoir aux élus locaux ~38%, perte de confiance en la politique ~31%), l’interprétation (délicate) ne peut être réalisée que par un humain et le risque de passer à côté d’un sujet voire d’interpréter faussement un résultat est élevé. Par ailleurs la mise à disposition des résultants en Open-Data est à la fois une opportunité de renforcer l’analyse par de multiples contributions croisées… et également un moyen pour des groupes d’influer sur les résultats. Une rapide analyse montre déjà des tentatives grossières d’influence.
- Quels sont les biais possibles lors de l’analyse du corpus de données ? Comment les éviter ?
- Que faudrait-il mettre en place pour s’assurer d’une analyse performante, non biaisée de l’ensemble du corpus ?
- Quelle peut être la réelle capacité d’un tel algorithme à faire ressortir des subtilités au-delà des thématiques attendues et bien représentées dans les propositions ?
- Comment s’assurer de ne pas passer à côté d’idées intéressantes mais peu proposées ?
- Quels sont les risques à ne recourir qu’à une seule méthode pour l’analyse des données ?
Maximilien Moulin, Manager, diplômé de l’INSA Lyon, a 13 ans d’expérience dans les technologies et les Systèmes d’Information. Depuis 6 ans chez Wavestone, il accompagne les Grands Groupes dans leur transformation digitale afin d’adresser les mutations technologiques auxquelles ils font face. Spécialisé sur les sujets Cloud, Data & IA il prend en charge les projets clés de ses clients dans le cadre de leur Transformation vers l’IA du cadrage stratégique au pilotage des développements d’algorithme de Machine Learning.
À propos de Wavestone Dans un monde où savoir se transformer est la clé du succès, l’ambition de Wavestone est d’apporter à ses clients des réponses uniques sur le marché, en les éclairant et les guidant dans leurs décisions les plus stratégiques. Wavestone rassemble plus de 3 000 collaborateurs présents sur 4 continents. Il figure parmi les leaders indépendants du conseil en Europe, et constitue le 1er cabinet de conseil indépendant en France. Wavestone est coté sur Euronext à Paris et est éligible au PEA-PME. Wavestone a été labellisé Great Place To Work® en 2018.