IA générative : vers une prolifération des Deep Fake en 2024 ?
Christophe Jolly, Regional Director Southern Europe chez Vectra AI
Les progrès enregistrés par l’IA ces derniers mois devraient en 2024 déboucher sur une recrudescence de cyberattaques à forte plus-value technologique.
Nos mémoires ont ceci de particulier qu’elles s’avèrent bien souvent sélectives. Qui se souvient qu’il y a cinq à six ans à peine l’Intelligence Artificielle (IA) pouvait apparaître comme un sujet incongru dans le milieu de la cybersécurité ? Très souvent employé comme un « buzz word », le concept d’IA était alors considéré par certains comme un gadget superflu… En 2023 tout a changé du tout au tout, et nous assistons au contraire à un très fort ancrage de l’Intelligence Artificielle dans notre quotidien, qu’il soit professionnel ou personnel. Quant aux perspectives à venir en 2024, elles sont très largement à relier au déploiement de l’IA.
Des techniques de hameçonnages de plus en plus puissantes grâce à l’IA
De quelle manière l’Intelligence Artificielle sera-t-elle mobilisée par les cybercriminels dans les mois à venir ? Tout porte à croire que les acteurs malveillants y auront largement recours afin de cibler les organisations les plus vulnérables. Cela signifie que le phishing restera la méthode d’attaque privilégiée. Dans le même temps, les cyberattaquants automatiseront sans doute leurs processus d’attaques afin de gagner du temps et d’économiser leurs ressources, dans un contexte global de ralentissement de la croissance économique des principales régions du monde. Ils mobiliseront ainsi des outils de cybercriminalité pré-packagés et se tourneront vers l’IA générative afin d’aider à la création de leurres d’hameçonnage. Qu’ils soient audios ou vidéos, ceux-ci devraient toucher de nombreuses organisations et devenir en quelque sorte une norme. De plus en plus réalistes en 2024, ces contrefaçons auront toujours le même objectif : capter les données sensibles des collaborateurs d’entreprise ainsi que des citoyens.
Prolifération des « Deep Fake »
De tels agissements nous renvoient à une question centrale : celle du maniement de l’information. En l’espèce, l’IA – et singulièrement l’IA générative – peut réaliser des prouesses dont il faut avoir conscience dès maintenant. La capacité de certains outils en termes de création de photos, de vidéos ou de sons devrait avoir en 2024 des effets très directs sur la pollution de l’écosystème de l’information. Largement disponibles, les modèles d’Intelligence Artificielle générative seront en capacité de jouer avec l’interface de programmation d’application qu’est l’API, voire de construire leurs propres modèles « from scratch », c’est-à-dire à partir de zéro. Faux sons, fausses vidéos, fictions produites en masse et appréhendées par les victimes comme de vraies informations : les « Deep Fake » se déploieront en 2024 plus que jamais, que ce soit à l’échelle de nos univers privés, de nos territoires professionnels ou de nos sociétés civiles. Ils pourraient provoquer de forts sentiments de défiance entre collègues, entre voisins, entre membres d’une même famille… et compromettre largement des secteurs tels que la santé ou la sécurité publique (liste non exhaustive !).
Nourrir les algorithmes de l’IA : une question démocratique et éthique
Particulièrement prégnant en aval, l’essor grandissant de l’IA aura également dans les mois qui viennent de fortes répercussions sur la partie amont des différents outils d’intelligence artificielle. Cette dimension du problème est moins repérée pour l’instant, mais ses effets sont potentiellement dévastateurs. De quoi est-il question ici ? Tout simplement de la manière dont l’IA générative se nourrit afin de produire des avis, des conseils, des analyses ou encore des créations. La matière informationnelle – c’est-à-dire la data – qui sert de carburant aux agents conversationnels les plus aboutis et qui se trouve moulinée par les systèmes algorithmiques n’est en effet pas neutre, et peut aisément être pervertie par de fausses informations. Générées massivement par l’IA, celles-ci sont potentiellement susceptibles d’avoir une influence déterminante sur les réponses générées par un outil tel que ChatGPT par exemple. De telles actions d’influence sont susceptibles d’avoir des répercussions sur le marketing, ciblant tel type de produit plutôt que tel autre. Elles peuvent également avoir un impact non négligeable sur les opinions publiques, à un moment où plusieurs élections majeures sont prévues dans le monde en 2024 (élections européennes, élections présidentielles aux Etats-Unis, mais aussi en Russie ou en Ukraine). Il existe donc des raisons objectives et sérieuses de considérer les effets de l’IA en 2024 avec le plus de sérieux possible…
Les mois qui viennent s’annoncent décisifs, pour les entreprises bien sûr mais aussi pour les Etats. Actuellement, nous observons que le temps économique a pris de court les gouvernements. L’IA générative peut ainsi se déployer dans de nombreux secteurs et exécuter des tâches complexes en un temps record. Dans quelle mesure des cadres législatifs pourront-ils voir le jour afin d’accompagner ce mouvement ? Ce débat sera certainement mené en 2024 dans de nombreux pays, se heurtant au passage à des approches plus ou moins strictes en matière de confidentialité des données et de résidence. Les discussions iront ainsi bon train sur une dimension encore émergente : celle de l’IA éthique.
Le sujet n’a donc pas fini de faire parler de lui…