L’agent conversationnel basé sur l’intelligence artificielle ChatGPT est disponible depuis novembre 2022. Toutefois, c’est en 2023 que les IA génératives se sont véritablement démocratisées en entreprise. C’est un tournant majeur, et si elles soulèvent des préoccupations en matière de confidentialité et de protection des données, ce type d’IA peut également devenir une formidable opportunité de développement et de sécurisation des organisations publiques et privées à condition de mettre en place des outils solides intégrants l’IA générative et que cette dernière soit réglementée rapidement.
En 2023, de nombreuses attaques ont déjà été causées avec l’aide de cette technologie. Dans son dernier rapport « Integrity and Transparency » trimestriel, Meta indique avoir identifié dix familles de logiciels malveillants se faisant passer pour des IA génératives dans le but de compromettre des comptes sur internet. Plus de 1000 URL malveillantes ont été détectées et bloquées au cours du mois de mars 2023 sur les plateformes de l’entité comme LinkedIn, Facebook et Instagram. De plus, les chatbots d’IA générative permettent à des cybercriminels de générer du texte pour des campagnes d’ingénierie sociale (technique de manipulation utilisée par les cybercriminels pour pousser une personne à partager des informations confidentielles) avec l’envoi d’e-mails de phishing, et peuvent aussi rédiger des lignes de code malveillant. Les générateurs d’images et de voix sont capables de produire de fausses preuves d’identité et de faciliter l’extorsion d’informations. D’après une étude de la société de cybersécurité Darktrace menée auprès de 6700 employés à travers le monde, les attaques d’ingénierie sociale ont ainsi augmenté de 135 % depuis le lancement de ChatGPT et des autres outils basés sur l’IA générative.
Du côté des aspects positifs, cette technologie peut renforcer la cybersécurité des entreprises en sécurisant davantage le code, les logiciels et systèmes d’information existants, en détectant des comportements malveillants, des menaces ou des vulnérabilités. Ce type d’IA peut également répondre à des incidents de sécurité, alerter les équipes de sécurité, les aider à prendre une décision ou entrainer les systèmes de détection en simulant des attaques.
A mesure que les offres d’IA génératives se multiplient sur le marché, de plus en plus d’entreprises intègrent des solutions utilisant ces innovations, notamment les grands acteurs du big data comme Microsoft (Security Copilot), Google (Security AI Workbench) et IBM (Security QRadar Suite), mais aussi des spécialistes de la cybersécurité comme SentinelOne (Purple AI) ou Vectra AI.
Le nécessaire encadrement de l’IA générative passera par la mise en place d’une réglementation concernant les éditeurs de logiciels, les développeurs d’IA et son utilisation. En avril 2021, la Commission européenne avait proposé un premier projet de règlement, l’Artificial Intelligence Act (IA Act). Ce texte visait à harmoniser la réglementation européenne relative à l’IA et à protéger les données des utilisateurs finaux, sans pour autant porter atteinte au développement et à l’innovation des entreprises sur ce sujet. De plus, cette réglementation classifie les systèmes d’IA suivant leur niveau de risque et interdit l’utilisation de certaines intelligences artificielles pouvant manipuler ou surveiller de manière généralisée une population. Elle interdit également l’utilisation de contenu protégé par le droit d’auteur lors de la formation de cette technologie. Le 11 mai 2023, les eurodéputés ont finalement voté la mise en place de cette réglementation mais souhaiteraient de nouvelles interdictions aux vues du rapide développement des IA générative, telles que la reconnaissance faciale dans les lieux publics et plus de transparence.
En conclusion, l’IA générative, au-delà de représenter une menace, si elle est utilisée à bon escient, apparait aussi comme l’une des meilleures innovations pour renforcer la sécurité des entreprises, accompagner et alléger les tâches des experts en cybersécurité, et répondre en partie à la problématique du manque de talents sur le marché.
Timothée Veiras
Analyst Expert – Cybersécurité
Votre avis nous intéresse !
Vous souhaitez en discuter ou approfondir ce sujet, n’hésitez pas à contacter nos analystes !
Vous souhaitez en savoir plus ou être référencé chez Markess ?
Découvrez notre programme et agendas de la recherche :
________________________
Fondée en 1997, Markess by Exaegis est la société d’études et de conseil de référence sur le numérique en France. Le socle de recherche continue, associé aux études et au conseil sur mesure, permet aux dirigeants des entreprises et organisations publiques comme des fournisseurs de solutions d’obtenir les informations, l’accompagnement et les outils indispensables dont ils ont besoin pour saisir les grands défis, les enjeux de leur transformation digitale et atteindre leurs objectifs.