L’engouement pour l’IA et ses promesses en matière de cybersécurité sont tempérés par certaines appréhensions et divers risques. Vous trouverez ci-dessous les points sur lesquels vous devez vous concentrer.
L’engouement pour l’IA et ses promesses en matière de cybersécurité sont tempérés par certaines appréhensions et divers risques. Vous trouverez ci-dessous les points sur lesquels vous devez vous concentrer.
Alors que se poursuit l’engouement autour de l’IA et qu’elle redessine les contours qui caractérisent les environnements de cybersécurité, les entreprises sont exposées à de nouvelles menaces et doivent relever de nouveaux défis. L’IA peut potentiellement transformer les pratiques de sécurité, mais la voie à suivre est parsemée de nombreux écueils et sources d’incertitude.
Téléchargez notre dernier eBook pour :
Pour répondre aux différents types de conséquences que peut avoir l’IA sur la cybersécurité, les RSSI doivent d’abord comprendre les enjeux, les risques et le potentiel de l’IA.
Le battage médiatique initial autour de l’IA générative a séduit de nombreuses entreprises qui se sont précipitées dans cette voie sans vraiment y réfléchir sérieusement au préalable. Un tel manque de planification est risqué, car la récompense est rarement à la hauteur des espérances suscitées.
Il s’ensuit souvent des mois d’essais, suivis d’une évaluation rétroactive, d’une dépréciation financière et parfois du départ d’un cadre (en fonction de l’ampleur des pertes). Les conséquences les plus importantes se font sentir plus tard, lorsque des débouchés potentiels ne sont pas exploités en raison du retard pris dans la mise en œuvre des capacités de l’IA générative.
À court terme, cette effervescence autour de l’IA générative ne peut que créer des désillusions, car les pressions externes visant à accroître la productivité des opérations de sécurité se heurtent à des fonctionnalités peu matures et à des flux de travail fragmentés.
Soyez vigilant aux caractéristiques communes d’une intégration de l’IA générative mal préparée :
l’utilisation de la notion «∘d’amélioration de la productivité∘» comme indicateur clé, en raison du manque d’indicateurs réels pour mesurer les avantages de l’IA générative et son incidence sur l’entreprise, ainsi que les prix élevés des éléments complémentaires nécessaires à l’exploitation de l’IA
Difficulté à intégrer les assistants IA dans les flux de collaboration au sein des équipes chargées des opérations de sécurité ou avec un prestataire de services opérationnels de sécurité
Lassitude quant au nombre de requêtes : présence d’un trop grand nombre d’outils offrant une interface interactive pour effectuer des requêtes sur les menaces et les incidents
Pour lutter contre les prétentions exagérées en matière d’IA, établissez une feuille de route. Prenez en compte toutes les possibilités, en équilibrant les contraintes de la cybersécurité et les espoirs suscités par l’IA générative :
Adoptez une approche pluriannuelle. Commencez par la sécurité des applications et les opérations de sécurité, puis intégrez progressivement les offres de l’IA générative lorsqu’elles permettent d’enrichir les flux de travail de sécurité.
Posez-vous la question «∘Est-ce que cela en vaut la peine ?∘» Fixez des attentes pour vos investissements et évaluez les résultats en fonction de ces objectifs. Évaluez les avantages en termes d’efficacité ainsi que les coûts. Affinez les mesures de détection et de productivité pour prendre en compte les nouvelles fonctionnalités de cybersécurité de l’IA générative.
Donnez la priorité à un renforcement des capacités du personnel par l’IA (et pas seulement à l’automatisation des tâches). Planifiez les évolutions des besoins en compétences à long terme induites par l’IA générative.
Tenez compte des enjeux liés à la protection de la confidentialité et trouvez un équilibre entre les avantages escomptés et les risques liés à l’adoption de l’IA générative dans le domaine de la sécurité.
L’IA générative n’est que la dernière d’une longue série de technologies qui promettent d’énormes gains de productivité favorisés par l’automatisation des tâches. Les précédentes tentatives d’automatisation complète des activités de sécurité complexes ont rarement été couronnées de succès et ont souvent été une source de distraction inutile.
Bien qu’il y ait des avantages à utiliser les modèles de l’IA générative et les grands modèles de langage (Large Language Models, LLM) de fournisseurs tiers, ces modèles présentent également des risques uniques pour l’utilisateur qui imposent de nouvelles pratiques en matière de sécurité. Ces risques se répartissent en trois catégories :
Détection des anomalies de contenus
«∘Hallucinations∘» ou résultats inexacts, illégaux, portant atteinte aux droits d’auteur, non désirés ou involontaires, qui compromettent la prise de décision ou nuisent à la marque.
Utilisation inacceptable ou malveillante
Contenu d’entreprise dont la gestion n’est pas assurée et qui est transmis par le biais de messages-guides/requêtes, ce qui compromet les données confidentielles saisies
Protection des données
Fuite de données, intégrité et confidentialité compromise du contenu des données utilisateur dans l’environnement hébergé du fournisseur
Incapacité à gérer les politiques de protection de la confidentialité et des données dans les environnements hébergés en externe
Difficulté à mener des évaluations des incidences sur la confidentialité et à se conformer aux réglementations régionales en raison de la nature de type «∘boîte noire∘» des modèles de tiers
Le fait est qu’une fois que les données brutes sont introduites dans un modèle, il n’y a pas de méthode permettant de les supprimer facilement, à moins de reconstruire le modèle, une opération peu pratique et extrêmement coûteuse
Sécurité des applications exploitant l’IA
Attaques par requêtes malveillantes, y compris les abus de logique d’entreprise et les injections d’invites directes et indirectes
Attaques par bases de données vectorielles
Accès des hackers aux états et aux paramètres du modèle
Les LLM et autres modèles d’IA générative hébergés en externe augmentent ces risques, car les entreprises ne peuvent pas contrôler directement leurs processus d’application ainsi que la manipulation et le stockage des données. Toutefois, les modèles hébergés sur site par l’entreprise présentent également des risques, en particulier lorsque les mesures de contrôle de la sécurité et des risques sont insuffisantes. Ces trois catégories de risques se posent aux utilisateurs pendant l’exécution des applications et des modèles d’IA.
Ironiquement, l’interface conversationnelle qui a mis l’IA générative sous les feux de la rampe est également à l’origine du risque d’échec accru de l’IA générative pour les applications internes des entreprises. Deux raisons expliquent ce risque d’échec accru :
les utilisations et le retour sur investissement. Le retour sur investissement dépend de l’utilisation de la technologie par vos employés et des avantages qu’ils en retirent. Rien ne garantit que les employés se serviront d’une interface conversationnelle. Si la proposition de valeur n’est pas claire, les employés n’intégreront pas l’IA générative dans leurs flux de travail quotidiens. Il est difficile de démontrer les avantages d’un tel système, car tout ce que vous pouvez suivre, c’est l’utilisation ; le reste est laissé à l’appréciation de l’utilisateur.
Requêtes et hallucinations. Différents utilisateurs posent la même question de différentes manières et peuvent recevoir un nombre tout aussi important de réponses différentes. La qualité de leurs sollicitations influe sur la qualité des réponses, qui peuvent parfois se révéler être des hallucinations de l’IA. Les entreprises doivent former les employés aux techniques de prompt/rédactique (techniques de rédaction orientées vers la formulation précise de requêtes), les soutenir lorsqu’ils reçoivent des réponses erronées et investir dans le prétraitement des requêtes et le traitement ultérieur des réponses afin d’atténuer ces problèmes.
Pour surmonter ces obstacles, aidez les spécialistes de la cybersécurité en leur proposant des requêtes prédéfinies en fonction de leur activité observée dans le cadre d’une tâche spécifique, au lieu de leur demander d’arrêter ce qu’ils sont en train de faire pour poser une question.
Utilisez des compléments génératifs (Generative Augment ou GA) : des compléments tels que des plug-ins ou des extensions conçus pour compléter les applications hôtes afin de surveiller l’utilisateur. Les GA prennent les données observées, ainsi que les données provenant d’autres systèmes, et les intègrent à un ensemble préprogrammé de messages-guides/requêtes qui guident les utilisateurs dans l’accomplissement de leurs tâches. Les requêtes interrogent un LLM et reçoivent des réponses dans un format prédéfini, ce qui facilite l’atténuation des hallucinations. La logique du complément valide chaque réponse avant de la transmettre à l’utilisateur. Il ne dispose pas d’interface de conversation/chat (IU).
Les clients de Gartner : Connectez-vous pour obtenir un ensemble de connaissances exploitables et d’outils sur la cybersécurité et l’IA.
L’IA appliquée au domaine de la cybersécurité désigne l’application des technologies et des techniques d’IA pour renforcer la sécurité des systèmes informatiques, des réseaux et des données afin de les protéger contre les menaces et les attaques potentielles. L’IA permet aux systèmes de cybersécurité d’analyser de grandes quantités de données, d’identifier des modèles, de détecter des anomalies et de prendre des décisions intelligentes en temps réel afin de prévenir et de détecter les cybermenaces et d’y répondre.
L’IA révolutionne la cybersécurité en améliorant la détection des menaces, en automatisant les opérations de sécurité, en renforçant l’authentification des utilisateurs et en fournissant des capacités d’analyse avancées.
Lors de l’intégration de l’IA dans l’infrastructure de cybersécurité existante, il convient de garder à l’esprit plusieurs éléments clés :
Disponibilité et qualité des données
Compatibilité et intégration
Évolutivité et performances
Explicabilité et transparence
Collaboration homme-machine
Considérations éthiques et juridiques
Formation et perfectionnement
Sélection et expertise des fournisseurs
Évaluation et atténuation des risques