Cisco lance un outil pour sécuriser l’IA en entreprise

(source : L’INFORMATICIEN)

Cisco a annoncé en début d’année le lancement de “Cisco AI Defense”. Cet outil réseau doit aider les entreprises à déployer leurs applications d’IA de manière sécurisée.

Cisco lance un outil pour sécuriser l’IA en entreprise

Le déploiement de l’IA en entreprise pose des défis en matière de sécurité, et d’encadrement des usages par les collaborateurs. En juillet 2024, la CNIL (Commission nationale de l’informatique et des libertés) avait publié de premières orientations pour déployer ces systèmes de manière responsable et respectueuse de la protection des données personnelles. A l’instar des autres éditeurs et entreprises technologiques, Cisco se penche aussi sur la question.

Ainsi, Cisco lancera dans le courant du mois de mars 2025 “Cisco AI Defense“. Cet outil doit aider les entreprises à garder un œil sur l’utilisation qui est faite des applications d’IA par leurs collaborateurs afin d’en garantir un déploiement sécurisé. « Intégrée au cœur du réseau, Cisco AI Defense offre une capacité unique de détection et de protection contre les menaces liées au développement et à l’utilisation des applications d’IA, sans compromis », décrit Jeetu Patel, vice-président exécutif et directeur des produits, Cisco.

Démasquer les IA utilisées en interne

Cet outil fournit plusieurs garde-fous et peut identifier les applications d’IA dans les environnements cloud publics et privés. Il valide ensuite le modèle via des tests automatisés pour détecter des vulnérabilités. En ayant une visibilité sur les applications d’IA, les équipes de sécurité peuvent ensuite ajuster leurs politiques internes en limitant l’accès des employés aux outils qui n’auraient pas été approuvés.

Pour démontrer l’urgence qu’il y a à sécuriser le déploiement de l’IA en entreprise, Cisco avance les résultats de son indice 2024 AI Readiness Index, selon lequel « 29 % des personnes concernées se disent entièrement équipées pour détecter et prévenir toute manipulation non autorisée de l’IA ».

L’un des risques les plus significatifs n’est autre que l’utilisation de données publiques en combinaison avec des données propriétaires pour entraîner les modèles d’IA, ce qui augmente les risques associés et peut occasionner des fuites de données sensibles, des biais de modèles ou l’empoisonnement des données propriétaires, du fait de données publiques inexactes ou biaisées.

Retrouvez notre revue de presse dans la rubrique actualités !