banner
Maison / Blog / Découvrir une vie privée
Blog

Découvrir une vie privée

Jun 18, 2023Jun 18, 2023

À l’ère de la prise de décision basée sur les données, les entreprises exploitent la puissance du machine learning (ML) pour obtenir des informations précieuses, gagner en efficacité opérationnelle et consolider leur avantage concurrentiel.

Bien que les développements récents en matière d’intelligence artificielle (IA) générative aient suscité une prise de conscience sans précédent du pouvoir de l’IA/ML, ils ont également mis en lumière le besoin fondamental en matière de confidentialité et de sécurité. Des groupes comme l'IAPP, Brookings et le récent cadre AI TRiSM de Gartner ont souligné les principales considérations pour les organisations qui cherchent à obtenir les résultats commerciaux uniquement disponibles grâce à l'IA sans augmenter leur profil de risque.

Au premier rang de ces impératifs se trouve la sécurité du modèle ML. S'adressant directement à ce domaine clé, l'apprentissage automatique préservant la confidentialité est apparu comme une voie permettant de garantir que les utilisateurs peuvent capitaliser sur tout le potentiel des applications de ML dans ce domaine de plus en plus important.

Les modèles d'apprentissage automatique sont des algorithmes qui traitent les données pour générer des informations significatives et éclairer les décisions commerciales critiques. Ce qui rend le ML remarquable, c’est sa capacité à apprendre et à s’améliorer continuellement. Lorsqu’un modèle est formé sur des ensembles de données nouveaux et disparates, il devient plus intelligent au fil du temps, ce qui se traduit par des informations de plus en plus précises et précieuses qui étaient auparavant inaccessibles. Ces modèles peuvent ensuite être utilisés pour générer des informations à partir des données, ce que l'on appelle évaluation ou inférence de modèle.

Pour obtenir les meilleurs résultats, les modèles doivent apprendre et/ou être exploités sur une variété de sources de données riches. Lorsque ces sources de données contiennent des informations sensibles ou exclusives, leur utilisation pour la formation ou l’évaluation/inférence de modèles d’apprentissage automatique soulève d’importants problèmes de confidentialité et de sécurité. Toute vulnérabilité du modèle lui-même devient un handicap pour l'entité qui l'utilise, ce qui signifie que cette capacité qui promettait de fournir des informations exploitables et améliorant l'activité augmente désormais le profil de risque de l'organisation.

Ce problème constitue aujourd’hui l’un des principaux obstacles à une utilisation plus large du ML. Les entreprises ont pour défi de trouver un équilibre entre les avantages du ML et la nécessité de protéger leurs intérêts et de se conformer aux exigences réglementaires et en constante évolution en matière de confidentialité.

Les vulnérabilités dans les modèles ML conduisent généralement à deux macro-catégories de vecteurs d'attaque : l'inversion de modèle et l'usurpation d'identité de modèle.

Les attaques d'inversion de modèle consistent à cibler le modèle lui-même pour effectuer une ingénierie inverse sur les données sur lesquelles il a été formé – des données probablement sensibles et donc précieuses pour l'attaquant. Cela peut inclure des informations personnelles identifiables (PII), la propriété intellectuelle (IP) et d'autres informations sensibles ou réglementées qui, si elles sont exposées, pourraient faire des ravages dans l'organisation.

L'usurpation de modèle, quant à elle, représente une forme d'apprentissage automatique contradictoire dans laquelle un attaquant tente de tromper le modèle en manipulant les données d'entrée de telle manière que le modèle prenne des décisions incorrectes alignées sur les intentions de l'attaquant. Ce processus implique d'observer attentivement ou « d'apprendre » le comportement du modèle et de modifier ensuite les données d'entrée (d'une manière souvent imperceptible) pour inciter le modèle à prendre des décisions avantageuses pour ses objectifs. Ces deux attaques ciblent les vulnérabilités liées aux pondérations des modèles, une partie essentielle d'un modèle ML. C’est pourquoi la nécessité cruciale de donner la priorité à la protection du poids des modèles a été soulignée lors de la récente discussion organisée par la Maison Blanche sur les risques liés à l’IA.

L’apprentissage automatique préservant la confidentialité utilise les avancées des technologies améliorant la confidentialité (PET) pour s’attaquer de front à ces vulnérabilités. Les PET sont une famille de technologies qui préservent et améliorent la confidentialité et la sécurité des données tout au long de leur cycle de vie de traitement, permettant ainsi une utilisation sécurisée et privée des données. Ces technologies puissantes permettent aux entreprises de chiffrer des modèles de ML sensibles, de les exécuter et/ou de les former, et d'extraire des informations précieuses tout en éliminant le risque d'exposition. Les entreprises peuvent exploiter en toute sécurité des sources de données disparates, y compris au-delà des frontières organisationnelles et des domaines de sécurité, même lorsque des intérêts concurrentiels sont en jeu.