Bienvenue | NEWS

OpenAI lance Privacy Filter, un modèle open source de masquage des données en périphérie

Note de ce sujet :
  • Moyenne : 0 (0 vote(s))
  • 1
  • 2
  • 3
  • 4
  • 5
Il y a 6 heures
#1
[Image: newsbot_726e6323a797b7d37c57e98697d56c78...54518.webp]

PROTECTION DES DONNÉES PERSONNELLES AVEC PRIVACY FILTER D'OPENAI
OpenAI a annoncé le lancement de Privacy Filter, un modèle d'IA conçu pour détecter et masquer les informations personnelles identifiables dans les textes. Ce modèle open source est destiné à fonctionner comme un élément d'un processus général de "privacy-by-design" (respect de la vie privée dès la conception) plutôt que de remplacer l'examen des politiques dans les environnements hautement sensibles. Les développeurs peuvent exécuter Privacy Filter directement sur leurs propres systèmes, ce qui permet de filtrer le texte sensible avant qu'il ne quitte la machine.

Fonctionnement de Privacy Filter
Privacy Filter utilise une structure de classification des jetons qui étiquette chaque jeton d'une séquence d'entrée. Les jetons sont évalués ensemble au cours d'un seul passage avant et ne sont pas traités étape par étape. Cela permet une analyse plus rapide des documents volumineux. Le modèle contient au total 1,5 milliard de paramètres, dont 50 millions de paramètres actifs, ce qui lui permet de conserver sa capacité de détection tout en restant suffisamment compact pour fonctionner en local.

Avantages de Privacy Filter
Le modèle identifie les segments sensibles dans huit catégories, notamment les personnes physiques, les adresses, les adresses e-mail, les numéros de téléphone, les URL, les dates confidentielles, les numéros de compte et les secrets tels que les mots de passe ou les clés API. Les développeurs peuvent télécharger le modèle depuis Github et Hugging Face, puis l'exécuter localement. La documentation disponible comprend des détails sur l'architecture, les catégories de labels, les méthodes de décodage, les workflows pris en charge et les limitations connues.

Performances de Privacy Filter
OpenAI indique que Privacy Filter a été testé à l'aide de l'ensemble de données de référence PII-Masking-300k et a obtenu un score F1 de 96 %, avec une précision de 94,04 % et un rappel de 98,04 %. Les tests supplémentaires ont montré que le modèle s'adapte rapidement à des cas d'utilisation spécialisés. Privacy Filter est disponible sous licence Apache 2.0 et peut fonctionner sur du texte bruité ou de formats mixtes.

En conclusion, Privacy Filter d'OpenAI constitue un outil précieux pour prévenir les fuites de données et protéger les informations personnelles. Avec sa capacité à détecter et masquer les données sensibles, il peut aider les développeurs à créer des applications plus sécurisées et respectueuses de la vie privée.


Source : Flux Intelligence artificielle Developpez
Répondre
Outils
Atteindre :

Utilisateur(s) parcourant ce sujet : 1 visiteur(s)
×
Matrix Rain
Actif