Differentially Private Stochastic Gradient Descent
De Wikipedia, l'encyclopédie encyclopedia
Differentially Private Stochastic Gradient Descent (DP-SGD) est une technique d'optimisation qui combine des caractéristiques de la descente de gradient stochastique et de la confidentialité différentielle. Comme la descente de gradient stochastique, DP-SGD est un algorithme d'optimisation itératif qui utilise des mini-batchs pour estimer le gradient stochastique, tel qu'utilisé dans SGD pour optimiser une fonction objectif différentiable. Contrairement à SGD traditionnel, DP-SGD garantit la confidentialité différentielle dans un cadre d'apprentissage fédéré. Pour rendre un algorithme différentiellement privé, du bruit est ajouté à chaque information pouvant être observée par un adversaire. Une stratégie classique d'apprentissage fédéré consiste à ce qu'un agrégateur diffuse les paramètres courants du modèle, à chaque itération, après quoi tous les propriétaires des données calculent localement les gradients de la fonction objectif pour ce modèle global sur leurs données privées, agrègent ces gradients de manière sécurisée et envoient le gradient agrégé à l'agrégateur.
Cet article est orphelin. Moins de trois articles lui sont liés ().
Vous pouvez aider en ajoutant des liens vers [[Differentially Private Stochastic Gradient Descent]]
dans les articles relatifs au sujet.