論文の概要: Privacy-preserving Data Filtering in Federated Learning Using Influence
Approximation
- arxiv url: http://arxiv.org/abs/2205.11518v1
- Date: Mon, 23 May 2022 13:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 13:15:47.899765
- Title: Privacy-preserving Data Filtering in Federated Learning Using Influence
Approximation
- Title(参考訳): 影響近似を用いたフェデレーション学習におけるプライバシー保護データフィルタリング
- Authors: Ljubomir Rokvic, Panayiotis Danassis, Boi Faltings
- Abstract要約: 自然にフェデレートされた学習は、品質の低いデータ、腐敗したデータ、さらには悪意のあるデータに影響を受けやすい。
データバリュエーションの従来のテクニックは、データが明らかにされないため適用できない。
本稿では,実効的な影響近似に基づくフィルタリングとスコアリングのための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 29.31246357558469
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning by nature is susceptible to low-quality, corrupted, or
even malicious data that can severely degrade the quality of the learned model.
Traditional techniques for data valuation cannot be applied as the data is
never revealed. We present a novel technique for filtering, and scoring data
based on a practical influence approximation that can be implemented in a
privacy-preserving manner. Each agent uses his own data to evaluate the
influence of another agent's batch, and reports to the center an obfuscated
score using differential privacy. Our technique allows for almost perfect
($>92\%$ recall) filtering of corrupted data in a variety of applications using
real-data. Importantly, the accuracy does not degrade significantly, even under
really strong privacy guarantees ($\varepsilon \leq 1$), especially under
realistic percentages of mislabeled data (for $15\%$ mislabeled data we only
lose $10\%$ in accuracy).
- Abstract(参考訳): 自然による連合学習は、学習モデルの質を著しく低下させる低品質、腐敗、さらには悪意のあるデータに影響を受けやすい。
データ評価の従来のテクニックは、データが明らかにされないため適用できない。
本稿では,プライバシ保存方式で実現可能な実用的影響近似に基づいて,データのフィルタリング,スコアリングを行う新しい手法を提案する。
各エージェントは自身のデータを使用して、他のエージェントのバッチの影響を評価し、差分プライバシーを使用して難解なスコアを中央に報告する。
本手法は, 実データを用いた各種アプリケーションにおいて, 破損したデータのフィルタリングをほぼ完璧に (>92\%$ recall) 行うことができる。
重要なことに、精度は著しく低下せず、特に誤ラベルされたデータの現実的なパーセンテージでは、非常に強力なプライバシー保証(\varepsilon \leq 1$)の下ではなおさらだ。
関連論文リスト
- An Adaptive Differential Privacy Method Based on Federated Learning [2.86006952502785]
本稿では,フェデレート学習に基づく適応型微分プライバシー手法を提案する。
プライバシーの予算を約16%削減できるが、精度はほぼ同じだ。
論文 参考訳(メタデータ) (2024-08-13T13:08:11Z) - Federated Transfer Learning with Differential Privacy [21.50525027559563]
我々は、信頼された中央サーバを仮定することなく、各データセットに対するプライバシー保証を提供する、テキストフェデレーションによる差分プライバシーの概念を定式化する。
フェデレートされた差分プライバシは、確立されたローカルと中央の差分プライバシモデルの間の中間プライバシモデルであることを示す。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - Share Your Representation Only: Guaranteed Improvement of the
Privacy-Utility Tradeoff in Federated Learning [47.042811490685324]
この情報漏洩のリスクを減らし、最先端の差分プライベートアルゴリズムを使っても、無料ではない。
本稿では,異なるプライバシ保証を持つフェデレーションモデルにおいて,様々な当事者が協調的に洗練する表現学習の目的について考察する。
同じ小さなプライバシ予算の下で、以前の作業よりも大幅にパフォーマンスが向上するのを観察する。
論文 参考訳(メタデータ) (2023-09-11T14:46:55Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。