論文の概要: Privacy-preserving Data Filtering in Federated Learning Using Influence
Approximation
- arxiv url: http://arxiv.org/abs/2205.11518v1
- Date: Mon, 23 May 2022 13:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 13:15:47.899765
- Title: Privacy-preserving Data Filtering in Federated Learning Using Influence
Approximation
- Title(参考訳): 影響近似を用いたフェデレーション学習におけるプライバシー保護データフィルタリング
- Authors: Ljubomir Rokvic, Panayiotis Danassis, Boi Faltings
- Abstract要約: 自然にフェデレートされた学習は、品質の低いデータ、腐敗したデータ、さらには悪意のあるデータに影響を受けやすい。
データバリュエーションの従来のテクニックは、データが明らかにされないため適用できない。
本稿では,実効的な影響近似に基づくフィルタリングとスコアリングのための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 29.31246357558469
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning by nature is susceptible to low-quality, corrupted, or
even malicious data that can severely degrade the quality of the learned model.
Traditional techniques for data valuation cannot be applied as the data is
never revealed. We present a novel technique for filtering, and scoring data
based on a practical influence approximation that can be implemented in a
privacy-preserving manner. Each agent uses his own data to evaluate the
influence of another agent's batch, and reports to the center an obfuscated
score using differential privacy. Our technique allows for almost perfect
($>92\%$ recall) filtering of corrupted data in a variety of applications using
real-data. Importantly, the accuracy does not degrade significantly, even under
really strong privacy guarantees ($\varepsilon \leq 1$), especially under
realistic percentages of mislabeled data (for $15\%$ mislabeled data we only
lose $10\%$ in accuracy).
- Abstract(参考訳): 自然による連合学習は、学習モデルの質を著しく低下させる低品質、腐敗、さらには悪意のあるデータに影響を受けやすい。
データ評価の従来のテクニックは、データが明らかにされないため適用できない。
本稿では,プライバシ保存方式で実現可能な実用的影響近似に基づいて,データのフィルタリング,スコアリングを行う新しい手法を提案する。
各エージェントは自身のデータを使用して、他のエージェントのバッチの影響を評価し、差分プライバシーを使用して難解なスコアを中央に報告する。
本手法は, 実データを用いた各種アプリケーションにおいて, 破損したデータのフィルタリングをほぼ完璧に (>92\%$ recall) 行うことができる。
重要なことに、精度は著しく低下せず、特に誤ラベルされたデータの現実的なパーセンテージでは、非常に強力なプライバシー保証(\varepsilon \leq 1$)の下ではなおさらだ。
関連論文リスト
- $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Improved Generalization Guarantees in Restricted Data Models [16.193776814471768]
差分プライバシーは、適応的、または探索的、データ分析による妥当性の脅威から保護されることが知られている。
この仮定では、データの異なる部分におけるプライバシー予算の「再利用」が可能であり、オーバーフィッティングのリスクを増大させることなく、精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2022-07-20T16:04:12Z) - Individual Privacy Accounting for Differentially Private Stochastic
Gradient Descent [73.2635854205537]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Redactor: Targeted Disinformation Generation using Probabilistic
Decision Boundaries [7.303121062667876]
本研究では,特定のターゲットに対する推論攻撃の精度を下げることが目的である標的偽情報の問題について検討する。
我々は,異なるクラスとしてラベル付けされる入力空間のターゲットに最も近い点を見つけることで,この問題を最もよく解決できることを示す。
また,偽情報を現実的にするための手法も提案する。
論文 参考訳(メタデータ) (2022-02-07T01:43:25Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - ABC-FL: Anomalous and Benign client Classification in Federated Learning [0.0]
Federated Learningは、データプライバシ保護用に設計された分散機械学習フレームワークである。
ディープラーニング技術で発生した脆弱性と感受性を継承する。
非独立性およびIdentically Distributed(非IID)データのため、悪意のあるクライアントを正しく識別することは困難である。
良性クライアントが非IIDデータを持つ場合,良性クライアントから異常クライアントを検出し,分類する手法を提案する。
論文 参考訳(メタデータ) (2021-08-10T09:54:25Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。