論文の概要: Fingerprint Attack: Client De-Anonymization in Federated Learning
- arxiv url: http://arxiv.org/abs/2310.05960v1
- Date: Tue, 12 Sep 2023 11:10:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-15 14:26:26.913219
- Title: Fingerprint Attack: Client De-Anonymization in Federated Learning
- Title(参考訳): 指紋攻撃: フェデレーション学習におけるクライアントの匿名化
- Authors: Qiongkai Xu and Trevor Cohn and Olga Ohrimenko
- Abstract要約: フェデレートラーニング(Federated Learning)は、参加者が中央サーバと相互に信頼していない設定において、データ共有なしで協調的なトレーニングを可能にする。
そこで本稿では,サーバに送信される勾配に対して,新たな指紋認証攻撃を提案することで,匿名性を保証するのにそのような防御が適切かどうかを検討する。
- 参考スコア(独自算出の注目度): 44.77305865061609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning allows collaborative training without data sharing in
settings where participants do not trust the central server and one another.
Privacy can be further improved by ensuring that communication between the
participants and the server is anonymized through a shuffle; decoupling the
participant identity from their data. This paper seeks to examine whether such
a defense is adequate to guarantee anonymity, by proposing a novel
fingerprinting attack over gradients sent by the participants to the server. We
show that clustering of gradients can easily break the anonymization in an
empirical study of learning federated language models on two language corpora.
We then show that training with differential privacy can provide a practical
defense against our fingerprint attack.
- Abstract(参考訳): 連合学習(federated learning)は、参加者が中央サーバを信頼していない設定で、データ共有を伴わない共同トレーニングを可能にする。
参加者とサーバ間のコミュニケーションがシャッフルによって匿名化され、参加者のアイデンティティをデータから分離することで、プライバシをさらに改善することができる。
本論文は,サーバに送信される勾配に対して,新たな指紋認証攻撃を提案することにより,匿名性を保証するのに適切かどうかを検討することを目的とする。
2つの言語コーパスにおける連合言語モデルの学習実験において,勾配のクラスタリングにより匿名化が容易に破られることを示した。
次に、差分プライバシーによるトレーニングが、指紋攻撃に対する実用的な防御に役立つことを示す。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - AnoFel: Supporting Anonymity for Privacy-Preserving Federated Learning [4.086517346598676]
フェデレートされた学習により、ユーザーはプライベートデータセット上で機械学習モデルを協調的にトレーニングできる。
セキュアアグリゲーションプロトコルは、ローカルデータセットに関する情報漏洩を軽減するために使用される。
しかし、この設定は、トレーニングイテレーションにおけるユーザの参加をいまだリークしているため、センシティブな場合もある。
AnoFelは、フェデレートラーニングにおける個人的および匿名的動的参加をサポートする最初のフレームワークである。
論文 参考訳(メタデータ) (2023-06-12T02:25:44Z) - Secure Aggregation Is Not All You Need: Mitigating Privacy Attacks with
Noise Tolerance in Federated Learning [0.0]
フェデレーション学習は、AIモデルを作成しながらデータのプライバシを保護することを目的としている。
現在のアプローチは、データのプライバシを保護するためのセキュアなアグリゲーションプロトコルに大きく依存しています。
サーバが完全に悪意を持っていれば生じる可能性のある,セキュアなアグリゲーションに対する脆弱性を調査します。
論文 参考訳(メタデータ) (2022-11-10T05:13:08Z) - Protecting Split Learning by Potential Energy Loss [70.81375125791979]
我々は、分割学習の前方埋め込みからのプライバシー漏洩に焦点を当てる。
我々は、前方埋め込みをより「複雑化」させるためのエネルギー損失の可能性を提案する。
論文 参考訳(メタデータ) (2022-10-18T06:21:11Z) - Network-Level Adversaries in Federated Learning [21.222645649379672]
ネットワークレベルの敵がフェデレーション学習モデルの訓練に与える影響について検討する。
攻撃者は、慎重に選択されたクライアントからネットワークトラフィックを落とすことで、ターゲット個体数のモデル精度を著しく低下させることができることを示す。
我々は,攻撃の影響を緩和するサーバサイドディフェンスを開発し,攻撃対象の精度に肯定的に寄与する可能性のあるクライアントを特定し,アップサンプリングすることで,攻撃の影響を緩和する。
論文 参考訳(メタデータ) (2022-08-27T02:42:04Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。