論文の概要: Hidden Data Privacy Breaches in Federated Learning
- arxiv url: http://arxiv.org/abs/2411.18269v1
- Date: Wed, 27 Nov 2024 12:04:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:27:33.962727
- Title: Hidden Data Privacy Breaches in Federated Learning
- Title(参考訳): フェデレーションラーニングにおける隠れたデータプライバシ
- Authors: Xueluan Gong, Yuji Wang, Shuaike Li, Mengyuan Sun, Songze Li, Qian Wang, Kwok-Yan Lam, Chen Chen,
- Abstract要約: フェデレーテッド・ラーニング(FL)は、広範囲に分散したデータセットで機械学習を実行するためのパラダイムとして登場した。
近年の研究によると、攻撃者はモデル操作や勾配解析によって個人データを盗むことができる。
本稿では,悪意あるコードインジェクションを利用した新しいデータ再構成攻撃を提案する。
- 参考スコア(独自算出の注目度): 24.47236055167954
- License:
- Abstract: Federated Learning (FL) emerged as a paradigm for conducting machine learning across broad and decentralized datasets, promising enhanced privacy by obviating the need for direct data sharing. However, recent studies show that attackers can steal private data through model manipulation or gradient analysis. Existing attacks are constrained by low theft quantity or low-resolution data, and they are often detected through anomaly monitoring in gradients or weights. In this paper, we propose a novel data-reconstruction attack leveraging malicious code injection, supported by two key techniques, i.e., distinctive and sparse encoding design and block partitioning. Unlike conventional methods that require detectable changes to the model, our method stealthily embeds a hidden model using parameter sharing to systematically extract sensitive data. The Fibonacci-based index design ensures efficient, structured retrieval of memorized data, while the block partitioning method enhances our method's capability to handle high-resolution images by dividing them into smaller, manageable units. Extensive experiments on 4 datasets confirmed that our method is superior to the five state-of-the-art data-reconstruction attacks under the five respective detection methods. Our method can handle large-scale and high-resolution data without being detected or mitigated by state-of-the-art data reconstruction defense methods. In contrast to baselines, our method can be directly applied to both FedAVG and FedSGD scenarios, underscoring the need for developers to devise new defenses against such vulnerabilities. We will open-source our code upon acceptance.
- Abstract(参考訳): Federated Learning(FL)は、広範囲で分散化されたデータセットで機械学習を実行するためのパラダイムとして登場し、直接的なデータ共有の必要性を回避して、プライバシーを強化した。
しかし、最近の研究では、攻撃者はモデル操作や勾配解析によってプライベートデータを盗むことができることが示されている。
既存の攻撃は盗難量や低解像度のデータによって制限されており、勾配や重みの異常監視によってしばしば検出される。
本稿では,悪質なコードインジェクションを利用した新しいデータ再構成攻撃を提案する。
モデルに検出可能な変更を必要とする従来の手法とは異なり、本手法はパラメータ共有を用いて隠れたモデルを密かに埋め込み、センシティブなデータを体系的に抽出する。
Fibonacciをベースとしたインデックス設計では,メモリ化されたデータの効率的な構造的検索が保証される一方,ブロック分割方式では,より小さく,管理可能なユニットに分割することで,高解像度画像の処理能力を向上させる。
4つのデータセットに対する大規模な実験により,本手法は5つの検出手法による5つの最先端データ再構成攻撃よりも優れていることを確認した。
本手法は, 最先端データ再構成防衛法によって検出・緩和されることなく, 大規模・高解像度データを扱うことができる。
ベースラインとは対照的に,当社の手法はFedAVGとFedSGDの両方のシナリオに直接適用することができる。
受け入れ次第、コードをオープンソース化します。
関連論文リスト
- Defending against Data Poisoning Attacks in Federated Learning via User Elimination [0.0]
本稿では,フェデレーションモデルにおける敵ユーザの戦略的排除に焦点を当てた,新たなフレームワークを提案する。
我々は、ローカルトレーニングインスタンスが収集したメタデータと差分プライバシー技術を統合することにより、フェデレートアルゴリズムのアグリゲーションフェーズにおける異常を検出する。
提案手法の有効性を実証し,ユーザのプライバシとモデル性能を維持しながらデータ汚染のリスクを大幅に軽減する。
論文 参考訳(メタデータ) (2024-04-19T10:36:00Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Gradient Leakage Defense with Key-Lock Module for Federated Learning [14.411227689702997]
Federated Learning(FL)は、プライバシ保護機械学習アプローチとして広く採用されている。
最近の発見は、プライバシーが侵害され、共有勾配から機密情報が回収される可能性があることを示している。
秘密鍵ロックモジュールを用いて任意のモデルアーキテクチャをセキュアにするための新しい勾配リーク防御手法を提案する。
論文 参考訳(メタデータ) (2023-05-06T16:47:52Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - Gradient-based Data Subversion Attack Against Binary Classifiers [9.414651358362391]
本研究では,攻撃者がラベルのラベルに毒を盛り,システムの機能を損なうようなラベル汚染攻撃に焦点を当てる。
我々は、予測ラベルに対する微分可能凸損失関数の勾配をウォームスタートとして利用し、汚染するデータインスタンスの集合を見つけるための異なる戦略を定式化する。
本実験は,提案手法がベースラインより優れ,計算効率が高いことを示す。
論文 参考訳(メタデータ) (2021-05-31T09:04:32Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - On Provable Backdoor Defense in Collaborative Learning [35.22450536986004]
悪意のあるユーザは、モデルの収束を防ぐためにデータをアップロードしたり、隠れたバックドアを注入したりできる。
標準的なテストデータではモデルが正常に動作するため、バックドア攻撃は特に検出が難しいが、特定のバックドアキーによってトリガーされた場合、間違ったアウトプットが与えられる。
既存のサブセット集約メソッドを一般化する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-19T14:39:32Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z) - Stratified cross-validation for unbiased and privacy-preserving
federated learning [0.0]
本稿では、重複レコードの繰り返し問題に焦点をあて、もし適切に扱わなければ、モデルの性能を過度に最適化的に見積もる可能性がある。
本稿では,階層化手法を活用して,フェデレート学習環境におけるデータ漏洩を防止する検証手法である階層化クロスバリデーションを紹介し,議論する。
論文 参考訳(メタデータ) (2020-01-22T15:49:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。