論文の概要: An Efficient Gradient-Based Inference Attack for Federated Learning
- arxiv url: http://arxiv.org/abs/2512.15143v1
- Date: Wed, 17 Dec 2025 07:10:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.884102
- Title: An Efficient Gradient-Based Inference Attack for Federated Learning
- Title(参考訳): フェデレート学習のための効率よいグラディエントベース推論攻撃
- Authors: Pablo Montaña-Fernández, Ines Ortega-Fernandez,
- Abstract要約: フェデレーション・ラーニング(Federated Learning)は、機械学習の設定で、直接的なデータ露出を低減し、マシンラーニングモデルのプライバシ保証を改善する。
我々は,フェデレート学習シナリオを対象とした,新しい勾配に基づくメンバシップ推論手法を提案する。
本手法では,シャドー手法を用いてトレーニングレコードのラウンドワイド勾配パターンを学習し,プライベートデータセットへのアクセスを必要としない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning is a machine learning setting that reduces direct data exposure, improving the privacy guarantees of machine learning models. Yet, the exchange of model updates between the participants and the aggregator can still leak sensitive information. In this work, we present a new gradient-based membership inference attack for federated learning scenarios that exploits the temporal evolution of last-layer gradients across multiple federated rounds. Our method uses the shadow technique to learn round-wise gradient patterns of the training records, requiring no access to the private dataset, and is designed to consider both semi-honest and malicious adversaries (aggregators or data owners). Beyond membership inference, we also provide a natural extension of the proposed attack to discrete attribute inference by contrasting gradient responses under alternative attribute hypotheses. The proposed attacks are model-agnostic, and therefore applicable to any gradient-based model and can be applied to both classification and regression settings. We evaluate the attack on CIFAR-100 and Purchase100 datasets for membership inference and on Breast Cancer Wisconsin for attribute inference. Our findings reveal strong attack performance and comparable computational and memory overhead in membership inference when compared to another attack from the literature. The obtained results emphasize that multi-round federated learning can increase the vulnerability to inference attacks, that aggregators pose a more substantial threat than data owners, and that attack performance is strongly influenced by the nature of the training dataset, with richer, high-dimensional data leading to stronger leakage than simpler tabular data.
- Abstract(参考訳): Federated Learningは、直接的なデータ露出を低減し、マシンラーニングモデルのプライバシ保証を改善する機械学習設定である。
しかし、参加者とアグリゲータ間のモデル更新の交換は、機密情報を漏洩させる可能性がある。
本研究は,複数ラウンドにわたる最終層勾配の時間的発展を生かした,連合学習シナリオのための,新たな勾配に基づくメンバシップ推論手法を提案する。
本手法では,訓練記録のラウンドワイド勾配パターンを学習するためにシャドウ手法を用いて,プライベートデータセットへのアクセスを必要とせず,半正直かつ悪意のある敵(アグリゲータやデータ所有者)の両方を考慮するように設計されている。
メンバシップ推論以外にも、代替属性仮説の下での勾配応答を対比することにより、提案した攻撃を離散属性推論へ自然な拡張も提供する。
提案した攻撃はモデルに依存しないため、任意の勾配モデルに適用でき、分類と回帰設定の両方に適用できる。
我々は,CIFAR-100およびPurchase100データセットの会員推定に対する攻撃と属性推定のための乳がんウィスコンシンに対する攻撃を評価した。
文献による攻撃と比較すると,攻撃性能が強く,また,メンバシップ推定におけるメモリオーバーヘッドや計算能力に匹敵する結果が得られた。
その結果,複数ラウンドのフェデレーション学習により,攻撃の脆弱性が増大し,アグリゲータがデータ所有者よりも重大な脅威となり,アグリゲータの性能がトレーニングデータセットの性質に強く影響されることが強調された。
関連論文リスト
- Securing Genomic Data Against Inference Attacks in Federated Learning Environments [0.31570310818616687]
Federated Learning(FL)は、直接的なデータ共有なしに、分散されたゲノムデータセット間で機械学習モデルを協調的にトレーニングする、有望なフレームワークを提供する。
このアプローチはデータの局所性を保っているが、個人のプライバシーを侵害する可能性のある高度な推論攻撃の影響を受けやすい。
本研究では,合成ゲノムデータを用いてフェデレートされた学習環境をシミュレートし,その脆弱性を3つの攻撃ベクトルに評価する。
論文 参考訳(メタデータ) (2025-05-12T02:36:50Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Evaluating Membership Inference Through Adversarial Robustness [6.983991370116041]
本稿では,敵の強靭性に基づくメンバシップ推論攻撃の強化手法を提案する。
提案手法をFashion-MNIST, CIFAR-10, CIFAR-100の3つのデータセットで評価した。
論文 参考訳(メタデータ) (2022-05-14T06:48:47Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。