論文の概要: Res-MIA: A Training-Free Resolution-Based Membership Inference Attack on Federated Learning Models
- arxiv url: http://arxiv.org/abs/2601.17378v1
- Date: Sat, 24 Jan 2026 08:58:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.700524
- Title: Res-MIA: A Training-Free Resolution-Based Membership Inference Attack on Federated Learning Models
- Title(参考訳): Res-MIA:フェデレーション学習モデルに基づく学習自由度に基づくメンバーシップ推論攻撃
- Authors: Mohammad Zare, Pirooz Shamsinejadbabaki,
- Abstract要約: メンバーシップ推論攻撃は、機械学習モデルのプライバシに深刻な脅威をもたらす。
トレーニングフリーでブラックボックスのメンバシップ推論攻撃であるRes-MIAを導入する。
CIFAR-10で訓練された連合 ResNet-18 に対する攻撃について検討した。
- 参考スコア(独自算出の注目度): 1.9336815376402718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Membership inference attacks (MIAs) pose a serious threat to the privacy of machine learning models by allowing adversaries to determine whether a specific data sample was included in the training set. Although federated learning (FL) is widely regarded as a privacy-aware training paradigm due to its decentralized nature, recent evidence shows that the final global model can still leak sensitive membership information through black-box access. In this paper, we introduce Res-MIA, a novel training-free and black-box membership inference attack that exploits the sensitivity of deep models to high-frequency input details. Res-MIA progressively degrades the input resolution using controlled downsampling and restoration operations, and analyzes the resulting confidence decay in the model's predictions. Our key insight is that training samples exhibit a significantly steeper confidence decline under resolution erosion compared to non-member samples, revealing a robust membership signal. Res-MIA requires no shadow models, no auxiliary data, and only a limited number of forward queries to the target model. We evaluate the proposed attack on a federated ResNet-18 trained on CIFAR-10, where it consistently outperforms existing training-free baselines and achieves an AUC of up to 0.88 with minimal computational overhead. These findings highlight frequency-sensitive overfitting as an important and previously underexplored source of privacy leakage in federated learning, and emphasize the need for privacy-aware model designs that reduce reliance on fine-grained, non-robust input features.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、トレーニングセットに特定のデータサンプルが含まれているかどうかを敵が判断できるようにすることで、マシンラーニングモデルのプライバシに対して深刻な脅威となる。
フェデレーテッド・ラーニング(FL)は、その分散した性質から、プライバシーに配慮した訓練パラダイムとして広く見なされているが、最近の証拠は、ブラックボックス・アクセスを通じて、最終的なグローバルモデルが機密メンバーシップ情報を漏洩させることができることを示している。
本稿では、深層モデルの高周波数入力に対する感度を利用した、新しいトレーニングフリーでブラックボックスのメンバシップ推論攻撃であるRes-MIAを紹介する。
Res-MIAは、制御されたダウンサンプリングと復元操作を使用して入力解像度を段階的に劣化させ、モデルの予測における結果の信頼性の低下を分析する。
我々の重要な洞察は、トレーニングサンプルは、非メンバーのサンプルに比べて、分解能浸食下での信頼性が著しく低下し、ロバストなメンバーシップシグナルが明らかになるということである。
Res-MIAはシャドウモデルも補助データも必要とせず、ターゲットモデルへのフォワードクエリは限られている。
CIFAR-10で訓練された連合ResNet-18に対する攻撃は、既存のトレーニングなしベースラインを一貫して上回り、計算オーバーヘッドを最小限に抑えた最大0.88のAUCを実現する。
これらの知見は、フェデレート学習におけるプライバシー漏洩の重要かつ未発見の源として、周波数に敏感なオーバーフィッティングを強調し、きめ細かな非破壊的な入力機能への依存を減らすプライバシ対応モデル設計の必要性を強調した。
関連論文リスト
- Neural Breadcrumbs: Membership Inference Attacks on LLMs Through Hidden State and Attention Pattern Analysis [9.529147118376464]
メンバーシップ推論攻撃(MIA)は、特定のデータが機械学習モデルのトレーニングに使用されたかどうかを明らかにする。
我々の研究は、内部表現を単に出力ではなく検査することで、メンバーシップ推論信号に対するさらなる洞察を与えることができるかを探る。
本研究は,出力に基づく信号が保護された場合でも,内部モデル行動がトレーニングデータの露出の側面を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2025-09-05T19:05:49Z) - Optimizing Model Splitting and Device Task Assignment for Deceptive Signal Assisted Private Multi-hop Split Learning [58.620753467152376]
我々のモデルでは、複数のエッジデバイスが共同で協調訓練を行い、一部の盗聴者はデバイスからモデルとデータ情報を収集することを目的としている。
盗聴者がモデルやデータ情報を集めるのを防止するため、装置のサブセットは、偽装信号を送信することができる。
本稿では,本質的な好奇性モジュールとクロスアテンションを備えたアクター批判型深層強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-09T22:53:23Z) - Membership Inference Attacks fueled by Few-Short Learning to detect privacy leakage tackling data integrity [7.8973037023478785]
ディープラーニングモデルは、トレーニングデータの一部を記憶し、プライバシリークを生成する。
本稿では、深層学習モデルのプライバシー侵害の評価を容易にするFeS-MIAモデルとして考案されたFew-Shot学習に基づくMIAを提案する。
また,Log-MIA尺度と呼ばれる,解釈可能な量的・質的なプライバシ尺度を提案する。
論文 参考訳(メタデータ) (2025-03-12T13:09:43Z) - Beyond Scaling: Measuring and Predicting the Upper Bound of Knowledge Retention in Language Model Pre-Training [68.94373533768501]
我々は、知識保持をモデル化し、そのコーパスから事実情報を記憶するための事前学習言語モデルの能力を示し、学習前にそれを推定する原則的手法を導入する。
本稿では,知識周波数,知識特異度,モデルサイズを統合し,クローズドブック質問応答(QA)の精度を予測する情報理論予測器である,サイズ依存型相互情報(SMI)を提案する。
論文 参考訳(メタデータ) (2025-02-06T13:23:53Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - MIAShield: Defending Membership Inference Attacks via Preemptive
Exclusion of Members [9.301268830193072]
メンバーシップ推論攻撃では、相手はモデルの予測を観察し、サンプルがモデルのトレーニングデータの一部であるかどうかを判断する。
そこで我々は,MIAShieldを提案する。MIAShieldは,メンバーの存在を隠蔽する代わりに,メンバーサンプルのプリエンプティブ排除に基づく新しいMIAディフェンスである。
我々は,MIAShieldが多岐にわたるMIAの会員推定を効果的に緩和し,最先端の防衛技術と比較してはるかに優れたプライバシー利用トレードオフを実現し,適応的敵に対する耐性を保っていることを示す。
論文 参考訳(メタデータ) (2022-03-02T07:53:21Z) - FAT: Federated Adversarial Training [5.287156503763459]
フェデレートラーニング(FL)は、機械学習(ML)におけるプライバシとデータガバナンスの問題に対処する最も重要なパラダイムの1つである。
我々は、トレーニング中のデータのプライバシを保ちながら、推論中の回避の脅威を軽減するために、両方の手法を組み合わせて、連合敵訓練(FAT)への第一歩を踏み出した。
論文 参考訳(メタデータ) (2020-12-03T09:47:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。