論文の概要: Leveraging Membership Inference Attacks for Privacy Measurement in Federated Learning for Remote Sensing Images
- arxiv url: http://arxiv.org/abs/2601.06200v1
- Date: Thu, 08 Jan 2026 08:58:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.674746
- Title: Leveraging Membership Inference Attacks for Privacy Measurement in Federated Learning for Remote Sensing Images
- Title(参考訳): リモートセンシング画像におけるフェデレーション学習におけるプライバシ測定のためのメンバーシップ推論攻撃の活用
- Authors: Anh-Kiet Duong, Petra Gomez-Krämer, Hoàng-Ân Lê, Minh-Tan Pham,
- Abstract要約: フェデレートラーニング(FL)は、トレーニングデータをローカライズしながら協調的なモデルトレーニングを可能にし、リモートセンシングを含むさまざまな領域におけるプライバシ保護を可能にします。
近年の研究では、FLモデルは出力を通じて機密情報を漏洩し、厳格なプライバシー評価の必要性が示唆されている。
我々は、リモートセンシング画像分類に応用したFLの定量的プライバシー測定フレームワークとして、MIA(Message Inference attack)を利用する。
- 参考スコア(独自算出の注目度): 6.53225809861947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables collaborative model training while keeping training data localized, allowing us to preserve privacy in various domains including remote sensing. However, recent studies show that FL models may still leak sensitive information through their outputs, motivating the need for rigorous privacy evaluation. In this paper, we leverage membership inference attacks (MIA) as a quantitative privacy measurement framework for FL applied to remote sensing image classification. We evaluate multiple black-box MIA techniques, including entropy-based attacks, modified entropy attacks, and the likelihood ratio attack, across different FL algorithms and communication strategies. Experiments conducted on two public scene classification datasets demonstrate that MIA effectively reveals privacy leakage not captured by accuracy alone. Our results show that communication-efficient FL strategies reduce MIA success rates while maintaining competitive performance. These findings confirm MIA as a practical metric and highlight the importance of integrating privacy measurement into FL system design for remote sensing applications.
- Abstract(参考訳): フェデレートラーニング(FL)は、トレーニングデータをローカライズしながら協調的なモデルトレーニングを可能にし、リモートセンシングを含むさまざまな領域におけるプライバシ保護を可能にします。
しかし、最近の研究では、FLモデルは出力を通じて機密情報を漏洩し、厳格なプライバシー評価の必要性が示唆されている。
本稿では、リモートセンシング画像分類に応用したFLの定量的プライバシー測定フレームワークとして、MIA(Message Inference attack)を利用する。
我々は,複数のブラックボックスMIA手法の評価を行い,エントロピーに基づく攻撃,修正エントロピー攻撃,およびFLアルゴリズムおよび通信戦略間の確率比攻撃について検討した。
2つの公開シーン分類データセットで実施された実験は、MIAが精度だけで取得されていないプライバシー漏洩を効果的に明らかにしていることを示している。
その結果,通信効率の高いFL戦略は,競争性能を維持しながらMIA成功率を低下させることがわかった。
これらの結果はMIAを実用的指標として確認し、リモートセンシングアプリケーションのためのFLシステム設計にプライバシー測定を統合することの重要性を強調した。
関連論文リスト
- Benchmarking Mutual Information-based Loss Functions in Federated Learning [2.79786165508341]
フェデレートラーニング(FL)は、プライバシー規制の増大により、かなりの関心を集めている。
本稿では、これらの問題に対処するための相互情報に基づく損失関数の使用について検討する。
論文 参考訳(メタデータ) (2025-04-16T08:58:44Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Privacy Attack in Federated Learning is Not Easy: An Experimental Study [5.065947993017158]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のために提案される分散機械学習のパラダイムである。
近年の研究では、FLはプライバシー保護を完全に保証できないことが示されている。
プライバシ攻撃FLアルゴリズムが現実的なフェデレーション環境で有効かどうかは不明だ。
論文 参考訳(メタデータ) (2024-09-28T10:06:34Z) - Accuracy-Privacy Trade-off in the Mitigation of Membership Inference Attack in Federated Learning [4.152322723065285]
フェデレーション・ラーニング(FL)は、機械学習において顕著な方法として現れ、複数のクライアントがトレーニングデータをプライベートに保ちながら、協力してモデルを構築することを可能にすることで、プライバシ保護を強調している。
プライバシに重点を置いているにもかかわらず、FLモデルは、メンバーシップ推論攻撃(MIA)など、様々な攻撃を受けやすい。
論文 参考訳(メタデータ) (2024-07-26T22:44:41Z) - A Survey of What to Share in Federated Learning: Perspectives on Model
Utility, Privacy Leakage, and Communication Efficiency [13.92252755884596]
フェデレートラーニング(FL)は、クライアント間の協調トレーニングのための安全なパラダイムとして登場した。
本稿では, モデル, 合成データ, 知識をそれぞれ共有する3つの共有手法を用いて, FL法の新しい分類法を提案する。
論文 参考訳(メタデータ) (2023-07-20T07:35:42Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - FedComm: Federated Learning as a Medium for Covert Communication [56.376997104843355]
フェデレートラーニング(FL)は、ディープラーニングの採用に伴うプライバシーへの影響を軽減するためのソリューションである。
本稿では,FL方式の通信能力について詳しく検討する。
我々は,新しいマルチシステム被覆通信技術であるFedCommを紹介する。
論文 参考訳(メタデータ) (2022-01-21T17:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。