論文の概要: Protection against Source Inference Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2603.02017v1
- Date: Mon, 02 Mar 2026 16:01:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.956625
- Title: Protection against Source Inference Attacks in Federated Learning
- Title(参考訳): フェデレートラーニングにおけるソース推論攻撃の防止
- Authors: Andreas Athanasiou, Kangsoo Jung, Catuscia Palamidessi,
- Abstract要約: フェデレートラーニング(FL)は、当初はプライバシー保護機械学習パラダイムとして提案されていた。
FLは一連のプライバシー攻撃の影響を受けやすいことが示されている。
- 参考スコア(独自算出の注目度): 8.12172053982039
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated Learning (FL) was initially proposed as a privacy-preserving machine learning paradigm. However, FL has been shown to be susceptible to a series of privacy attacks. Recently, there has been concern about the Source Inference Attack (SIA), where an honest-but-curious central server attempts to identify exactly which client owns a given data point which was used in the training phase. Alarmingly, standard gradient obfuscation techniques with Differential Privacy have been shown to be ineffective against SIAs, at least without severely diminishing the accuracy. In this work, we propose a defense against SIAs within the widely studied shuffle model of FL, where an honest shuffler acts as an intermediary between the clients and the server. First, we demonstrate that standard naive shuffling alone is insufficient to prevent SIAs. To effectively defend against SIAs, shuffling needs to be applied at a more granular level; we propose a novel combination of parameter-level shuffling with the residue number system (RNS). Our approach provides robust protection against SIAs without affecting the accuracy of the joint model and can be seamlessly integrated into other privacy protection mechanisms. We conduct experiments on a series of models and datasets, confirming that standard shuffling approaches fail to prevent SIAs and that, in contrast, our proposed method reduce the attack's accuracy to the level of random guessing.
- Abstract(参考訳): フェデレートラーニング(FL)は、当初はプライバシー保護機械学習パラダイムとして提案されていた。
しかし、FLは一連のプライバシー攻撃の影響を受けやすいことが示されている。
最近、ソース推論攻撃(SIA: Source Inference Attack)が懸念されている。これは、トレーニングフェーズで使用された特定のデータポイントをどのクライアントが所有しているかを正確に特定しようとする、誠実だが信頼できる中央サーバである。
異常なことに、差分プライバシーを持つ標準的な勾配難読化技術は、少なくとも精度を著しく低下させることなく、SIAに対して効果がないことが示されている。
本研究では,FLのシャッフルモデルにおいて,クライアントとサーバ間の仲介役として,誠実なシャッフルが機能するSIAに対する防御手法を提案する。
第一に、標準的なナイーブシャッフルだけではSIAを防ぐには不十分であることを示す。
SIAを効果的に防御するためには、シャッフルをより粒度の細かいレベルで適用する必要がある。
我々のアプローチは、関節モデルの精度に影響を与えることなく、SIAに対して堅牢な保護を提供し、他のプライバシ保護機構にシームレスに統合することができる。
我々は一連のモデルとデータセットの実験を行い、標準的なシャッフル手法がSIAを防ぐのに失敗することを確認し、対照的に、提案手法は攻撃の精度をランダムな推測レベルまで下げる。
関連論文リスト
- SRFed: Mitigating Poisoning Attacks in Privacy-Preserving Federated Learning with Heterogeneous Data [5.7335377562335275]
Federated Learning (FL)は、クライアントのプライベートデータを公開せずに協調的なモデルトレーニングを可能にし、プライバシに敏感なシナリオで広く採用されている。
クライアントのプライベートデータを再構築する推論攻撃を起動する好奇心の強いサーバと、モデルアグリゲーションを妨害するために有害な攻撃を起動するクライアントだ。
我々は,非IIDシナリオのための効率的なビザンチン汚染とプライバシー保護のためのFLフレームワークであるSRFedを提案する。
論文 参考訳(メタデータ) (2026-02-18T14:14:38Z) - GuardFed: A Trustworthy Federated Learning Framework Against Dual-Facet Attacks [56.983319121358555]
フェデレートラーニング(FL)は、プライバシ保護のための協調モデルトレーニングを可能にするが、敵の行動に弱いままである。
本稿では,予測精度とグループフェアネスを同時に損なう新たな脅威モデルであるデュアル顔攻撃(DFA)を紹介する。
本稿では,少量のクリーンサーバデータを用いて,公正な参照モデルを維持する自己適応型防衛フレームワークであるGuardFedを提案する。
論文 参考訳(メタデータ) (2025-11-12T13:02:45Z) - Confidential Guardian: Cryptographically Prohibiting the Abuse of Model Abstention [65.47632669243657]
不正直な機関は、不確実性の観点からサービスを差別または不正に否定する機構を利用することができる。
我々は、ミラージュと呼ばれる不確実性誘導攻撃を導入することで、この脅威の実践性を実証する。
本研究では,参照データセット上のキャリブレーションメトリクスを分析し,人工的に抑制された信頼度を検出するフレームワークであるConfidential Guardianを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:47:50Z) - FedEM: A Privacy-Preserving Framework for Concurrent Utility Preservation in Federated Learning [17.853502904387376]
Federated Learning (FL)は、分散クライアント間で、ローカルデータを共有せずにモデルの協調的なトレーニングを可能にし、分散システムにおけるプライバシの問題に対処する。
適応雑音注入による制御摂動を組み込んだ新しいアルゴリズムであるフェデレートエラー最小化(FedEM)を提案する。
ベンチマークデータセットの実験結果から、FedEMはプライバシのリスクを著しく低減し、モデルの正確性を保ち、プライバシ保護とユーティリティ保護の堅牢なバランスを達成している。
論文 参考訳(メタデータ) (2025-03-08T02:48:00Z) - Protection against Source Inference Attacks in Federated Learning using Unary Encoding and Shuffling [6.260747047974035]
Federated Learning (FL)は、クライアントがローカルデータを開示することなく、ジョイントモデルをトレーニングすることを可能にする。
近年, ソース推論攻撃 (SIA) が提案され, クライアントが特定のデータレコードを所有しているかを正確に特定しようとする。
本稿では, 信頼性の高いシャフラーを用いて, 関節モデルの精度を損なうことなく, SIA に対する防御策を提案する。
論文 参考訳(メタデータ) (2024-11-10T13:17:11Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - From Mean to Extreme: Formal Differential Privacy Bounds on the Success of Real-World Data Reconstruction Attacks [54.25638567385662]
機械学習における微分プライバシーは、しばしばメンバーシップ推論に対する保証として解釈される。
DP予算を定量的な保護に翻訳することで、データ再構築の脅威を悪化させることは、依然として困難な課題である。
本稿では、実証された"ゼロスクラッチ"攻撃のメカニズムに合わせた、最初の公式なプライバシー境界を導出することで、臨界ギャップを埋める。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - PROFL: A Privacy-Preserving Federated Learning Method with Stringent
Defense Against Poisoning Attacks [2.6487166137163007]
Federated Learning(FL)は、プライバシー漏洩と中毒攻撃という2つの大きな問題に直面している。
本稿では,プライバシー保護のための新しいFLフレームワーク PROFL を提案する。
PROFLは2タラプドア追加の同型暗号化アルゴリズムとブラインド技術に基づいている。
論文 参考訳(メタデータ) (2023-12-02T06:34:37Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - A Secure Federated Learning Framework for Residential Short Term Load
Forecasting [1.1254693939127909]
Federated Learning(FL)は、短期的な負荷予測のためにプライベートな生データを公開せずに、モデルの協調的な学習を可能にする機械学習の代替手段である。
標準FLは、障害や悪意のあるクライアントによって実行されるビザンチン攻撃として知られる、難解なサイバー脅威に対して、依然として脆弱である。
我々は、FLモデルとアーキテクチャのセキュリティを保護しつつ、個々のスマートメーターのデータのプライバシを保証する、最先端のプライベートなFLベースのフレームワークを開発する。
論文 参考訳(メタデータ) (2022-09-29T04:36:16Z) - An Accuracy-Lossless Perturbation Method for Defending Privacy Attacks
in Federated Learning [82.80836918594231]
フェデレーション学習は、生データではなく、局所的な勾配やパラメータを交換することで、トレーニングデータのプライバシを改善する。
敵は、局所勾配とパラメータを利用して、再構築とメンバーシップ推論攻撃を起動することで、局所的なトレーニングデータを取得することができる。
このようなプライバシ攻撃を防御するために、多くのノイズ摂動法が広く設計されている。
論文 参考訳(メタデータ) (2020-02-23T06:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。