論文の概要: Enhancing Federated Learning Privacy with QUBO
- arxiv url: http://arxiv.org/abs/2511.02785v1
- Date: Tue, 04 Nov 2025 18:06:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:06.139143
- Title: Enhancing Federated Learning Privacy with QUBO
- Title(参考訳): QUBOによるフェデレーションラーニングプライバシの強化
- Authors: Andras Ferenczi, Sutapa Samanta, Dagen Wang, Todd Hodges,
- Abstract要約: フェデレーテッド・ラーニング(FL)は、プライバシを保ちながらスケーラブルな方法で機械学習(ML)モデルをトレーニングするための広く使われている方法である。
本稿では,トレーニング中のクライアントによる情報漏洩と,グローバルモデルのクエリや取得が可能な敵の2つの脅威ベクトルに着目した。
20ラウンドで300のクライアントを持つMNISTデータセットの実験では、1ラウンドあたり95.2%、累積プライバシー露出が49%減少した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) is a widely used method for training machine learning (ML) models in a scalable way while preserving privacy (i.e., without centralizing raw data). Prior research shows that the risk of exposing sensitive data increases cumulatively as the number of iterations where a client's updates are included in the aggregated model increase. Attackers can launch membership inference attacks (MIA; deciding whether a sample or client participated), property inference attacks (PIA; inferring attributes of a client's data), and model inversion attacks (MI; reconstructing inputs), thereby inferring client-specific attributes and, in some cases, reconstructing inputs. In this paper, we mitigate risk by substantially reducing per client exposure using a quantum computing-inspired quadratic unconstrained binary optimization (QUBO) formulation that selects a small subset of client updates most relevant for each training round. In this work, we focus on two threat vectors: (i) information leakage by clients during training and (ii) adversaries who can query or obtain the global model. We assume a trusted central server and do not model server compromise. This method also assumes that the server has access to a validation/test set with global data distribution. Experiments on the MNIST dataset with 300 clients in 20 rounds showed a 95.2% per-round and 49% cumulative privacy exposure reduction, with 147 clients' updates never being used during training while maintaining in general the full-aggregation accuracy or even better. The method proved to be efficient at lower scale and more complex model as well. A CINIC-10 dataset-based experiment with 30 clients resulted in 82% per-round privacy improvement and 33% cumulative privacy.
- Abstract(参考訳): フェデレート・ラーニング(Federated Learning, FL)は、機械学習(ML)モデルをスケーラブルな方法でトレーニングする手法である。
以前の研究では、クライアントのアップデートが集約されたモデルに含まれるイテレーションの数が増えるにつれて、機密データを露出するリスクが累積的に増加することが示されていた。
攻撃者は、メンバーシップ推論攻撃(MIA)、プロパティ推論攻撃(PIA)、モデル反転攻撃(MI)を起動し、クライアント固有の属性を推測し、場合によっては入力を再構成することができる。
本稿では、量子コンピューティングにインスパイアされた2次非制約バイナリ最適化(QUBO)を用いて、トレーニングラウンド毎に最も関連性の高いクライアント更新の小さなサブセットを選択することで、クライアント1回当たりの露出を大幅に削減することでリスクを軽減する。
本研究では,2つの脅威ベクトルに着目した。
一 訓練中の顧客による情報漏洩
(ii)グローバルモデルに問い合わせたり入手したりできる敵。
我々は、信頼できる中央サーバを仮定し、サーバの妥協をモデル化しない。
この方法は、サーバがグローバルなデータ分散を伴う検証/テストセットにアクセス可能であることを仮定する。
20ラウンドで300のクライアントを持つMNISTデータセットの実験では、1ラウンドあたり95.2%、累積プライバシ露出が49%削減された。
この手法は, より低スケールで, より複雑なモデルでも有効であることが判明した。
CINIC-10による30のクライアントによるデータセットベースの実験では、全体のプライバシ改善が82%、累積プライバシが33%向上した。
関連論文リスト
- Differential Privacy in Federated Learning: Mitigating Inference Attacks with Randomized Response [1.9949261242626626]
マシンラーニングでは、各クライアントが独自のデータを使用してローカルモデルをトレーニングする。トレーニングされたモデルは、定期的に中央サーバに送信される。
その後、サーバはフェデレーション集約アルゴリズムを用いて受信したモデルを組み合わせてグローバルモデルを得る。
このグローバルモデルはクライアントに分散され、プロセスは循環的に継続されます。
攻撃者は、得られたモデルに対して推論攻撃を行い、トレーニングデータセットを近似し、データ漏洩を引き起こす可能性がある。
論文 参考訳(メタデータ) (2025-09-17T13:59:38Z) - TRAIL: Trust-Aware Client Scheduling for Semi-Decentralized Federated Learning [13.144501509175985]
本稿では、クライアントの状態とコントリビューションを評価するTRAILと呼ばれるTRust-Aware clIent scheduLing機構を提案する。
我々は、エッジサーバとクライアントが信頼できないクラスタ内モデルアグリゲーションとクラスタ間モデルコンセンサスを使用して、共有グローバルモデルをトレーニングする半分散FLフレームワークに焦点を当てる。
実世界のデータセットで行われた実験では、TRAILは最先端のベースラインを上回っ、テスト精度が8.7%向上し、トレーニング損失が15.3%減少した。
論文 参考訳(メタデータ) (2024-12-16T05:02:50Z) - Efficient Federated Unlearning under Plausible Deniability [1.795561427808824]
機械学習は、特定のデータポイントが重みに与える影響を忘れるため、MLパラメータを変更することでこの問題に対処する。
最近の文献では、データポイント(s)からのコントリビューションが、確率が1に近いデータセット内の他のデータポイントで鍛えられることが強調されている。
本稿では、FLサーバがクライアントの参加を確実に否定できるプライバシーモデルを用いて、フェデレートされたアンラーニングを実現する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T18:08:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。