論文の概要: Robust Federated Learning via Byzantine Filtering over Encrypted Updates
- arxiv url: http://arxiv.org/abs/2602.05410v1
- Date: Thu, 05 Feb 2026 07:46:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.823974
- Title: Robust Federated Learning via Byzantine Filtering over Encrypted Updates
- Title(参考訳): 暗号化更新によるビザンチンフィルタリングによるロバストフェデレーション学習
- Authors: Adda Akram Bendoukha, Aymen Boudguiga, Nesrine Kaaniche, Renaud Sirdey, Didem Demirag, Sébastien Gambs,
- Abstract要約: Federated Learningは、データのプライバシを維持しながらコラボレーションモデルをトレーニングすることを目的としている。
このアプローチの分散した性質は、依然としてプライバシとセキュリティの問題を提起している。
本稿では,プライバシー保護アグリゲーションのための同型暗号化と,ビザンチンフィルタのためのプロパティ推論に着想を得たメタ分類器を組み合わせた新しい手法を提案する。
- 参考スコア(独自算出の注目度): 3.308224958745571
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated Learning (FL) aims to train a collaborative model while preserving data privacy. However, the distributed nature of this approach still raises privacy and security issues, such as the exposure of sensitive data due to inference attacks and the influence of Byzantine behaviors on the trained model. In particular, achieving both secure aggregation and Byzantine resilience remains challenging, as existing solutions often address these aspects independently. In this work, we propose to address these challenges through a novel approach that combines homomorphic encryption for privacy-preserving aggregation with property-inference-inspired meta-classifiers for Byzantine filtering. First, following the property-inference attacks blueprint, we train a set of filtering meta-classifiers on labeled shadow updates, reproducing a diverse ensemble of Byzantine misbehaviors in FL, including backdoor, gradient-inversion, label-flipping and shuffling attacks. The outputs of these meta-classifiers are then used to cancel the Byzantine encrypted updates by reweighting. Second, we propose an automated method for selecting the optimal kernel and the dimensionality hyperparameters with respect to homomorphic inference, aggregation constraints and efficiency over the CKKS cryptosystem. Finally, we demonstrate through extensive experiments the effectiveness of our approach against Byzantine participants on the FEMNIST, CIFAR10, GTSRB, and acsincome benchmarks. More precisely, our SVM filtering achieves accuracies between $90$% and $94$% for identifying Byzantine updates at the cost of marginal losses in model utility and encrypted inference runtimes ranging from $6$ to $24$ seconds and from $9$ to $26$ seconds for an overall aggregation.
- Abstract(参考訳): フェデレートラーニング(FL)は、データのプライバシを維持しながら協調モデルをトレーニングすることを目的としている。
しかし、このアプローチの分散した性質は、推論攻撃によるセンシティブなデータの露出や、トレーニングされたモデルに対するビザンチンの振る舞いの影響など、依然としてプライバシーとセキュリティの問題を提起している。
特に、セキュアアグリゲーションとビザンチンレジリエンスの両方を達成することは、既存のソリューションがこれらの側面を独立して扱うことの多いため、依然として困難である。
本研究では、プライバシー保護アグリゲーションのための同型暗号化と、ビザンチンフィルターのためのプロパティ推論に着想を得たメタ分類器を組み合わせた新しいアプローチにより、これらの課題に対処することを提案する。
まず、プロパティ推論攻撃の青写真に続いて、ラベル付きシャドー更新にメタ分類器のセットをトレーニングし、バックドア、グラデーション・インバージョン、ラベルフリップ、シャッフル攻撃を含む様々なビザンチン誤動作をFLで再現する。
これらのメタ分類器の出力は、再重み付けによってビザンチンの暗号化更新をキャンセルするために使用される。
次に, CKKS暗号系上での同相推論, 集約制約, 効率性に関して, 最適カーネルと次元ハイパーパラメータを自動選択する手法を提案する。
最後に, FEMNIST, CIFAR10, GTSRB, Acsincomeベンチマークにおいて, ビザンチンの参加者に対するアプローチの有効性を実験的に検証した。
より正確に言うと、私たちのSVMフィルタリングは、モデルユーティリティと暗号化推論ランタイムの限界損失のコストで、Byzantineの更新を識別するための90ドル%から94ドル%の精度を実現しています。
関連論文リスト
- Efficient Byzantine-Robust Privacy-Preserving Federated Learning via Dimension Compression [30.440611659881494]
フェデレートラーニング(FL)は、生データを共有せずに分散クライアント間で協調的なモデルトレーニングを可能にし、プライバシーを保護します。
既存のソリューションは、プライバシー保護、ビザンチンの堅牢性、計算効率において重要なトレードオフに直面している。
そこで本研究では,ジョンソン-リンデンシュトラウス変換に基づいて,同相暗号と次元圧縮を統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-09-15T12:43:58Z) - ImprovDML: Improved Trade-off in Private Byzantine-Resilient Distributed Machine Learning [22.85986751447643]
一般的な戦略は、Byzantine-Resilientアグリゲーションルールと差分プライバシーメカニズムの統合である。
そこで我々は,プライバシ保護を同時に確保しつつ,モデルの精度を向上する ImprovDML を提案する。
モデル精度と差分プライバシーの間のトレードオフを改善することを実証する。
論文 参考訳(メタデータ) (2025-06-18T06:53:52Z) - Byzantine-Resilient Over-the-Air Federated Learning under Zero-Trust Architecture [68.83934802584899]
我々は,セキュアな適応クラスタリング(FedSAC)を用いたフェデレーション学習(Federated Learning)と呼ばれる,無線通信のための新しいビザンチン・ロバストFLパラダイムを提案する。
FedSACは、デバイスの一部をゼロ信頼アーキテクチャ(ZTA)ベースのビザンティン識別と適応デバイスクラスタリングによる攻撃から保護することを目的としている。
実験精度と収束率の両面から,提案手法よりもFedSACの方が優れていることを示す。
論文 参考訳(メタデータ) (2025-03-24T01:56:30Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Practical Differentially Private and Byzantine-resilient Federated
Learning [17.237219486602097]
我々は、プライバシーを守るために、微分プライベート勾配降下法(DP-SGD)アルゴリズムを用いている。
ランダムノイズを利用して、既存のビザンツ攻撃の多くを効果的に拒否するアグリゲーションを構築する。
論文 参考訳(メタデータ) (2023-04-15T23:30:26Z) - Byzantine-Robust Online and Offline Distributed Reinforcement Learning [60.970950468309056]
本稿では,複数のエージェントが環境を探索し,その経験を中央サーバを通じて伝達する分散強化学習環境について考察する。
エージェントの$alpha$-fractionは敵対的であり、任意の偽情報を報告することができる。
我々は、これらの対立エージェントの存在下で、マルコフ決定プロセスの根底にある準最適政策を特定することを模索する。
論文 参考訳(メタデータ) (2022-06-01T00:44:53Z) - Bridging Differential Privacy and Byzantine-Robustness via Model
Aggregation [27.518542543750367]
本稿では,差分プライバシーとビザンチネロバストネスという,連邦学習における対立する問題に対処することを目的とする。
標準メカニズムは送信DP、エンベロップスエンベロップスエンベロップスエンベロープ(エンベロップスエンベロープ、エンベロープエンベロープアグリゲーション)を追加し、ビザンツ攻撃を防御する。
提案手法の影響は, その頑健なモデルアグリゲーションによって抑制されていることを示す。
論文 参考訳(メタデータ) (2022-04-29T23:37:46Z) - Secure Byzantine-Robust Distributed Learning via Clustering [16.85310886805588]
ビザンチンの堅牢性とプライバシを共同で保護するフェデレーション学習システムは、依然としてオープンな問題である。
本研究では,クライアントのプライバシーとロバスト性を同時に保持する分散学習フレームワークであるSHAREを提案する。
論文 参考訳(メタデータ) (2021-10-06T17:40:26Z) - Learning from History for Byzantine Robust Optimization [52.68913869776858]
分散学習の重要性から,ビザンチンの堅牢性が近年注目されている。
既存のロバストアグリゲーションルールの多くは、ビザンチンの攻撃者がいなくても収束しない可能性がある。
論文 参考訳(メタデータ) (2020-12-18T16:22:32Z) - Federated Variance-Reduced Stochastic Gradient Descent with Robustness
to Byzantine Attacks [74.36161581953658]
本稿では、悪質なビザンツ攻撃が存在する場合のネットワーク上での学習のための分散有限サム最適化について論じる。
このような攻撃に対処するため、これまでのほとんどのレジリエントなアプローチは、勾配降下(SGD)と異なる頑健な集約ルールを組み合わせている。
本研究は,ネットワーク上の有限サム最適化を含むタスクを学習するための,ビザンチン攻撃耐性分散(Byrd-)SAGAアプローチを提案する。
論文 参考訳(メタデータ) (2019-12-29T19:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。