論文の概要: Security-Preserving Federated Learning via Byzantine-Sensitive Triplet
Distance
- arxiv url: http://arxiv.org/abs/2210.16519v1
- Date: Sat, 29 Oct 2022 07:20:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:02:16.814077
- Title: Security-Preserving Federated Learning via Byzantine-Sensitive Triplet
Distance
- Title(参考訳): ビザンチン感性三重項距離を用いたセキュリティ保護フェデレーション学習
- Authors: Youngjoon Lee, Sangwoo Park, Joonhyuk Kang
- Abstract要約: フェデレートラーニング(FL)は一般的に、敵のエッジデバイスからのビザンチン攻撃に対して脆弱である。
そこで我々は, ダミーコントラストアグリゲーションという, 効果的なビザンチン・ロバストFLフレームワークを提案する。
最新技術であるビザンチン-レジリエントアグリゲーション法と比較して,性能が向上した。
- 参考スコア(独自算出の注目度): 10.658882342481542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While being an effective framework of learning a shared model across multiple
edge devices, federated learning (FL) is generally vulnerable to Byzantine
attacks from adversarial edge devices. While existing works on FL mitigate such
compromised devices by only aggregating a subset of the local models at the
server side, they still cannot successfully ignore the outliers due to
imprecise scoring rule. In this paper, we propose an effective Byzantine-robust
FL framework, namely dummy contrastive aggregation, by defining a novel scoring
function that sensitively discriminates whether the model has been poisoned or
not. Key idea is to extract essential information from every local models along
with the previous global model to define a distance measure in a manner similar
to triplet loss. Numerical results validate the advantage of the proposed
approach by showing improved performance as compared to the state-of-the-art
Byzantine-resilient aggregation methods, e.g., Krum, Trimmed-mean, and Fang.
- Abstract(参考訳): 複数のエッジデバイスで共有モデルを学習する効果的なフレームワークである一方、フェデレーション学習(fl)は一般的に、敵対的なエッジデバイスからのビザンチン攻撃に対して脆弱である。
FLの既存の作業は、サーバ側でローカルモデルのサブセットを集約するだけで、そのような妥協されたデバイスを緩和するが、不正確なスコアリングルールのため、アウトリーチを無視することに成功した。
本稿では,本モデルが有毒か否かを敏感に判別する新たなスコアリング機能を定義することにより,効果的なビザンチン・ローバストFLフレームワーク,すなわちダミーコントラストアグリゲーションを提案する。
鍵となるアイデアは、すべての局所モデルから従来の大域モデルとともに重要な情報を抽出し、三重項損失に似た方法で距離測度を定義することである。
提案手法の利点は,Krum, Trimmed-mean, Fangなどの最先端のビザンチン弾性凝集法と比較して, 改良された性能を示すことで検証した。
関連論文リスト
- Embedding Byzantine Fault Tolerance into Federated Learning via Virtual Data-Driven Consistency Scoring Plugin [3.536605202672355]
本稿では,Byzantine-Resilienceを実現するために既存のFL技術に統合可能な直感的なプラグインを提案する。
医用画像分類タスクの数値的な結果は,提案手法を代表FLアルゴリズムに組み込むことで,効果的にビザンチンレジリエンスを実現する。
論文 参考訳(メタデータ) (2024-11-15T14:17:19Z) - Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - STDLens: Model Hijacking-Resilient Federated Learning for Object
Detection [13.895922908738507]
Federated Learning (FL)は、ディープラーニングに基づくオブジェクト検出モデルをクライアントの分散集団でトレーニングするための協調学習フレームワークとして人気を集めている。
その利点にもかかわらず、FLはモデルハイジャックに弱い。
本稿では,このような攻撃に対してFLを保護するための原則的アプローチであるSTDLensを紹介する。
論文 参考訳(メタデータ) (2023-03-21T00:15:53Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Byzantine-Robust Federated Learning via Credibility Assessment on
Non-IID Data [1.4146420810689422]
フェデレートラーニング(Federated Learning)は、リソース制約のあるエッジデバイスがモデルの共同学習を可能にする、新しいフレームワークである。
標準的な連邦学習はビザンツの攻撃に弱い。
非イドデータに対する信頼度評価によるフェデレーション学習のためのビザンチン・ロバストフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-06T12:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。