論文の概要: BOBA: Byzantine-Robust Federated Learning with Label Skewness
- arxiv url: http://arxiv.org/abs/2208.12932v1
- Date: Sat, 27 Aug 2022 05:54:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 14:16:56.830083
- Title: BOBA: Byzantine-Robust Federated Learning with Label Skewness
- Title(参考訳): BOBA:ラベルスキューネスによるビザンチン・ロバスト・フェデレーションラーニング
- Authors: Wenxuan Bao, Jingrui He
- Abstract要約: 連合学習において、ビザンツ攻撃に対するロバストアグリゲーションのためのほとんどの既存の技術は、ID設定のために設計されている。
本稿では,より現実的で難易度の高い非IIDセッティングであるラベルスキューネスについて述べる。
これらの制約に対処するために,BOBAという2段階の効率的な手法を提案する。
- 参考スコア(独自算出の注目度): 38.683038471148166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In federated learning, most existing techniques for robust aggregation
against Byzantine attacks are designed for the IID setting, i.e., the data
distributions for clients are independent and identically distributed. In this
paper, we address label skewness, a more realistic and challenging non-IID
setting, where each client only has access to a few classes of data. In this
setting, state-of-the-art techniques suffer from selection bias, leading to
significant performance drop for particular classes; they are also more
vulnerable to Byzantine attacks due to the increased deviation among gradients
of honest clients. To address these limitations, we propose an efficient
two-stage method named BOBA. Theoretically, we prove the convergence of BOBA
with an error of optimal order. Empirically, we verify the superior
unbiasedness and robustness of BOBA across a wide range of models and data sets
against various baselines.
- Abstract(参考訳): 連合学習において、ビザンチン攻撃に対するロバストアグリゲーションのための既存の技術のほとんどはID設定のために設計されている。
本稿では,より現実的で難易度の高い非IIDセッティングであるラベルスキューネスについて述べる。
この設定では、最先端の技術は選択バイアスに苦しめられ、特定のクラスでパフォーマンスが大幅に低下する。
これらの制約に対処するため,BOBAという2段階の効率的な手法を提案する。
理論的には、BOBAの収束を最適順序の誤差で証明する。
実験的に、BOBAの優れた不偏性および堅牢性は、様々なベースラインに対して幅広いモデルとデータセットにわたって検証する。
関連論文リスト
- Balancing Act: Constraining Disparate Impact in Sparse Models [20.058720715290434]
本研究では,プルーニングの異なる影響に直接対処する制約付き最適化手法を提案する。
我々の定式化は、各部分群に対する密度モデルとスパースモデルの間の精度変化を束縛する。
実験により,本手法は大規模モデルや数百の保護されたサブグループに関わる問題に対して確実にスケール可能であることが示された。
論文 参考訳(メタデータ) (2023-10-31T17:37:35Z) - Navigating Data Heterogeneity in Federated Learning A Semi-Supervised
Federated Object Detection [3.7398615061365206]
フェデレートラーニング(FL)は、分散データソース間でモデルをトレーニングするための強力なフレームワークとして登場した。
特に自動運転のようなアプリケーションでは、高品質なラベルや、IID以外のクライアントデータに制限がある。
クライアントがラベル付きデータを持っている間、ラベル付きデータがサーバにのみ存在するシナリオ用に設計された、先駆的なSSFODフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T01:40:28Z) - JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - CAST: Cluster-Aware Self-Training for Tabular Data [0.5461938536945723]
自己学習は、誤った自信によって引き起こされるノイズの多い擬似ラベルに対して脆弱である。
CAST(Cluster-Aware Self-Training)は、既存の自己学習アルゴリズムを、大幅な修正なしに無視可能なコストで強化する。
論文 参考訳(メタデータ) (2023-10-10T07:46:54Z) - Mitigating Group Bias in Federated Learning for Heterogeneous Devices [1.2903829793534267]
フェデレートラーニング(Federated Learning)は、分散エッジアプリケーションにおけるプライバシ保護モデルトレーニングアプローチとして登場している。
本研究は,プライバシを維持しながら,資源利用のオーバーヘッドを伴わずにグループバイアスを最小限に抑えるグループフェアFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-13T16:53:48Z) - Federated Learning Robust to Byzantine Attacks: Achieving Zero
Optimality Gap [21.50616436951285]
本稿では,悪質なビザンツ人攻撃に効果的に取り組むことのできる,連邦学習(FL)のためのロバストな集約手法を提案する。
各ユーザでは、モデルのパラメータを複数のステップで更新し、イテレーションで調整可能となり、アグリゲーションセンターに直接プッシュする。
論文 参考訳(メタデータ) (2023-08-21T02:43:38Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Adversarial Dual-Student with Differentiable Spatial Warping for
Semi-Supervised Semantic Segmentation [70.2166826794421]
本研究では、教師なしデータ拡張を行うために、微分可能な幾何ワープを提案する。
また,平均教師数を改善するために,新しい対角的二重学習フレームワークを提案する。
我々のソリューションは、両方のデータセットで得られるパフォーマンスと最先端の結果を大幅に改善します。
論文 参考訳(メタデータ) (2022-03-05T17:36:17Z) - Unsupervised and self-adaptative techniques for cross-domain person
re-identification [82.54691433502335]
非重複カメラにおける人物再識別(ReID)は難しい課題である。
Unsupervised Domain Adaptation(UDA)は、ソースで訓練されたモデルから、IDラベルアノテーションなしでターゲットドメインへの機能学習適応を実行するため、有望な代替手段です。
本稿では,新しいオフライン戦略によって生成されたサンプルのトリプレットを利用する,UDAベースのReID手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T23:58:39Z) - Learning from History for Byzantine Robust Optimization [52.68913869776858]
分散学習の重要性から,ビザンチンの堅牢性が近年注目されている。
既存のロバストアグリゲーションルールの多くは、ビザンチンの攻撃者がいなくても収束しない可能性がある。
論文 参考訳(メタデータ) (2020-12-18T16:22:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。