論文の概要: Proto-EVFL: Enhanced Vertical Federated Learning via Dual Prototype with Extremely Unaligned Data
- arxiv url: http://arxiv.org/abs/2507.22488v1
- Date: Wed, 30 Jul 2025 08:48:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.10301
- Title: Proto-EVFL: Enhanced Vertical Federated Learning via Dual Prototype with Extremely Unaligned Data
- Title(参考訳): Proto-EVFL: 極端に不整合なデータを持つデュアルプロトタイプによる垂直的フェデレーション学習の強化
- Authors: Wei Guo, Yiyang Duan, Zhaojun Hu, Yiqi Tong, Fuzhen Zhuang, Xiao Zhang, Jin Dong, Ruofan Wu, Tengfei Liu, Yifan Sun,
- Abstract要約: 垂直連合学習(VFL)では、VFLの異なる分野にまたがるアンアライメントなサンプルは、極端にクラス不均衡である。
デュアルプロトタイプによる拡張VFLフレームワークであるProto-EVFLを提案する。
VFL における二段階最適化フレームワークである Proto-EVFL が収束速度 1/sqrt T であることを示す。
- 参考スコア(独自算出の注目度): 28.626677790020082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In vertical federated learning (VFL), multiple enterprises address aligned sample scarcity by leveraging massive locally unaligned samples to facilitate collaborative learning. However, unaligned samples across different parties in VFL can be extremely class-imbalanced, leading to insufficient feature representation and limited model prediction space. Specifically, class-imbalanced problems consist of intra-party class imbalance and inter-party class imbalance, which can further cause local model bias and feature contribution inconsistency issues, respectively. To address the above challenges, we propose Proto-EVFL, an enhanced VFL framework via dual prototypes. We first introduce class prototypes for each party to learn relationships between classes in the latent space, allowing the active party to predict unseen classes. We further design a probabilistic dual prototype learning scheme to dynamically select unaligned samples by conditional optimal transport cost with class prior probability. Moreover, a mixed prior guided module guides this selection process by combining local and global class prior probabilities. Finally, we adopt an \textit{adaptive gated feature aggregation strategy} to mitigate feature contribution inconsistency by dynamically weighting and aggregating local features across different parties. We proved that Proto-EVFL, as the first bi-level optimization framework in VFL, has a convergence rate of 1/\sqrt T. Extensive experiments on various datasets validate the superiority of our Proto-EVFL. Even in a zero-shot scenario with one unseen class, it outperforms baselines by at least 6.97%
- Abstract(参考訳): 垂直連合学習(VFL)では、複数の企業が、大規模で非整合的なサンプルを活用して協調学習を促進することで、整合性の欠如に対処している。
しかしながら、VFLの異なるパーティにまたがるアンアライメントなサンプルは極端にクラス不均衡になり、特徴表現が不足し、モデル予測空間が制限される。
特に、クラス不均衡問題は、それぞれ局所的モデルバイアスと特徴的不整合問題をさらに引き起こすことができる、党内クラス不均衡と党間クラス不均衡からなる。
上記の課題に対処するため,デュアルプロトタイプによる拡張VFLフレームワークであるProto-EVFLを提案する。
まず、各パーティが潜在空間のクラス間の関係を学習するためにクラスプロトタイプを導入し、アクティブなパーティが目に見えないクラスを予測できるようにします。
さらに、クラス事前確率で条件付き最適輸送コストで非整合サンプルを動的に選択する確率的双対プロトタイプ学習スキームを設計する。
さらに、混合事前案内モジュールは、局所クラスとグローバルクラスの事前確率を組み合わせることで、この選択プロセスを導く。
最後に,各パーティ間で局所的な特徴を動的に重み付け,集約することにより,特徴貢献の不整合を軽減するために,‘textit{adaptive gated feature aggregate strategy’を採用する。
我々は,VFLにおける二段階最適化フレームワークであるProto-EVFLが収束率1/\sqrt Tを持つことを示した。
目に見えないクラスが1つあるゼロショットシナリオでさえ、ベースラインを少なくとも6.97%上回る
関連論文リスト
- Heterogeneous Federated Learning with Prototype Alignment and Upscaling [0.7373617024876724]
Prototype Normalization (ProtoNorm) は、最適化されたプロトタイプ分離に対処する新しいPBFLフレームワークである。
提案手法はプロトタイプを分離し,既存のHtFL手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-07-06T09:34:41Z) - FedORGP: Guiding Heterogeneous Federated Learning with Orthogonality Regularization on Global Prototypes [31.93057335216804]
フェデレートラーニング(FL)は、分散機械学習に不可欠なフレームワークとして登場した。
現在のアプローチでは、クラスを分離する際の制限に直面している。
本稿では,クラス内プロトタイプの類似性を奨励し,クラス間角分離を拡大するFedtFLORGを紹介する。
論文 参考訳(メタデータ) (2025-02-22T07:02:51Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - FedCVT: Semi-supervised Vertical Federated Learning with Cross-view Training [9.638604434238882]
フェデレート・クロスビュー・トレーニング(Federated Cross-view Training, FedCVT)は、縦型フェデレーション学習モデルの性能を向上させる半教師付き学習手法である。
FedCVTは独自のデータとモデルパラメータを共有する必要はなく、データのプライバシを保存する。
論文 参考訳(メタデータ) (2020-08-25T06:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。