論文の概要: Towards Active Participant-Centric Vertical Federated Learning: Some Representations May Be All You Need
- arxiv url: http://arxiv.org/abs/2410.17648v1
- Date: Wed, 23 Oct 2024 08:07:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:55:22.161484
- Title: Towards Active Participant-Centric Vertical Federated Learning: Some Representations May Be All You Need
- Title(参考訳): 積極的参加型垂直的フェデレーション学習を目指して
- Authors: Jon Irureta, Jon Imaz, Aizea Lojo, Marco González, Iñigo Perona,
- Abstract要約: VFL(Vertical Federated Learning)に新たなシンプルなアプローチを導入する。
Active Participant-Centric VFLは、アクティブな参加者が非協力的な方法で推論を行うことを可能にする。
この方法は、教師なし表現学習と知識蒸留を統合し、従来のVFL法に匹敵する精度を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Vertical Federated Learning (VFL) enables collaborative model training across different participants with distinct features and common samples, while preserving data privacy. Existing VFL methodologies often struggle with realistic data partitions, typically incurring high communication costs and significant operational complexity. In this work, we introduce a novel simplified approach to VFL, Active Participant-Centric VFL (APC-VFL), that, to the best of our knowledge, is the first to require only a single communication round between participants, and allows the active participant to do inference in a non collaborative fashion. This method integrates unsupervised representation learning with knowledge distillation to achieve comparable accuracy to traditional VFL methods based on vertical split learning in classical settings, reducing required communication rounds by up to $4200\times$, while being more flexible. Our approach also shows improvements compared to non-federated local models, as well as a comparable VFL proposal, VFedTrans, offering an efficient and flexible solution for collaborative learning.
- Abstract(参考訳): Vertical Federated Learning (VFL)は、データプライバシを保ちながら、異なる機能と一般的なサンプルを持つ、さまざまな参加者間で協調的なモデルトレーニングを可能にする。
既存のVFL方法論は、しばしば現実的なデータ分割に苦しむ。
本稿では,VFL(Active Participant-Centric VFL, APC-VFL)に対する新たな簡易なアプローチを提案する。
この手法は、教師なし表現学習と知識蒸留を統合し、古典的な環境下での垂直分割学習に基づく従来のVFL法と同等の精度を達成し、必要な通信ラウンドを最大4200\times$に削減し、より柔軟である。
当社のアプローチでは,非フェデレートなローカルモデルと同等のVFL提案であるVFedTransによる,協調学習のための効率的かつ柔軟なソリューションも提供しています。
関連論文リスト
- VFL-RPS: Relevant Participant Selection in Vertical Federated Learning [0.06181089784338582]
フェデレートラーニング(FL)は、異なるパーティ間のコラボレーションを可能にすると同時に、これらのパーティ間のデータが共有されないことを保証する。
本稿では,VFLにおける参加者選択のための新しい手法であるVFL-RPSを提案する。
提案手法は,VFLにおける既存の参加者選択方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-02-20T09:05:55Z) - Vertical Federated Learning in Practice: The Good, the Bad, and the Ugly [42.31182713177944]
本稿では,VFL(Vertical Federated Learning)アプリケーションにおける実世界のデータ分布を分析した。
本稿では,実際のVFLデータ分布に基づくVFLアルゴリズムの新たなデータ指向分類法を提案する。
これらの観測に基づいて、現在のVFL研究と実世界の応用とのギャップを埋めるための重要な研究の方向性を概説する。
論文 参考訳(メタデータ) (2025-02-12T07:03:32Z) - Vertical Federated Learning for Effectiveness, Security, Applicability: A Survey [67.48187503803847]
Vertical Federated Learning(VFL)は、プライバシ保護のための分散学習パラダイムである。
近年の研究では、VFLの様々な課題に対処する有望な成果が示されている。
この調査は、最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2024-05-25T16:05:06Z) - A Bargaining-based Approach for Feature Trading in Vertical Federated
Learning [54.51890573369637]
本稿では,垂直的フェデレートラーニング(VFL)において,経済的に効率的な取引を促進するための交渉型特徴取引手法を提案する。
当社のモデルでは,収益ベース最適化の目的を考慮し,パフォーマンスゲインベースの価格設定を取り入れている。
論文 参考訳(メタデータ) (2024-02-23T10:21:07Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - BadVFL: Backdoor Attacks in Vertical Federated Learning [22.71527711053385]
フェデレートラーニング(FL)は、複数のパーティがデータを共有することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
本稿では,VFLのロバスト性,特にバックドアアタックに焦点をあてる。
VFLでは,ラベル推論とバックドアフェーズという2つのフェーズからなる第1種クリーンラベルバックドアアタックが提案されている。
論文 参考訳(メタデータ) (2023-04-18T09:22:32Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - Low-Latency Cooperative Spectrum Sensing via Truncated Vertical
Federated Learning [51.51440623636274]
データプライバシを損なうことなく、複数のセカンダリユーザ(SU)にまたがる分散機能を活用できる垂直連合学習(VFL)フレームワークを提案する。
学習プロセスの高速化を目的として,T-VFL(Truncated vertical Federated Learning)アルゴリズムを提案する。
T-VFLの収束性能は、数学的解析によって提供され、シミュレーション結果によって正当化される。
論文 参考訳(メタデータ) (2022-08-07T10:39:27Z) - Towards Communication-efficient Vertical Federated Learning Training via
Cache-enabled Local Updates [25.85564668511386]
CELU-VFLは,新しい,効率的な垂直学習フレームワークである。
CELU-VFLは、ローカル更新技術を利用して、サードパーティ間の通信ラウンドを減らす。
CELU-VFLは既存の作業の最大6倍高速であることを示す。
論文 参考訳(メタデータ) (2022-07-29T12:10:36Z) - Achieving Model Fairness in Vertical Federated Learning [47.8598060954355]
垂直連合学習(VFL)は、複数の企業が重複しない機能を保有して、プライベートデータやモデルパラメータを開示することなく、機械学習モデルを強化することを可能にする。
VFLは公平性の問題に悩まされており、すなわち、学習されたモデルはセンシティブな属性を持つグループに対して不公平に差別的である可能性がある。
この問題に対処するための公平なVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-17T04:40:11Z) - Multi-Participant Multi-Class Vertical Federated Learning [16.75182305714081]
本稿では,多人数VFL問題に対する多人数多人数垂直フェデレート学習(MMVFL)フレームワークを提案する。
MMVFLは、所有者から他のVFL参加者へのラベルの共有をプライバシー保護の方法で行うことができる。
実世界のデータセットを用いた実験結果から,MMVFLは複数のVFL参加者間でラベル情報を効果的に共有し,既存手法のマルチクラス分類性能と一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-01-30T02:39:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。