論文の概要: Deep Latent Variable Model based Vertical Federated Learning with Flexible Alignment and Labeling Scenarios
- arxiv url: http://arxiv.org/abs/2505.11035v1
- Date: Fri, 16 May 2025 09:30:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.480297
- Title: Deep Latent Variable Model based Vertical Federated Learning with Flexible Alignment and Labeling Scenarios
- Title(参考訳): フレキシブルアライメントとラベル付きシナリオを用いた深潜時可変モデルに基づく垂直フェデレーション学習
- Authors: Kihun Hong, Sejun Park, Ganguk Hwang,
- Abstract要約: フェデレートラーニング(FL)は、プライベートデータを公開せずに協調学習を可能にすることで大きな注目を集めている。
任意のアライメントとラベリングシナリオ下でのトレーニングと推論の両方に対応可能な統合フレームワークを提案する。
本手法は, 上位の競合相手に対して平均9.6ポイントの差がある160例において, 全ベースラインを上回ります。
- 参考スコア(独自算出の注目度): 8.971234046933349
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has attracted significant attention for enabling collaborative learning without exposing private data. Among the primary variants of FL, vertical federated learning (VFL) addresses feature-partitioned data held by multiple institutions, each holding complementary information for the same set of users. However, existing VFL methods often impose restrictive assumptions such as a small number of participating parties, fully aligned data, or only using labeled data. In this work, we reinterpret alignment gaps in VFL as missing data problems and propose a unified framework that accommodates both training and inference under arbitrary alignment and labeling scenarios, while supporting diverse missingness mechanisms. In the experiments on 168 configurations spanning four benchmark datasets, six training-time missingness patterns, and seven testing-time missingness patterns, our method outperforms all baselines in 160 cases with an average gap of 9.6 percentage points over the next-best competitors. To the best of our knowledge, this is the first VFL framework to jointly handle arbitrary data alignment, unlabeled data, and multi-party collaboration all at once.
- Abstract(参考訳): フェデレートラーニング(FL)は、プライベートデータを公開せずに協調学習を可能にすることで大きな注目を集めている。
FLの主要な変種のうち、垂直連合学習(VFL)は複数の機関が保持する特徴分割データに対処する。
しかしながら、既存のVFL手法では、少数の参加者、完全に整列したデータ、ラベル付きデータのみを使用するといった制限的な仮定が課されることが多い。
本研究では,VFLにおけるアライメントギャップをデータ不足問題として再解釈し,任意のアライメントとラベリングシナリオ下でのトレーニングと推論の両方に対応できる統一フレームワークを提案する。
ベンチマークデータセット4つ、トレーニング時間不足パターン6つ、テスト時間不足パターン7つにまたがる168構成の実験では、次の競争相手よりも平均9.6%の差で、160ケースですべてのベースラインを上回りました。
私たちの知る限りでは、これは任意のデータアライメント、ラベルなしデータ、複数パーティのコラボレーションを同時に扱う最初のVFLフレームワークです。
関連論文リスト
- Vertical Federated Learning in Practice: The Good, the Bad, and the Ugly [42.31182713177944]
本稿では,VFL(Vertical Federated Learning)アプリケーションにおける実世界のデータ分布を分析した。
本稿では,実際のVFLデータ分布に基づくVFLアルゴリズムの新たなデータ指向分類法を提案する。
これらの観測に基づいて、現在のVFL研究と実世界の応用とのギャップを埋めるための重要な研究の方向性を概説する。
論文 参考訳(メタデータ) (2025-02-12T07:03:32Z) - Unlocking the Potential of Prompt-Tuning in Bridging Generalized and
Personalized Federated Learning [49.72857433721424]
Vision Transformer (ViT) と Visual Prompt Tuning (VPT) は、様々なコンピュータビジョンタスクの効率を改善して最先端のパフォーマンスを実現する。
本稿では,GFL(Generalized FL)とPFL(Personalized FL)を組み合わせた新しいアルゴリズムSGPTを提案する。
論文 参考訳(メタデータ) (2023-10-27T17:22:09Z) - VertiBench: Advancing Feature Distribution Diversity in Vertical
Federated Learning Benchmarks [31.08004805380727]
本稿では,VFLの性能に影響を及ぼす2つの要因について紹介する。
また、画像イメージのVFLシナリオの欠点に対応するために、実際のVFLデータセットも導入する。
論文 参考訳(メタデータ) (2023-07-05T05:55:08Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - UniFed: All-In-One Federated Learning Platform to Unify Open-Source
Frameworks [53.20176108643942]
オープンソースフェデレートラーニング(FL)フレームワークを標準化する最初の統一プラットフォームであるUniFedを紹介します。
UniFedは、分散実験とデプロイメントのためのエンドツーエンドワークフローを合理化し、11の人気のあるオープンソースFLフレームワークを含んでいる。
機能、プライバシ保護、パフォーマンスの観点から、11の人気のあるFLフレームワークを評価し比較する。
論文 参考訳(メタデータ) (2022-07-21T05:03:04Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - FedSemi: An Adaptive Federated Semi-Supervised Learning Framework [23.90642104477983]
フェデレートラーニング(FL)は、データを共有し、プライバシーを漏らすことなく、機械学習モデルをコトレーニングするための効果的なテクニックとして登場した。
既存のFL法の多くは、教師付き設定に重点を置いて、ラベルなしデータの利用を無視している。
本稿では,FedSemiを提案する。FedSemiは,教師-学生モデルを用いてFLに整合性正則化を導入する新しい,適応的で汎用的なフレームワークである。
論文 参考訳(メタデータ) (2020-12-06T15:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。