論文の概要: Unified Alignment Protocol: Making Sense of the Unlabeled Data in New Domains
- arxiv url: http://arxiv.org/abs/2505.21010v1
- Date: Tue, 27 May 2025 10:44:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.586118
- Title: Unified Alignment Protocol: Making Sense of the Unlabeled Data in New Domains
- Title(参考訳): 統一アライメントプロトコル:新しいドメインでラベルなしデータを理解する
- Authors: Sabbir Ahmed, Mamshad Nayeem Rizve, Abdullah Al Arafat, Jacqueline Liu, Rahim Hossain, Mohaiminul Al Nahian, Adnan Siraj Rakin,
- Abstract要約: 半教師付きフェデレートラーニング(SSFL)は、多くの現実世界のアプリケーションにおいて、従来のフェデレートラーニングよりも人気を集めている。
本稿では,2段階の学習プロセスを交互に行うUnified Alignment Protocol (UAP) という新しいフレームワークを提案する。
標準領域一般化ベンチマークデータセットを用いた実験により,提案したUAPがSSFL設定でのSOTA一般化性能を達成できることが判明した。
- 参考スコア(独自算出の注目度): 11.357269242227858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semi-Supervised Federated Learning (SSFL) is gaining popularity over conventional Federated Learning in many real-world applications. Due to the practical limitation of limited labeled data on the client side, SSFL considers that participating clients train with unlabeled data, and only the central server has the necessary resources to access limited labeled data, making it an ideal fit for real-world applications (e.g., healthcare). However, traditional SSFL assumes that the data distributions in the training phase and testing phase are the same. In practice, however, domain shifts frequently occur, making it essential for SSFL to incorporate generalization capabilities and enhance their practicality. The core challenge is improving model generalization to new, unseen domains while the client participate in SSFL. However, the decentralized setup of SSFL and unsupervised client training necessitates innovation to achieve improved generalization across domains. To achieve this, we propose a novel framework called the Unified Alignment Protocol (UAP), which consists of an alternating two-stage training process. The first stage involves training the server model to learn and align the features with a parametric distribution, which is subsequently communicated to clients without additional communication overhead. The second stage proposes a novel training algorithm that utilizes the server feature distribution to align client features accordingly. Our extensive experiments on standard domain generalization benchmark datasets across multiple model architectures reveal that proposed UAP successfully achieves SOTA generalization performance in SSFL setting.
- Abstract(参考訳): 半教師付きフェデレートラーニング(SSFL)は、多くの現実世界のアプリケーションにおいて、従来のフェデレートラーニングよりも人気を集めている。
SSFLは、クライアント側の制限されたラベル付きデータの実用的制限のため、参加するクライアントはラベル付きデータでトレーニングされると考えており、中央サーバだけがラベル付きデータにアクセスするために必要なリソースを持っているため、現実世界のアプリケーション(例えばヘルスケア)に最適である。
しかし、従来のSSFLでは、トレーニングフェーズとテストフェーズのデータ分布は同じであると仮定している。
しかし、実際にはドメインシフトが頻繁に起こるため、SSFLが一般化機能を導入し、実用性を高めることが不可欠である。
鍵となる課題は、クライアントがSSFLに参加する間、モデル一般化を新しい、見えないドメインに改善することだ。
しかし、SSFLの分散セットアップと教師なしのクライアントトレーニングは、ドメイン間の一般化を改善するために革新を必要とする。
そこで本研究では,2段階の学習プロセスを交互に行うUnified Alignment Protocol (UAP) という新しいフレームワークを提案する。
第1段階では、サーバモデルをトレーニングして、機能とパラメトリックな分散を学習し、調整し、その後、追加の通信オーバーヘッドなしにクライアントに通信する。
第2段階では,サーバ機能分布を利用してクライアント機能を調整する新しいトレーニングアルゴリズムを提案する。
複数のモデルアーキテクチャにまたがる標準領域一般化ベンチマークデータセットに関する広範な実験により,提案したUAPがSSFL設定でSOTA一般化性能を達成できることが判明した。
関連論文リスト
- DP2FL: Dual Prompt Personalized Federated Learning in Foundation Models [1.8408298575385194]
ファンデーションモデルは強力な特徴抽出機能を示し、限られたローカルデータを微調整することでこの問題を軽減することができる。
本稿では,グローバルなタスク認識とローカルデータ駆動型インサイトを組み合わせたDual Prompt Personalized Federated Learningフレームワークを提案する。
DP2FLの迅速な設計と集約戦略の有効性を, 高度に異質な環境下で実験的に検証した。
論文 参考訳(メタデータ) (2025-04-23T02:13:56Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - TRAIL: Trust-Aware Client Scheduling for Semi-Decentralized Federated Learning [13.144501509175985]
本稿では、クライアントの状態とコントリビューションを評価するTRAILと呼ばれるTRust-Aware clIent scheduLing機構を提案する。
我々は、エッジサーバとクライアントが信頼できないクラスタ内モデルアグリゲーションとクラスタ間モデルコンセンサスを使用して、共有グローバルモデルをトレーニングする半分散FLフレームワークに焦点を当てる。
実世界のデータセットで行われた実験では、TRAILは最先端のベースラインを上回っ、テスト精度が8.7%向上し、トレーニング損失が15.3%減少した。
論文 参考訳(メタデータ) (2024-12-16T05:02:50Z) - HierSFL: Local Differential Privacy-aided Split Federated Learning in
Mobile Edge Computing [7.180235086275924]
フェデレートラーニング(Federated Learning)は、データのプライバシを維持しながらユーザデータから学ぶための、有望なアプローチである。
Split Federated Learningは、クライアントが中間モデルトレーニング結果をクラウドサーバにアップロードして、協調的なサーバ-クライアントモデルのトレーニングを行う。
この手法は、モデルトレーニングへのリソース制約のあるクライアントの参加を促進するだけでなく、トレーニング時間と通信オーバーヘッドも増大させる。
我々は,階層的分割フェデレート学習(HierSFL)と呼ばれる新しいアルゴリズムを提案し,エッジとクラウドのフェーズでアマルガメートをモデル化する。
論文 参考訳(メタデータ) (2024-01-16T09:34:10Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - SemiSFL: Split Federated Learning on Unlabeled and Non-IID Data [34.49090830845118]
フェデレートラーニング(FL)は、複数のクライアントがネットワークエッジでプライベートデータ上で機械学習モデルを協調的にトレーニングできるようにするためのものだ。
クラスタリング正規化を取り入れて,ラベルなしおよび非IIDクライアントデータでSFLを実行する,Semi-supervised SFLシステムを提案する。
本システムは,訓練時間の3.8倍の高速化を実現し,目標精度を達成しつつ通信コストを約70.3%削減し,非IIDシナリオで最大5.8%の精度向上を実現する。
論文 参考訳(メタデータ) (2023-07-29T02:35:37Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - To Federate or Not To Federate: Incentivizing Client Participation in
Federated Learning [22.3101738137465]
フェデレートラーニング(FL)は、共通の機械学習モデルをトレーニングしようとするクライアントのグループ間のコラボレーションを促進する。
本稿では,グローバルモデルにインセンティブを与えるクライアントの割合を明示的に最大化する,IncFLと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:03:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。