論文の概要: Cross-domain Federated Object Detection
- arxiv url: http://arxiv.org/abs/2206.14996v2
- Date: Mon, 28 Aug 2023 16:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 01:56:03.500961
- Title: Cross-domain Federated Object Detection
- Title(参考訳): クロスドメインフェデレーションオブジェクト検出
- Authors: Shangchao Su, Bin Li, Chengzhi Zhang, Mingzhao Yang, Xiangyang Xue
- Abstract要約: フェデレーション学習は、クライアントデータをリークすることなく、多人数の共同学習を可能にする。
我々はFedODというドメイン間フェデレーションオブジェクト検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 43.66352018668227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detection models trained by one party (including server) may face severe
performance degradation when distributed to other users (clients). Federated
learning can enable multi-party collaborative learning without leaking client
data. In this paper, we focus on a special cross-domain scenario in which the
server has large-scale labeled data and multiple clients only have a small
amount of labeled data; meanwhile, there exist differences in data
distributions among the clients. In this case, traditional federated learning
methods can't help a client learn both the global knowledge of all participants
and its own unique knowledge. To make up for this limitation, we propose a
cross-domain federated object detection framework, named FedOD. The proposed
framework first performs the federated training to obtain a public global
aggregated model through multi-teacher distillation, and sends the aggregated
model back to each client for fine-tuning its personalized local model. After a
few rounds of communication, on each client we can perform weighted ensemble
inference on the public global model and the personalized local model. We
establish a federated object detection dataset which has significant background
differences and instance differences based on multiple public autonomous
driving datasets, and then conduct extensive experiments on the dataset. The
experimental results validate the effectiveness of the proposed method.
- Abstract(参考訳): ある当事者(サーバを含む)がトレーニングした検出モデルは、他のユーザ(クライアント)に配布された場合、深刻なパフォーマンス低下に直面する可能性がある。
フェデレーション学習は、クライアントデータをリークすることなく、多人数共同学習を可能にする。
本稿では、サーバが大規模にラベル付きデータを持ち、複数のクライアントが少数のラベル付きデータしか持たない特別なクロスドメインシナリオに注目し、一方、クライアント間でのデータ分散に違いがあることを示す。
この場合、従来の連合学習手法は、クライアントがすべての参加者のグローバルな知識と独自の知識の両方を学ぶのに役立ちません。
この制限を補うために、FedODというドメイン間フェデレーションオブジェクト検出フレームワークを提案する。
提案フレームワークは,まず,マルチティーチンガー蒸留によるグローバル集約モデルを得るためのフェデレーショントレーニングを行い,各クライアントに集約モデルを送信し,パーソナライズされたローカルモデルを微調整する。
数回のコミュニケーションの後、各クライアントは公開グローバルモデルとパーソナライズされたローカルモデルで重み付けアンサンブル推論を実行できます。
本研究では,複数の公用自動運転データセットに基づいて,背景とインスタンスの差異を有意に有するフェデレーションオブジェクト検出データセットを構築し,そのデータセットを広範囲に実験する。
実験の結果,提案手法の有効性が検証された。
関連論文リスト
- Cross-Silo Federated Learning Across Divergent Domains with Iterative Parameter Alignment [4.95475852994362]
フェデレートラーニング(Federated Learning)は、リモートクライアント間で機械学習モデルをトレーニングする手法である。
我々は、共通の目的のために最適化されたNモデルを学ぶために、典型的な連合学習環境を再構築する。
この技術は、最先端のアプローチと比較して、様々なデータパーティションにおける競合的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-11-08T16:42:14Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Prototype Helps Federated Learning: Towards Faster Convergence [38.517903009319994]
Federated Learning(FL)は、複数のクライアントが協力して、生データを交換することなく、共有モデルをトレーニングする分散機械学習技術である。
本稿では,従来のフェデレーション学習プロセスの最後のグローバルイテレーションにわずかな変更を加えるだけで,推論性能を向上する,プロトタイプベースのフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-22T04:06:29Z) - PerFED-GAN: Personalized Federated Learning via Generative Adversarial
Networks [46.17495529441229]
フェデレーション学習(Federated Learning)は、AI依存のIoTアプリケーションをデプロイするために使用できる分散機械学習手法である。
本稿では,協調学習とGANに基づく連合学習手法を提案する。
提案手法は,クライアントのモデルアーキテクチャとデータ分布が大きく異なる場合,既存手法の精度を平均42%向上させる。
論文 参考訳(メタデータ) (2022-02-18T12:08:46Z) - Personalized Federated Learning through Local Memorization [10.925242558525683]
フェデレーション学習により、クライアントはデータをローカルに保ちながら、統計的モデルを協調的に学習することができる。
最近のパーソナライズされた学習方法は、他のクライアントで利用可能な知識を活用しながら、各クライアントに対して別々のモデルを訓練する。
本稿では,この手法が最先端手法よりも精度と公平性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-11-17T19:40:07Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。