論文の概要: Cross-domain Federated Object Detection
- arxiv url: http://arxiv.org/abs/2206.14996v1
- Date: Thu, 30 Jun 2022 03:09:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 14:48:34.493430
- Title: Cross-domain Federated Object Detection
- Title(参考訳): クロスドメインフェデレーションオブジェクト検出
- Authors: Shangchao Su, Bin Li, Chengzhi Zhang, Mingzhao Yang, Xiangyang Xue
- Abstract要約: ひとつのパーティ(サーバ)によってトレーニングされた検出モデルは、他のユーザ(クライアント)に配布された場合、大幅にパフォーマンスが低下する可能性がある。
我々はFedODというドメイン間フェデレーションオブジェクト検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 43.057886969730184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detection models trained by one party (server) may face severe performance
degradation when distributed to other users (clients). For example, in
autonomous driving scenarios, different driving environments may bring obvious
domain shifts, which lead to biases in model predictions. Federated learning
that has emerged in recent years can enable multi-party collaborative training
without leaking client data. In this paper, we focus on a special cross-domain
scenario where the server contains large-scale data and multiple clients only
contain a small amount of data; meanwhile, there exist differences in data
distributions among the clients. In this case, traditional federated learning
techniques cannot take into account the learning of both the global knowledge
of all participants and the personalized knowledge of a specific client. To
make up for this limitation, we propose a cross-domain federated object
detection framework, named FedOD. In order to learn both the global knowledge
and the personalized knowledge in different domains, the proposed framework
first performs the federated training to obtain a public global aggregated
model through multi-teacher distillation, and sends the aggregated model back
to each client for finetuning its personalized local model. After very few
rounds of communication, on each client we can perform weighted ensemble
inference on the public global model and the personalized local model. With the
ensemble, the generalization performance of the client-side model can
outperform a single model with the same parameter scale. We establish a
federated object detection dataset which has significant background differences
and instance differences based on multiple public autonomous driving datasets,
and then conduct extensive experiments on the dataset. The experimental results
validate the effectiveness of the proposed method.
- Abstract(参考訳): あるパーティ(サーバ)がトレーニングした検出モデルは、他のユーザ(クライアント)に分散した場合、パフォーマンスが著しく低下する可能性がある。
例えば、自動運転のシナリオでは、異なる運転環境が明らかなドメインシフトをもたらし、モデル予測のバイアスにつながる可能性がある。
近年出現した連合学習は、クライアントデータを漏らすことなく、多人数共同トレーニングを可能にする。
本稿では、サーバが大規模データを含み、複数のクライアントが少量のデータしか保持しない特別なクロスドメインシナリオに注目し、一方、クライアント間でのデータ分散に違いがあることを示す。
この場合、従来の連合学習技術は、すべての参加者のグローバル知識と特定のクライアントのパーソナライズされた知識の両方の学習を考慮に入れられない。
この制限を補うために、FedODというドメイン間フェデレーションオブジェクト検出フレームワークを提案する。
提案フレームワークは,各ドメインにおけるグローバル知識とパーソナライズド知識の両方を学習するために,まず,マルチティーチングラー蒸留を通じて,パブリックグローバル集約モデルを得るためのフェデレーショントレーニングを実施し,各クライアントに集約モデルを送り,パーソナライズドローカルモデルを微調整する。
ごくわずかなコミュニケーションの後に、各クライアントは公開グローバルモデルとパーソナライズされたローカルモデルで重みづけられたアンサンブル推論を実行できます。
このアンサンブルにより、クライアントサイドモデルの一般化性能は、同じパラメータスケールで単一のモデルを上回ることができる。
本研究では,複数の公用自動運転データセットに基づいて,背景とインスタンスの差異を有意に有するフェデレーションオブジェクト検出データセットを構築し,そのデータセットを広範囲に実験する。
実験の結果,提案手法の有効性が検証された。
関連論文リスト
- Cross-Silo Federated Learning Across Divergent Domains with Iterative Parameter Alignment [4.95475852994362]
フェデレートラーニング(Federated Learning)は、リモートクライアント間で機械学習モデルをトレーニングする手法である。
我々は、共通の目的のために最適化されたNモデルを学ぶために、典型的な連合学習環境を再構築する。
この技術は、最先端のアプローチと比較して、様々なデータパーティションにおける競合的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-11-08T16:42:14Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Prototype Helps Federated Learning: Towards Faster Convergence [38.517903009319994]
Federated Learning(FL)は、複数のクライアントが協力して、生データを交換することなく、共有モデルをトレーニングする分散機械学習技術である。
本稿では,従来のフェデレーション学習プロセスの最後のグローバルイテレーションにわずかな変更を加えるだけで,推論性能を向上する,プロトタイプベースのフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-22T04:06:29Z) - PerFED-GAN: Personalized Federated Learning via Generative Adversarial
Networks [46.17495529441229]
フェデレーション学習(Federated Learning)は、AI依存のIoTアプリケーションをデプロイするために使用できる分散機械学習手法である。
本稿では,協調学習とGANに基づく連合学習手法を提案する。
提案手法は,クライアントのモデルアーキテクチャとデータ分布が大きく異なる場合,既存手法の精度を平均42%向上させる。
論文 参考訳(メタデータ) (2022-02-18T12:08:46Z) - Personalized Federated Learning through Local Memorization [10.925242558525683]
フェデレーション学習により、クライアントはデータをローカルに保ちながら、統計的モデルを協調的に学習することができる。
最近のパーソナライズされた学習方法は、他のクライアントで利用可能な知識を活用しながら、各クライアントに対して別々のモデルを訓練する。
本稿では,この手法が最先端手法よりも精度と公平性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-11-17T19:40:07Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。