論文の概要: FEDEXCHANGE: Bridging the Domain Gap in Federated Object Detection for Free
- arxiv url: http://arxiv.org/abs/2509.10503v1
- Date: Mon, 01 Sep 2025 17:39:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-21 06:05:45.759255
- Title: FEDEXCHANGE: Bridging the Domain Gap in Federated Object Detection for Free
- Title(参考訳): FEDEXCHANGE: フリーのフェデレーションオブジェクト検出におけるドメインギャップのブリッジ
- Authors: Haolin Yuan, Jingtao Li, Weiming Zhuang, Chen Chen, Lingjuan Lyu,
- Abstract要約: Federated Object Detection (FOD)は、クライアントがさまざまなドメインからローカルデータにアクセスすることなく、グローバルなオブジェクト検出モデルを協調的にトレーニングすることを可能にする。
既存のFOD法はしばしばエッジデバイスのハードウェア制約を見落とし、高い計算コストを発生させる局所的なトレーニング正規化を導入する。
本稿ではFEDEXCHANGEを提案する。FEDEXCHANGEはドメインギャップを埋める新しいFODフレームワークである。
- 参考スコア(独自算出の注目度): 58.34974215853841
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Object Detection (FOD) enables clients to collaboratively train a global object detection model without accessing their local data from diverse domains. However, significant variations in environment, weather, and other domain specific factors hinder performance, making cross domain generalization a key challenge. Existing FOD methods often overlook the hardware constraints of edge devices and introduce local training regularizations that incur high computational costs, limiting real-world applicability. In this paper, we propose FEDEXCHANGE, a novel FOD framework that bridges domain gaps without introducing additional local computational overhead. FEDEXCHANGE employs a server side dynamic model exchange strategy that enables each client to gain insights from other clients' domain data without direct data sharing. Specifically, FEDEXCHANGE allows the server to alternate between model aggregation and model exchange. During aggregation rounds, the server aggregates all local models as usual. In exchange rounds, FEDEXCHANGE clusters and exchanges local models based on distance measures, allowing local models to learn from a variety of domains. As all operations are performed on the server side, clients can achieve improved cross domain utility without any additional computational overhead. Extensive evaluations demonstrate that FEDEXCHANGE enhances FOD performance, achieving 1.6X better mean average precision in challenging domains, such as rainy conditions, while requiring only 0.8X the computational resources compared to baseline methods.
- Abstract(参考訳): Federated Object Detection (FOD)は、クライアントがさまざまなドメインからローカルデータにアクセスすることなく、グローバルなオブジェクト検出モデルを協調的にトレーニングすることを可能にする。
しかし、環境、天候、その他のドメイン固有の要因の顕著な変化は性能を阻害し、クロスドメインの一般化が重要な課題となっている。
既存のFOD法は、エッジデバイスのハードウェア制約を見落とし、高い計算コストを発生させる局所的なトレーニング正規化を導入し、現実の応用性を制限する。
本稿では,FEDEXCHANGEを提案する。FEDEXCHANGEはドメインギャップを埋める新しいFODフレームワークである。
FEDEXCHANGEはサーバサイドの動的モデル交換戦略を採用しており、各クライアントは直接データを共有することなく、他のクライアントのドメインデータから洞察を得ることができる。
具体的には、FEDEXCHANGEは、サーバがモデルアグリゲーションとモデル交換を切り替えることを可能にする。
集約ラウンドの間、サーバは通常通りすべてのローカルモデルを集約します。
交換ラウンドでは、FEDEXCHANGEクラスタが距離測定に基づいてローカルモデルを交換し、ローカルモデルをさまざまなドメインから学習することができる。
すべての操作がサーバ側で行われるので、クライアントは追加の計算オーバーヘッドなしで改善されたクロスドメインユーティリティを実現できる。
FEDEXCHANGEはFOD性能を向上し,降雨条件などの挑戦領域の平均精度を1.6倍に向上する一方で,ベースライン法に比べて計算資源の0.8倍しか必要としないことを示した。
関連論文リスト
- Learning Latent Spaces for Domain Generalization in Time Series Forecasting [60.29403194508811]
時系列予測は多くの実世界のアプリケーションにおいて不可欠であるが、見つからない関連ドメインをうまく一般化するモデルの開発はまだ未定である。
本稿では,ドメイン間の時間的依存関係を規定する潜在因子をマイニングすることで時系列予測におけるドメイン一般化の枠組みを提案する。
提案手法では,新しい条件付き$beta$-Variational Autoencoder (VAE) を用いて,時系列データをトレンド周期および季節成分に分解する。
論文 参考訳(メタデータ) (2024-12-15T12:41:53Z) - PARDON: Privacy-Aware and Robust Federated Domain Generalization [5.584498171854557]
フェデレーテッド・ラーニング(FL)は、プライバシの保護と協調学習の実現を約束している。
クライアントデータが多様なドメインから来ると、目に見えないドメインのパフォーマンスが低下する。
既存のフェデレーションドメインの一般化アプローチはこの問題に対処するが、各クライアントがドメイン全体のデータを保持すると仮定する。
我々は、より複雑なドメイン分布を堅牢に扱うように設計された新しいFedDGパラダイムであるFISCを紹介する。
論文 参考訳(メタデータ) (2024-10-30T00:50:23Z) - FedCCRL: Federated Domain Generalization with Cross-Client Representation Learning [4.703379311088474]
ドメイン一般化(DG)は、目に見えないドメインに効果的に一般化できるモデルを訓練することを目的としている。
クライアントがデータを直接共有せずに協調的にモデルをトレーニングするフェデレートラーニング(FL)では、既存のDGアルゴリズムはFL設定に直接適用できない。
プライバシを保ちながらモデルの一般化能力を大幅に向上させる軽量なフェデレーションドメイン一般化手法であるFedCCRLを提案する。
論文 参考訳(メタデータ) (2024-10-15T04:44:21Z) - Feature Diversification and Adaptation for Federated Domain Generalization [27.646565383214227]
実世界のアプリケーションでは、ローカルクライアントは、しばしば制限されたドメイン内で動作し、クライアント間でのドメインシフトにつながる。
フェデレーション(federated feature diversification)の概念を導入し,プライバシを保ちながら,ローカルモデルによるクライアント不変表現の学習を支援する。
我々のグローバルモデルでは、目に見えないテスト領域データに対して堅牢な性能を示す。
論文 参考訳(メタデータ) (2024-07-11T07:45:10Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。