論文の概要: Collaborative Semantic Aggregation and Calibration for Federated Domain
Generalization
- arxiv url: http://arxiv.org/abs/2110.06736v4
- Date: Thu, 25 May 2023 08:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-27 00:33:48.617919
- Title: Collaborative Semantic Aggregation and Calibration for Federated Domain
Generalization
- Title(参考訳): フェデレーション領域一般化のための協調的意味的アグリゲーションと校正
- Authors: Junkun Yuan, Xu Ma, Defang Chen, Fei Wu, Lanfen Lin, Kun Kuang
- Abstract要約: DGは、未知のターゲットドメインに適切に一般化できるモデルとして、複数の既知のソースドメインから学習することを目的としている。
本稿では、ソースデータセットをローカルにしかアクセスできないフェデレーションドメイン一般化の問題に取り組む。
データフリーなセマンティックアグリゲーションは、分離されたドメイン層でトレーニングされたモデルを層ごとに融合することで実現します。
- 参考スコア(独自算出の注目度): 28.573872986524794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG) aims to learn from multiple known source domains a
model that can generalize well to unknown target domains. The existing DG
methods usually exploit the fusion of shared multi-source data to train a
generalizable model. However, tremendous data is distributed across lots of
places nowadays that can not be shared due to privacy policies. In this paper,
we tackle the problem of federated domain generalization where the source
datasets can only be accessed and learned locally for privacy protection. We
propose a novel framework called Collaborative Semantic Aggregation and
Calibration (CSAC) to enable this challenging problem. To fully absorb
multi-source semantic information while avoiding unsafe data fusion, we conduct
data-free semantic aggregation by fusing the models trained on the separated
domains layer-by-layer. To address the semantic dislocation problem caused by
domain shift, we further design cross-layer semantic calibration with an
attention mechanism to align each semantic level and enhance domain invariance.
We unify multi-source semantic learning and alignment in a collaborative way by
repeating the semantic aggregation and calibration alternately, keeping each
dataset localized, and the data privacy is carefully protected. Extensive
experiments show the significant performance of our method in addressing this
challenging problem.
- Abstract(参考訳): ドメイン一般化(DG)は、未知のターゲットドメインに適切に一般化できるモデルとして、複数の既知のソースドメインから学習することを目的としている。
既存のDGメソッドは通常、共有マルチソースデータの融合を利用して一般化可能なモデルを訓練する。
しかし、今や膨大なデータが多くの場所に分散しており、プライバシーポリシーのために共有できない。
本稿では,ソースデータセットにのみアクセス可能で,プライバシ保護のためにローカルに学習できるフェデレーションドメイン一般化の問題に取り組む。
本稿では,CSAC(Collaborative Semantic Aggregation and Calibration)と呼ばれる新しいフレームワークを提案する。
安全でないデータ融合を回避しつつ、マルチソース意味情報を完全吸収するために、分離されたドメインでトレーニングされたモデルをレイヤごとに融合することにより、データフリーなセマンティックアグリゲーションを行う。
ドメインシフトに起因するセマンティックな転位問題に対処するため,各セマンティックレベルを調整し,ドメインの不変性を向上するアテンション機構を備えた層間セマンティックキャリブレーションを設計する。
本稿では,複数ソースのセマンティクス学習とアライメントを協調的に統合し,セマンティクス集約とキャリブレーションを交互に繰り返し,各データセットの局所化を保ち,データのプライバシを慎重に保護する。
大規模な実験により,この課題に対処する上で,本手法の有効性が示された。
関連論文リスト
- Reducing Source-Private Bias in Extreme Universal Domain Adaptation [11.875619863954238]
Universal Domain Adaptation (UniDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
我々は、ソースドメインが重複するクラスよりもはるかに重複しないクラスを持つ場合、最先端のメソッドが苦労していることを示す。
対象データの構造を保存するために,自己教師付き学習を提案する。
論文 参考訳(メタデータ) (2024-10-15T04:51:37Z) - Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - Single-domain Generalization in Medical Image Segmentation via Test-time
Adaptation from Shape Dictionary [64.5632303184502]
ドメインの一般化は通常、モデル学習のために複数のソースドメインからのデータを必要とする。
本稿では,1つのソースドメインのみで最悪のシナリオ下でモデルを学習し,異なる未確認対象ドメインに直接一般化する,重要な単一ドメインの一般化問題について考察する。
本稿では,領域間で不変なセグメンテーションのセグメンテーション先情報を抽出し,統合する医用画像セグメンテーションにおいて,この問題に対処する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-29T08:46:27Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Towards Data-Free Domain Generalization [12.269045654957765]
異なるソースデータドメインでトレーニングされたモデルに含まれる知識は、どのようにして単一のモデルにマージされるのか?
以前のドメインの一般化手法は、典型的にはソースドメインデータの使用に依存しており、プライベートな分散データには適さない。
DeKANは、利用可能な教師モデルからドメイン固有の知識を抽出し、融合し、ドメインシフトに頑健な学生モデルに変換するアプローチである。
論文 参考訳(メタデータ) (2021-10-09T11:44:05Z) - Generalizable Person Re-identification with Relevance-aware Mixture of
Experts [45.13716166680772]
我々はRaMoE(Relevance-Aware Mixed of Expert)と呼ばれる新しい手法を提案する。
RaMoEは、効率的な投票に基づく混合メカニズムを使用して、モデル一般化を改善するために、ソースドメインの様々な特性を動的に活用する。
対象ドメインの学習時の視認性を考慮し,新たな学習学習アルゴリズムと関係アライメント損失を組み合わせることで,投票ネットワークを更新する手法を提案する。
論文 参考訳(メタデータ) (2021-05-19T14:19:34Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。