論文の概要: Learning to Learn Domain-invariant Parameters for Domain Generalization
- arxiv url: http://arxiv.org/abs/2211.04582v1
- Date: Fri, 4 Nov 2022 07:19:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 23:29:28.998820
- Title: Learning to Learn Domain-invariant Parameters for Domain Generalization
- Title(参考訳): 領域一般化のための領域不変パラメータの学習
- Authors: Feng Hou, Yao Zhang, Yang Liu, Jin Yuan, Cheng Zhong, Yang Zhang,
Zhongchao Shi, Jianping Fan, Zhiqiang He
- Abstract要約: ドメイン一般化(DG)は、ソースドメインからドメイン不変表現をキャプチャすることでこの問題を克服することを目的としている。
DDC(Domain Decoupling and Combination)とDIGB(Domain-invariance-guided Backpropagation)の2つのモジュールを提案する。
提案手法は,高い一般化能力を有する最先端性能を実現する。
- 参考スコア(独自算出の注目度): 29.821634033299855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to domain shift, deep neural networks (DNNs) usually fail to generalize
well on unknown test data in practice. Domain generalization (DG) aims to
overcome this issue by capturing domain-invariant representations from source
domains. Motivated by the insight that only partial parameters of DNNs are
optimized to extract domain-invariant representations, we expect a general
model that is capable of well perceiving and emphatically updating such
domain-invariant parameters. In this paper, we propose two modules of Domain
Decoupling and Combination (DDC) and Domain-invariance-guided Backpropagation
(DIGB), which can encourage such general model to focus on the parameters that
have a unified optimization direction between pairs of contrastive samples. Our
extensive experiments on two benchmarks have demonstrated that our proposed
method has achieved state-of-the-art performance with strong generalization
capability.
- Abstract(参考訳): ドメインシフトのため、ディープニューラルネットワーク(DNN)は通常、未知のテストデータに対してうまく一般化できない。
ドメイン一般化(DG)は、ソースドメインからドメイン不変表現をキャプチャすることでこの問題を克服することを目的としている。
dnnの部分的パラメータのみがドメイン不変表現を抽出するために最適化されているという洞察に動機づけられたので、ドメイン不変パラメータをよく認識し強調的に更新できる一般的なモデルが期待できる。
本稿では,DDC(Domain Decoupling and Combination)とDIGB(Domain-invariance-Guided Backpropagation)の2つのモジュールを提案する。
2つのベンチマークの広範な実験により,提案手法は高い一般化能力を有する最先端性能を達成できた。
関連論文リスト
- Bayesian Domain Invariant Learning via Posterior Generalization of
Parameter Distributions [29.018103152856792]
PosTerior Generalization (PTG)は、DomainBed上の様々な領域の一般化ベンチマークで競合性能を示す。
PTGは、トレーニング領域における不変後部と後部を含む、近似パラメータ分布に対する変分推論を完全に活用する。
論文 参考訳(メタデータ) (2023-10-25T01:17:08Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Domain Generalisation for Object Detection under Covariate and Concept Shift [10.32461766065764]
ドメインの一般化は、ドメイン固有の特徴を抑えながら、ドメイン不変の機能の学習を促進することを目的としている。
オブジェクト検出のためのドメイン一般化手法を提案し, オブジェクト検出アーキテクチャに適用可能な最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-10T11:14:18Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - Invariant Information Bottleneck for Domain Generalization [39.62337297660974]
本稿では,学習領域やテスト領域で不変な最小限の表現を学習するアルゴリズムを提案する。
表現と入力間の相互情報の最小化により、IIBは擬似不変性への依存を緩和する。
その結果、IIBは2つの評価指標に対して平均2.8%と3.8%の精度で不変学習ベースライン(例えばIRM)より優れていた。
論文 参考訳(メタデータ) (2021-06-11T12:12:40Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Dual Distribution Alignment Network for Generalizable Person
Re-Identification [174.36157174951603]
ドメイン一般化(DG)は、人物再識別(Re-ID)を扱うための有望なソリューションとして機能する
本稿では、複数のソースドメインの分布を選択的に整列させることにより、この問題に対処するDual Distribution Alignment Network(DDAN)を提案する。
大規模なDomain Generalization Re-ID(DG Re-ID)ベンチマークでDDANを評価した。
論文 参考訳(メタデータ) (2020-07-27T00:08:07Z) - Learning to Learn with Variational Information Bottleneck for Domain
Generalization [128.90691697063616]
ドメイン一般化モデルは、これまで見つからなかった領域に一般化することを学ぶが、予測の不確実性とドメインシフトに悩まされる。
ドメイン一般化のための確率論的メタラーニングモデルを導入し、ドメイン間で共有されるパラメータを分布としてモデル化する。
ドメインシフトに対処するため、メタ変動情報ボトルネックという提案原則を用いてドメイン不変表現を学習し、メタVIBと呼ぶ。
論文 参考訳(メタデータ) (2020-07-15T12:05:52Z) - Bi-Directional Generation for Unsupervised Domain Adaptation [61.73001005378002]
教師なしのドメイン適応は、確立されたソースドメイン情報に依存するラベルなしのターゲットドメインを促進する。
従来の手法では、潜在空間におけるドメインの不一致を強制的に低減することで、本質的なデータ構造が破壊される。
本稿では、2つの中間領域をブリッジソースとターゲットドメインに補間する一貫した分類器を用いた双方向生成ドメイン適応モデルを提案する。
論文 参考訳(メタデータ) (2020-02-12T09:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。