論文の概要: Is Generative Modeling-based Stylization Necessary for Domain Adaptation
in Regression Tasks?
- arxiv url: http://arxiv.org/abs/2306.01706v1
- Date: Fri, 2 Jun 2023 17:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 14:05:50.422933
- Title: Is Generative Modeling-based Stylization Necessary for Domain Adaptation
in Regression Tasks?
- Title(参考訳): 生成モデリングに基づくスタイライゼーションは回帰タスクにおけるドメイン適応に必要か?
- Authors: Jinman Park, Francois Barnard, Saad Hossain, Sirisha Rambhatla, Paul
Fieguth
- Abstract要約: 本稿では,回帰作業における視覚領域適応における入力レベルアライメントの役割について検討する。
入力アライメントは、分類と比較して回帰タスクにはほとんど影響しないことがわかった。
我々は,非パラメトリックな特徴レベルドメインアライメント手法であるImSty(ImSty)を開発し,SOTA回帰タスクに対して一貫した改善をもたらす。
- 参考スコア(独自算出の注目度): 10.266869799165827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) aims to bridge the gap between source
and target domains in the absence of target domain labels using two main
techniques: input-level alignment (such as generative modeling and stylization)
and feature-level alignment (which matches the distribution of the feature
maps, e.g. gradient reversal layers). Motivated from the success of generative
modeling for image classification, stylization-based methods were recently
proposed for regression tasks, such as pose estimation. However, use of
input-level alignment via generative modeling and stylization incur additional
overhead and computational complexity which limit their use in real-world DA
tasks. To investigate the role of input-level alignment for DA, we ask the
following question: Is generative modeling-based stylization necessary for
visual domain adaptation in regression? Surprisingly, we find that
input-alignment has little effect on regression tasks as compared to
classification. Based on these insights, we develop a non-parametric
feature-level domain alignment method -- Implicit Stylization (ImSty) -- which
results in consistent improvements over SOTA regression task, without the need
for computationally intensive stylization and generative modeling. Our work
conducts a critical evaluation of the role of generative modeling and
stylization, at a time when these are also gaining popularity for domain
generalization.
- Abstract(参考訳): 教師なしドメイン適応(UDA)は、入力レベルアライメント(生成モデリングやスタイリゼーションなど)と特徴レベルアライメント(例えば勾配反転層のような特徴マップの分布と一致する)という2つの主要な手法を用いて、ターゲットドメインラベルが存在しない場合に、ソースとターゲットドメイン間のギャップを埋めることを目的としている。
画像分類における生成モデルの成功から、最近、ポーズ推定などの回帰タスクに対してスタイリゼーションに基づく手法が提案されている。
しかし、生成モデリングとスタイリングによる入力レベルのアライメントの使用は、実際のDAタスクでの使用を制限する追加のオーバーヘッドと計算の複雑さをもたらす。
DAにおける入力レベルアライメントの役割を調査するためには, 回帰における視覚領域適応に生成モデルに基づくスタイリングが必要か?
意外なことに、入力アライメントは、分類と比較して回帰タスクにはほとんど影響しない。
これらの知見に基づき、計算集約型スタイリゼーションや生成モデリングを必要とせず、SOTA回帰タスクよりも一貫した改善をもたらす非パラメトリックな特徴レベルドメインアライメント手法、ImStyを開発した。
本研究は、ドメインの一般化においても人気が高まっている時期に、生成モデリングとスタイル化の役割を批判的に評価する。
関連論文リスト
- StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - Mitigate Domain Shift by Primary-Auxiliary Objectives Association for
Generalizing Person ReID [39.98444065846305]
ReIDモデルは、インスタンス分類の目的に関するトレーニングを通じてのみドメイン不変表現を学ぶのに苦労します。
本稿では,弱いラベル付き歩行者唾液度検出のための補助学習目標を用いて,プライマリReIDインスタンス分類目標のモデル学習を指導する手法を提案する。
我々のモデルは、最近のテストタイムダイアグラムで拡張してPAOA+を形成し、補助的な目的に対してオンザフライ最適化を行うことができる。
論文 参考訳(メタデータ) (2023-10-24T15:15:57Z) - Precision-Recall Divergence Optimization for Generative Modeling with
GANs and Normalizing Flows [54.050498411883495]
本研究では,ジェネレーティブ・アドバイサル・ネットワークや正規化フローなどの生成モデルのための新しいトレーニング手法を開発した。
指定された精度-リコールトレードオフを達成することは、textitPR-divergencesと呼ぶ家族からのユニークな$f$-divergenceを最小化することを意味する。
当社のアプローチは,ImageNetなどのデータセットでテストした場合の精度とリコールの両面で,BigGANのような既存の最先端モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-05-30T10:07:17Z) - Deep Graph Reprogramming [112.34663053130073]
グラフニューラルネットワーク(GNN)に適したタスク再利用モデル「ディープグラフ再プログラミング」
本稿では,モデル再プログラミングパラダイムと並行して,革新的なデータ再プログラミングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-28T02:04:29Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Attention-based Cross-Layer Domain Alignment for Unsupervised Domain
Adaptation [14.65316832227658]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインから伝達可能な知識を学び、トレーニングされたモデルをラベルなしターゲットドメインに適応させることを目的としている。
1つの一般的な戦略は、ディープモデルによって抽出されたセマンティックな特徴を整合させることで、分布の相違を最小限にすることである。
論文 参考訳(メタデータ) (2022-02-27T08:36:12Z) - Revisiting Deep Subspace Alignment for Unsupervised Domain Adaptation [42.16718847243166]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識の転送と適応を目的としている。
伝統的に、部分空間に基づく手法はこの問題に対する重要な解のクラスを形成する。
本稿では,UDAにおける部分空間アライメントの利用を再検討し,一貫した一般化をもたらす新しい適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-05T20:16:38Z) - PERL: Pivot-based Domain Adaptation for Pre-trained Deep Contextualized
Embedding Models [20.62501560076402]
PERL: ピボットベースの微調整によるBERTのような文脈型単語埋め込みモデルを拡張した表現学習モデル。
PerLは22の感情分類ドメイン適応設定で強いベースラインを上回ります。
効果的に縮小サイズのモデルを生成し、モデルの安定性を高める。
論文 参考訳(メタデータ) (2020-06-16T11:14:06Z) - Cross-domain Detection via Graph-induced Prototype Alignment [114.8952035552862]
カテゴリレベルのドメインアライメントを求めるグラフ誘発プロトタイプアライメント(GPA)フレームワークを提案する。
さらに,クラス不均衡がドメイン適応に与える影響を軽減するために,クラス重み付きコントラスト損失を設計する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-03-28T17:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。