論文の概要: Order-preserving Consistency Regularization for Domain Adaptation and
Generalization
- arxiv url: http://arxiv.org/abs/2309.13258v1
- Date: Sat, 23 Sep 2023 04:45:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 21:03:41.575703
- Title: Order-preserving Consistency Regularization for Domain Adaptation and
Generalization
- Title(参考訳): ドメイン適応と一般化のための順序保存一貫性規則化
- Authors: Mengmeng Jing, Xiantong Zhen, Jingjing Li, Cees Snoek
- Abstract要約: ディープラーニングモデルは、モデルがドメイン固有の属性に過敏である場合、ドメイン間の課題で失敗する。
クロスドメインタスクのための順序保存一貫性規則化(OCR)を提案する。
- 参考スコア(独自算出の注目度): 45.64969000499267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models fail on cross-domain challenges if the model is
oversensitive to domain-specific attributes, e.g., lightning, background,
camera angle, etc. To alleviate this problem, data augmentation coupled with
consistency regularization are commonly adopted to make the model less
sensitive to domain-specific attributes. Consistency regularization enforces
the model to output the same representation or prediction for two views of one
image. These constraints, however, are either too strict or not
order-preserving for the classification probabilities. In this work, we propose
the Order-preserving Consistency Regularization (OCR) for cross-domain tasks.
The order-preserving property for the prediction makes the model robust to
task-irrelevant transformations. As a result, the model becomes less sensitive
to the domain-specific attributes. The comprehensive experiments show that our
method achieves clear advantages on five different cross-domain tasks.
- Abstract(参考訳): ディープラーニングモデルは、ライトニング、バックグラウンド、カメラアングルなど、ドメイン固有の属性に過度に敏感なモデルでは、クロスドメインの課題に失敗する。
この問題を軽減するために、整合性正規化と結合したデータ拡張が一般的に採用され、モデルがドメイン固有の属性に敏感になる。
一貫性の正規化は、1つの画像の2つのビューに対して同じ表現や予測を出力するようにモデルを強制する。
しかし、これらの制約は厳密すぎるか、分類確率に対して秩序保存しないかのどちらかである。
本稿では,ドメイン間タスクのための順序保存一貫性規則化(OCR)を提案する。
予測の順序保存特性により、モデルはタスク非関連変換に対して堅牢となる。
その結果、モデルはドメイン固有の属性に対する感度が低下する。
包括的実験により、5つの異なるクロスドメインタスクにおいて明確な利点が得られた。
関連論文リスト
- Boundless Across Domains: A New Paradigm of Adaptive Feature and Cross-Attention for Domain Generalization in Medical Image Segmentation [1.93061220186624]
ドメイン不変表現学習は、ドメイン一般化の強力な方法である。
従来のアプローチでは、高い計算要求、トレーニングの不安定性、高次元データによる限られた有効性といった課題に直面していた。
本研究では,分布空間を探索しながら分布外サンプルを生成する適応的特徴ブレンディング(AFB)手法を提案する。
論文 参考訳(メタデータ) (2024-11-22T12:06:24Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Cross-Domain Ensemble Distillation for Domain Generalization [17.575016642108253]
クロスドメイン・アンサンブル蒸留(XDED)という,シンプルで効果的な領域一般化法を提案する。
本手法は,同じラベルを持つトレーニングデータから,異なるドメインから出力ロジットのアンサンブルを生成し,そのアンサンブルとのミスマッチに対して各出力をペナルティ化する。
本手法で学習したモデルは, 敵攻撃や画像の破損に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-11-25T12:32:36Z) - A Domain Gap Aware Generative Adversarial Network for Multi-domain Image
Translation [22.47113158859034]
本稿では,複数の領域にまたがって画像の変換を行う統一モデルを提案する。
単一の統一ジェネレータにより、モデルはグローバルな形状と複数のドメインにわたる局所的なテクスチャ情報との整合性を維持することができる。
論文 参考訳(メタデータ) (2021-10-21T00:33:06Z) - Heuristic Domain Adaptation [105.59792285047536]
Heuristic Domain Adaptation Network (HDAN)は、ドメイン不変およびドメイン固有表現を明示的に学習する。
Heuristic Domain Adaptation Network (HDAN)は、教師なしDA、マルチソースDA、半教師なしDAの最先端を超越している。
論文 参考訳(メタデータ) (2020-11-30T04:21:35Z) - Domain Adversarial Fine-Tuning as an Effective Regularizer [80.14528207465412]
自然言語処理(NLP)では、下流タスクに転送される事前訓練された言語モデル(LM)が、最先端の結果を得るために最近示されている。
標準的な微調整は、事前トレーニング中にキャプチャされた汎用ドメイン表現を分解することができる。
本稿では,新しい正規化手法である After; 有効正規化器としてのドメイン・アダクショナル・ファイン・チューニングを提案する。
論文 参考訳(メタデータ) (2020-09-28T14:35:06Z) - Learning from Scale-Invariant Examples for Domain Adaptation in Semantic
Segmentation [6.320141734801679]
本稿では,自己教師付きドメイン適応のためのセマンティックセグメンテーションモデルのスケール不変性を利用した新しいアプローチを提案する。
我々のアルゴリズムは、一般に、オブジェクトや物のサイズに関係なく、セマンティックなラベリングは変更すべきである、という合理的な仮定に基づいている。
この制約はターゲットドメインのイメージに反し、異なるスケールのパッチ間でラベルの転送に使用できることを示す。
論文 参考訳(メタデータ) (2020-07-28T19:40:45Z) - Self-Guided Adaptation: Progressive Representation Alignment for Domain
Adaptive Object Detection [86.69077525494106]
非教師なしドメイン適応(UDA)は、オブジェクト検出モデルのドメイン間ロバスト性を改善するために前例のない成功を収めた。
既存のUDA手法は、モデル学習中の瞬間的なデータ分布を無視しており、大きなドメインシフトによって特徴表現が劣化する可能性がある。
本稿では、特徴表現の整合とドメイン間のオブジェクト検出モデルの転送を目標とする自己ガイド適応モデルを提案する。
論文 参考訳(メタデータ) (2020-03-19T13:30:45Z) - Bi-Directional Generation for Unsupervised Domain Adaptation [61.73001005378002]
教師なしのドメイン適応は、確立されたソースドメイン情報に依存するラベルなしのターゲットドメインを促進する。
従来の手法では、潜在空間におけるドメインの不一致を強制的に低減することで、本質的なデータ構造が破壊される。
本稿では、2つの中間領域をブリッジソースとターゲットドメインに補間する一貫した分類器を用いた双方向生成ドメイン適応モデルを提案する。
論文 参考訳(メタデータ) (2020-02-12T09:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。