論文の概要: Attention Consistency on Visual Corruptions for Single-Source Domain
Generalization
- arxiv url: http://arxiv.org/abs/2204.13091v1
- Date: Wed, 27 Apr 2022 17:39:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 14:14:17.779513
- Title: Attention Consistency on Visual Corruptions for Single-Source Domain
Generalization
- Title(参考訳): 単一ソースドメイン一般化のための視覚的腐敗に対する注意一貫性
- Authors: Ilke Cugu, Massimiliano Mancini, Yanbei Chen, Zeynep Akata
- Abstract要約: 視覚認識モデルを一般化するには、トレーニングセット内の過剰な相関に堅牢にする必要がある。
トレーニングイメージを変更して新しいドメインをシミュレートし、同じサンプルの異なるビューに対して一貫した視覚的注意を喚起することで、この目標を達成する。
私たちは我々のモデルAttention Consistency on Visual Corruptions (ACVC)と名付けた。
- 参考スコア(独自算出の注目度): 53.640469435173124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalizing visual recognition models trained on a single distribution to
unseen input distributions (i.e. domains) requires making them robust to
superfluous correlations in the training set. In this work, we achieve this
goal by altering the training images to simulate new domains and imposing
consistent visual attention across the different views of the same sample. We
discover that the first objective can be simply and effectively met through
visual corruptions. Specifically, we alter the content of the training images
using the nineteen corruptions of the ImageNet-C benchmark and three additional
transformations based on Fourier transform. Since these corruptions preserve
object locations, we propose an attention consistency loss to ensure that class
activation maps across original and corrupted versions of the same training
sample are aligned. We name our model Attention Consistency on Visual
Corruptions (ACVC). We show that ACVC consistently achieves the state of the
art on three single-source domain generalization benchmarks, PACS, COCO, and
the large-scale DomainNet.
- Abstract(参考訳): 単一分布上で訓練された視覚認識モデルを、未知の入力分布(すなわちドメイン)に一般化するには、トレーニングセットにおける過剰な相関に頑健にする必要がある。
本研究では,新しいドメインをシミュレートするためにトレーニングイメージを変更し,同じサンプルの異なるビューに対して一貫した視覚的注意を課することで,この目標を達成する。
最初の目的は視覚的腐敗によってシンプルかつ効果的に達成できることに気づきました。
具体的には、imagenet-cベンチマークの19の破損とフーリエ変換に基づく3つの追加変換を用いて、トレーニング画像の内容を変更する。
これらの腐敗はオブジェクトの位置を保つため、同じトレーニングサンプルのオリジナル版と破損版のクラスアクティベーションマップが一致していることを保証するために、注意一貫性の損失を提案する。
われわれのモデルAttention Consistency on Visual Corruptions (ACVC) と名付けた。
本稿では,ACVCが,PACS,COCO,大規模DomainNetの3つの単一ソース領域一般化ベンチマークにおいて,その技術の現状を一貫して達成していることを示す。
関連論文リスト
- WIDIn: Wording Image for Domain-Invariant Representation in Single-Source Domain Generalization [63.98650220772378]
We present WIDIn, Wording Images for Domain-Invariant representation, to disentangleative discriminative visual representation。
まず、ドメイン固有の言語を適応的に識別し、削除するために使用可能な、きめ細かいアライメントを組み込んだ言語を推定する。
WIDInは、CLIPのような事前訓練された視覚言語モデルと、MoCoやBERTのような個別訓練されたユニモーダルモデルの両方に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-05-28T17:46:27Z) - Visual Foundation Models Boost Cross-Modal Unsupervised Domain Adaptation for 3D Semantic Segmentation [17.875516787157018]
本研究では,2次元視覚基礎モデルから得られた知識を活用して,ラベルのない対象ドメインのより正確なラベルを生成する方法について検討する。
本手法は, 各種自律走行データセットを用いて評価し, 3次元セグメンテーションタスクにおいて有意な改善が得られた。
論文 参考訳(メタデータ) (2024-03-15T03:58:17Z) - Correlational Image Modeling for Self-Supervised Visual Pre-Training [81.82907503764775]
相関画像モデリング(Relational Image Modeling)は、自己監督型視覚前訓練における、新しくて驚くほど効果的なアプローチである。
3つの重要な設計は、相関画像モデリングを非自明で有意義な自己監督タスクとして実現している。
論文 参考訳(メタデータ) (2023-03-22T15:48:23Z) - Unsupervised Domain Adaptation with Contrastive Learning for OCT
Segmentation [49.59567529191423]
本稿では,新しい未ラベル領域からのボリューム画像のセグメンテーションのための,新しい半教師付き学習フレームワークを提案する。
教師付き学習とコントラスト学習を併用し、3次元の近傍スライス間の類似性を利用したコントラストペア方式を導入する。
論文 参考訳(メタデータ) (2022-03-07T19:02:26Z) - Unsupervised Domain Adaptation for Cross-Modality Retinal Vessel
Segmentation via Disentangling Representation Style Transfer and
Collaborative Consistency Learning [3.9562534927482704]
ドメインシフトが大きいタスクに対する、新しいクロスモーダルな教師なしドメイン適応フレームワークDCDAを提案する。
本フレームワークは,OCTAからOCT,OCTからOCTAまで,目標に訓練されたオラクルに近いDiceスコアを達成し,他の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-01-13T07:03:16Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - PixMatch: Unsupervised Domain Adaptation via Pixelwise Consistency
Training [4.336877104987131]
教師なしドメイン適応はセマンティックセグメンテーションの有望なテクニックである。
対象領域整合性訓練の概念に基づく非監視領域適応のための新しいフレームワークを提案する。
私たちのアプローチはシンプルで、実装が簡単で、トレーニング時にメモリ効率が向上します。
論文 参考訳(メタデータ) (2021-05-17T19:36:28Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。