論文の概要: Domain Invariant Masked Autoencoders for Self-supervised Learning from
Multi-domains
- arxiv url: http://arxiv.org/abs/2205.04771v1
- Date: Tue, 10 May 2022 09:49:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-14 15:40:49.735419
- Title: Domain Invariant Masked Autoencoders for Self-supervised Learning from
Multi-domains
- Title(参考訳): マルチドメインからの自己教師付き学習のためのドメイン不変マスキングオートエンコーダ
- Authors: Haiyang Yang, Meilin Chen, Yizhou Wang, Shixiang Tang, Feng Zhu, Lei
Bai, Rui Zhao, Wanli Ouyang
- Abstract要約: マルチドメインからの自己教師型学習のためのドメイン不変のMasked AutoEncoder (DiMAE)を提案する。
中心となる考え方は、入力画像を異なるドメインからのスタイルノイズで拡張し、拡張イメージの埋め込みからイメージを再構築することである。
PACSとDomainNetの実験は、最近の最先端の手法と比較して、DiMAEがかなりの利益を得ていることを示している。
- 参考スコア(独自算出の注目度): 73.54897096088149
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Generalizing learned representations across significantly different visual
domains is a fundamental yet crucial ability of the human visual system. While
recent self-supervised learning methods have achieved good performances with
evaluation set on the same domain as the training set, they will have an
undesirable performance decrease when tested on a different domain. Therefore,
the self-supervised learning from multiple domains task is proposed to learn
domain-invariant features that are not only suitable for evaluation on the same
domain as the training set but also can be generalized to unseen domains. In
this paper, we propose a Domain-invariant Masked AutoEncoder (DiMAE) for
self-supervised learning from multi-domains, which designs a new pretext task,
\emph{i.e.,} the cross-domain reconstruction task, to learn domain-invariant
features. The core idea is to augment the input image with style noise from
different domains and then reconstruct the image from the embedding of the
augmented image, regularizing the encoder to learn domain-invariant features.
To accomplish the idea, DiMAE contains two critical designs, 1)
content-preserved style mix, which adds style information from other domains to
input while persevering the content in a parameter-free manner, and 2) multiple
domain-specific decoders, which recovers the corresponding domain style of
input to the encoded domain-invariant features for reconstruction. Experiments
on PACS and DomainNet illustrate that DiMAE achieves considerable gains
compared with recent state-of-the-art methods.
- Abstract(参考訳): 異なる視覚領域にまたがる学習表現を一般化することは、人間の視覚システムの基本的かつ重要な能力である。
近年の自己教師型学習手法は,トレーニングセットと同じドメインで評価を行い,優れたパフォーマンスを達成しているが,異なるドメインでテストした場合,望ましくないパフォーマンスが低下する。
したがって、複数のドメインタスクから自己教師付き学習を行い、トレーニングセットと同じドメインの評価に適するだけでなく、未知のドメインにも一般化できるドメイン不変特徴を学習する。
本稿では,マルチドメインから自己教師付き学習を行うためのドメイン不変マスク型オートエンコーダ(dimae)を提案する。
コアとなるアイデアは、異なるドメインからのスタイルノイズで入力イメージを増強し、拡張画像の埋め込みからイメージを再構築し、エンコーダを正則化してドメイン不変の特徴を学ぶことである。
DiMAEには2つの重要な設計が含まれている。
1) パラメータフリーでコンテンツを持続しながら入力に他のドメインからのスタイル情報を追加するコンテンツ保存スタイルミックス
2)複数のドメイン固有デコーダは、コード化されたドメイン不変の機能に対応する入力のドメインスタイルを復元する。
PACSとDomainNetの実験は、最近の最先端の手法と比較して、DiMAEがかなりの利益を得ていることを示している。
関連論文リスト
- Domain-Scalable Unpaired Image Translation via Latent Space Anchoring [88.7642967393508]
Unpaired Image-to-image Translation (UNIT)は、2つの視覚領域間の画像をペアのトレーニングデータなしでマッピングすることを目的としている。
そこで本研究では、潜在空間アンカーと呼ばれる新しい領域スケーリング可能なUNIT手法を提案する。
本手法は, 軽量エンコーダと回帰器モデルを学習することにより, 異なる領域の画像を, 凍ったGANと同じ潜伏空間に固定する。
推論フェーズでは、異なるドメインの学習エンコーダとデコーダを任意に組み合わせて、微調整なしで任意の2つのドメイン間で画像を変換することができる。
論文 参考訳(メタデータ) (2023-06-26T17:50:02Z) - Aggregation of Disentanglement: Reconsidering Domain Variations in
Domain Generalization [9.577254317971933]
ドメイン変種には、下流のタスクに有用な情報、すなわち分類対応情報も含まれている、と我々は主張する。
本稿では,ドメインエキスパートの特徴をソース・ドメイン・イメージから切り離すために,DDN(Domain Disentanglement Network)と呼ばれる新しいパラダイムを提案する。
また、ドメインの専門家がよりバランスよく分離可能な機能空間を形成するための、新しい対照的な学習方法を提案します。
論文 参考訳(メタデータ) (2023-02-05T09:48:57Z) - Domain Generalization by Learning and Removing Domain-specific Features [15.061481139046952]
ドメインの一般化は、目に見えないドメインに一般化できるモデルを学ぶことでこの問題に対処することを目的としている。
ドメインの一般化のために、ドメイン固有の機能を明示的に削除することを目的とした、新しいアプローチを提案する。
学習領域固有の特徴を除去した新しい画像空間に各入力画像をマッピングするエンコーダデコーダネットワークを開発した。
論文 参考訳(メタデータ) (2022-12-14T08:46:46Z) - PiPa: Pixel- and Patch-wise Self-supervised Learning for Domain
Adaptative Semantic Segmentation [100.6343963798169]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、学習モデルの他のドメインへの一般化を強化することを目的としている。
そこで我々は,ドメイン適応型セマンティックセマンティックセグメンテーションのための,PiPaという,画素・パッチ対応の自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-14T18:31:24Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Boosting Binary Masks for Multi-Domain Learning through Affine
Transformations [49.25451497933657]
マルチドメイン学習の目標は、すべてのドメインでタスクを実行する単一のモデルを作成することです。
最近の研究は、学習されたバイナリ変数を通して、与えられた元のconv-netの内部重みをマスキングすることでこの問題に対処できることを示した。
元のネットワークパラメータのアフィン変換によるマルチドメイン学習のためのバイナリマスクベースのモデルの一般定式化を提供する。
論文 参考訳(メタデータ) (2021-03-25T14:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。