論文の概要: Unsupervised Domain Generalization by Learning a Bridge Across Domains
- arxiv url: http://arxiv.org/abs/2112.02300v1
- Date: Sat, 4 Dec 2021 10:25:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 16:39:21.856372
- Title: Unsupervised Domain Generalization by Learning a Bridge Across Domains
- Title(参考訳): ドメイン間のブリッジ学習による教師なしドメイン一般化
- Authors: Sivan Harary, Eli Schwartz, Assaf Arbelle, Peter Staar, Shady
Abu-Hussein, Elad Amrani, Roei Herzig, Amit Alfassy, Raja Giryes, Hilde
Kuehne, Dina Katabi, Kate Saenko, Rogerio Feris, Leonid Karlinsky
- Abstract要約: Unsupervised Domain Generalization (UDG) のセットアップでは、ソースもターゲットドメインもトレーニングの監督は行わない。
本手法は,各トレーニング領域からBrADへの視覚的(イメージ間)マッピングを保存したセマンティクスのセットを伴って,補助的なブリッジドメインであるBrAD(Bridge Across Domains)の自己教師型学習に基づいている。
我々は,エッジレギュラー化したBrADを用いて,UDG,Few-shot UDA,マルチドメインデータセット間の教師なし一般化など,複数のベンチマークやタスクにまたがる大幅な向上を実現する方法を示す。
- 参考スコア(独自算出の注目度): 78.855606355957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to generalize learned representations across significantly
different visual domains, such as between real photos, clipart, paintings, and
sketches, is a fundamental capacity of the human visual system. In this paper,
different from most cross-domain works that utilize some (or full) source
domain supervision, we approach a relatively new and very practical
Unsupervised Domain Generalization (UDG) setup of having no training
supervision in neither source nor target domains. Our approach is based on
self-supervised learning of a Bridge Across Domains (BrAD) - an auxiliary
bridge domain accompanied by a set of semantics preserving visual
(image-to-image) mappings to BrAD from each of the training domains. The BrAD
and mappings to it are learned jointly (end-to-end) with a contrastive
self-supervised representation model that semantically aligns each of the
domains to its BrAD-projection, and hence implicitly drives all the domains
(seen or unseen) to semantically align to each other. In this work, we show how
using an edge-regularized BrAD our approach achieves significant gains across
multiple benchmarks and a range of tasks, including UDG, Few-shot UDA, and
unsupervised generalization across multi-domain datasets (including
generalization to unseen domains and classes).
- Abstract(参考訳): 実際の写真、クリップアート、絵画、スケッチなど、異なる視覚領域で学習された表現を一般化する能力は、人間の視覚システムの基本能力である。
本稿では、いくつかのソースドメイン管理を利用する多くのクロスドメインワークと異なり、ソースドメインとターゲットドメインの両方でトレーニングの監督を行わない比較的新しい、非常に実用的なUnsupervised Domain Generalization(UDG)にアプローチする。
本手法は,各トレーニング領域からBrADへの視覚的(イメージ間)マッピングを保存したセマンティクスのセットを伴って,補助的なブリッジドメインであるBrAD(Bridge Across Domains)の自己教師型学習に基づいている。
bradとそれへのマッピングは、それぞれのドメインをbrad-射影に意味的に整列させ、したがって暗黙的にすべてのドメイン(seenまたはunseen)を互いに意味的に整列させる、対照的な自己教師付き表現モデルと共に(エンドツーエンドで)学習される。
本稿では、エッジ正規化bradのアプローチが、udg、少数ショットuda、マルチドメインデータセット(未認識のドメインやクラスへの一般化を含む)にまたがる教師なし一般化など、複数のベンチマークとタスクにわたって大きな向上を達成する方法を示す。
関連論文リスト
- Domain Generalization for Domain-Linked Classes [8.738092015092207]
実世界では、クラスはドメインリンクされ、すなわち特定のドメインでのみ表現される。
本稿では,ドメインリンクDG,FONDのためのFair and cONtrastive feature-space regularizationアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-01T16:39:50Z) - INDIGO: Intrinsic Multimodality for Domain Generalization [26.344372409315177]
マルチモーダル情報がどのように「本質的な」方法で活用され、システムが目に見えない領域の下で一般化されるかを検討する。
IntriNsic multimodality for DomaIn GeneralizatiOn (INDIGO)を提案する。
論文 参考訳(メタデータ) (2022-06-13T05:41:09Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z) - Open Domain Generalization with Domain-Augmented Meta-Learning [83.59952915761141]
オープンドメイン一般化(OpenDG)の新しい実践的問題について研究する。
本稿では,オープンドメイン一般化表現を学ぶためのメタ学習フレームワークを提案する。
種々のマルチドメインデータセットの実験結果から、提案したドメイン拡張メタラーニング(DAML)が、未確認ドメイン認識の先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-08T09:12:24Z) - Unsupervised Wasserstein Distance Guided Domain Adaptation for 3D
Multi-Domain Liver Segmentation [14.639633860575621]
非教師なしドメイン適応は、ソースドメインから新たなターゲットドメインに医用画像に基づいてトレーニングされた堅牢なモデルを適用する際に、ネットワーク性能を改善することを目的としている。
本稿では,ワッサースタイン距離誘導不整合表現に基づく3次元マルチドメイン肝セグメンテーションの手法を提案する。
論文 参考訳(メタデータ) (2020-09-06T23:48:27Z) - Latent Normalizing Flows for Many-to-Many Cross-Domain Mappings [76.85673049332428]
画像とテキストの合同表現の学習は、画像キャプションのようないくつかの重要なドメイン横断タスクのバックボーンを形成する。
ドメイン間の共有情報とドメイン固有の情報を個別にモデル化する,新しい半教師付きフレームワークを提案する。
画像キャプションやテキスト・ツー・イメージ合成など,様々なタスクにおけるモデルの有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T19:49:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。