論文の概要: Learning from Extrinsic and Intrinsic Supervisions for Domain
Generalization
- arxiv url: http://arxiv.org/abs/2007.09316v1
- Date: Sat, 18 Jul 2020 03:12:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:33:13.032793
- Title: Learning from Extrinsic and Intrinsic Supervisions for Domain
Generalization
- Title(参考訳): ドメイン一般化のための外在的・内在的スーパービジョンからの学習
- Authors: Shujun Wang, Lequan Yu, Caizi Li, Chi-Wing Fu, and Pheng-Ann Heng
- Abstract要約: ドメイン間を同時に一般化する方法を学ぶための新しいドメイン一般化フレームワークを提案する。
提案手法の有効性を2つの標準オブジェクト認識ベンチマークで示す。
- 参考スコア(独自算出の注目度): 95.73898853032865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The generalization capability of neural networks across domains is crucial
for real-world applications. We argue that a generalized object recognition
system should well understand the relationships among different images and also
the images themselves at the same time. To this end, we present a new domain
generalization framework that learns how to generalize across domains
simultaneously from extrinsic relationship supervision and intrinsic
self-supervision for images from multi-source domains. To be specific, we
formulate our framework with feature embedding using a multi-task learning
paradigm. Besides conducting the common supervised recognition task, we
seamlessly integrate a momentum metric learning task and a self-supervised
auxiliary task to collectively utilize the extrinsic supervision and intrinsic
supervision. Also, we develop an effective momentum metric learning scheme with
K-hard negative mining to boost the network to capture image relationship for
domain generalization. We demonstrate the effectiveness of our approach on two
standard object recognition benchmarks VLCS and PACS, and show that our methods
achieve state-of-the-art performance.
- Abstract(参考訳): ドメイン間のニューラルネットワークの一般化能力は、現実世界のアプリケーションにとって不可欠である。
一般化された物体認識システムは、異なる画像間の関係や画像自体を同時に理解すべきである、と我々は主張する。
そこで本研究では,マルチソースドメインの画像に対する外在的関係監視と内在的自己監督から,ドメイン間の共通化を同時に行うための新しいドメイン一般化フレームワークを提案する。
具体的には、マルチタスク学習パラダイムを用いた機能埋め込みでフレームワークを定式化する。
共通教師付き認識タスクの実施に加えて,運動量学習タスクと自己指導型補助タスクをシームレスに統合し,外在的監督と内在的監督を総合的に活用する。
また,k-hard negative mining を用いた効果的な運動量メトリック学習手法を開発し,ネットワークを増強し,領域一般化のための画像関係を捉える。
提案手法の有効性をVLCSとPACSの2つの標準オブジェクト認識ベンチマークに示すとともに,本手法が最先端性能を実現することを示す。
関連論文リスト
- Multi-Scale and Multi-Layer Contrastive Learning for Domain Generalization [5.124256074746721]
深部畳み込みニューラルネットワークの一般化能力は、ネットワークの多層的および多スケール的表現を活用することで向上できると論じる。
画像分類器の領域一般化を目的とした,低レベル特徴と高レベル特徴を複数スケールで組み合わせたフレームワークを提案する。
我々のモデルは従来のDG手法よりも優れており、全てのデータセットにおいて競争力と最先端の結果を連続的に生成できることを示す。
論文 参考訳(メタデータ) (2023-08-28T08:54:27Z) - Modeling Multiple Views via Implicitly Preserving Global Consistency and
Local Complementarity [61.05259660910437]
複数の視点から表現を学習するために,グローバルな一貫性と相補性ネットワーク(CoCoNet)を提案する。
グローバルな段階では、重要な知識はビュー間で暗黙的に共有され、そのような知識を捕捉するためのエンコーダの強化は、学習された表現の識別性を向上させることができる。
最後に、局所的な段階において、横断的な識別的知識を結合する相補的要素を提案し、また、エンコーダが視点的識別性だけでなく、横断的な相補的情報も学習するように誘導する。
論文 参考訳(メタデータ) (2022-09-16T09:24:00Z) - Unsupervised Domain Generalization by Learning a Bridge Across Domains [78.855606355957]
Unsupervised Domain Generalization (UDG) のセットアップでは、ソースもターゲットドメインもトレーニングの監督は行わない。
本手法は,各トレーニング領域からBrADへの視覚的(イメージ間)マッピングを保存したセマンティクスのセットを伴って,補助的なブリッジドメインであるBrAD(Bridge Across Domains)の自己教師型学習に基づいている。
我々は,エッジレギュラー化したBrADを用いて,UDG,Few-shot UDA,マルチドメインデータセット間の教師なし一般化など,複数のベンチマークやタスクにまたがる大幅な向上を実現する方法を示す。
論文 参考訳(メタデータ) (2021-12-04T10:25:45Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Domain-Robust Visual Imitation Learning with Mutual Information
Constraints [0.0]
Disentangling Generative Adversarial Imitation Learning (DisentanGAIL)と呼ばれる新しいアルゴリズムを導入する。
本アルゴリズムは,タスクを実行する専門家の高次元観察から自律エージェントを直接学習することを可能にする。
論文 参考訳(メタデータ) (2021-03-08T21:18:58Z) - Self-Supervised Learning Across Domains [33.86614301708017]
本稿では,ドメイン間のオブジェクト認識の問題に対して,同様のアプローチを適用することを提案する。
モデルでは,教師付き方式でセマンティックラベルを学習し,同じ画像上の自己教師型信号から学習することで,データに対する理解を深める。
この二次的なタスクは、ネットワークが対象の形状、空間配向や部分相関といった概念を学ぶのに役立ち、分類タスクの正規化として機能する。
論文 参考訳(メタデータ) (2020-07-24T06:19:53Z) - Self-supervised Learning from a Multi-view Perspective [121.63655399591681]
自己教師型表現はタスク関連情報を抽出し,タスク関連情報を破棄することができることを示す。
我々の理論的枠組みは、自己教師型学習目標設計のより広い空間への道を開くものである。
論文 参考訳(メタデータ) (2020-06-10T00:21:35Z) - Improving out-of-distribution generalization via multi-task
self-supervised pretraining [48.29123326140466]
我々は,自己教師付き学習を用いて得られた特徴が,コンピュータビジョンにおける領域一般化のための教師付き学習に匹敵するか,それより優れていることを示す。
本稿では,Gaborフィルタバンクに対する応答を予測するための自己教師型プレテキストタスクを提案する。
論文 参考訳(メタデータ) (2020-03-30T14:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。