論文の概要: Self-Supervised Learning Across Domains
- arxiv url: http://arxiv.org/abs/2007.12368v2
- Date: Wed, 31 Mar 2021 13:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 06:49:19.364759
- Title: Self-Supervised Learning Across Domains
- Title(参考訳): ドメイン間の自己監督型学習
- Authors: Silvia Bucci, Antonio D'Innocente, Yujun Liao, Fabio Maria Carlucci,
Barbara Caputo, Tatiana Tommasi
- Abstract要約: 本稿では,ドメイン間のオブジェクト認識の問題に対して,同様のアプローチを適用することを提案する。
モデルでは,教師付き方式でセマンティックラベルを学習し,同じ画像上の自己教師型信号から学習することで,データに対する理解を深める。
この二次的なタスクは、ネットワークが対象の形状、空間配向や部分相関といった概念を学ぶのに役立ち、分類タスクの正規化として機能する。
- 参考スコア(独自算出の注目度): 33.86614301708017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human adaptability relies crucially on learning and merging knowledge from
both supervised and unsupervised tasks: the parents point out few important
concepts, but then the children fill in the gaps on their own. This is
particularly effective, because supervised learning can never be exhaustive and
thus learning autonomously allows to discover invariances and regularities that
help to generalize. In this paper we propose to apply a similar approach to the
problem of object recognition across domains: our model learns the semantic
labels in a supervised fashion, and broadens its understanding of the data by
learning from self-supervised signals on the same images. This secondary task
helps the network to focus on object shapes, learning concepts like spatial
orientation and part correlation, while acting as a regularizer for the
classification task over multiple visual domains. Extensive experiments confirm
our intuition and show that our multi-task method combining supervised and
self-supervised knowledge shows competitive results with respect to more
complex domain generalization and adaptation solutions. It also proves its
potential in the novel and challenging predictive and partial domain adaptation
scenarios.
- Abstract(参考訳): 人間の適応性は、監督されたタスクと監督されていないタスクの両方から知識を学習し統合することに依存している。
教師付き学習は決して徹底的ではないため、自律的に学習することで一般化に役立つ不変性や規則性を発見できるため、これは特に効果的である。
本稿では,同様のアプローチをドメイン間のオブジェクト認識の問題に適用する。このモデルでは,意味ラベルを教師ありの方法で学習し,同一画像上の自己教師あり信号から学習することで,データの理解範囲を広げる。
この二次的なタスクは、複数の視覚領域上の分類タスクのレギュレータとして機能しながら、オブジェクトの形状、空間配向や部分相関といった概念を学ぶのに役立つ。
広範な実験により,より複雑な領域一般化と適応ソリューションに関して,教師付き知識と自己教師付き知識を組み合わせたマルチタスク手法が競争的な結果を示すことが示された。
また、新しくて挑戦的な予測と部分的なドメイン適応シナリオでその可能性を証明します。
関連論文リスト
- Modeling Multiple Views via Implicitly Preserving Global Consistency and
Local Complementarity [61.05259660910437]
複数の視点から表現を学習するために,グローバルな一貫性と相補性ネットワーク(CoCoNet)を提案する。
グローバルな段階では、重要な知識はビュー間で暗黙的に共有され、そのような知識を捕捉するためのエンコーダの強化は、学習された表現の識別性を向上させることができる。
最後に、局所的な段階において、横断的な識別的知識を結合する相補的要素を提案し、また、エンコーダが視点的識別性だけでなく、横断的な相補的情報も学習するように誘導する。
論文 参考訳(メタデータ) (2022-09-16T09:24:00Z) - Alignment Attention by Matching Key and Query Distributions [48.93793773929006]
本稿では,各ヘッダ内のキーとクエリの分布を一致させる自己注意を促すアライメントアテンションアテンションアテンションアテンションアテンションを導入している。
事前学習したモデルを含む自己注意のモデルはすべて、提案したアライメントアテンションアテンションアテンションに変換することが簡単である。
様々な言語理解タスクにおいて, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃に対する堅牢性などの手法の有効性を示す。
論文 参考訳(メタデータ) (2021-10-25T00:54:57Z) - Domain-Robust Visual Imitation Learning with Mutual Information
Constraints [0.0]
Disentangling Generative Adversarial Imitation Learning (DisentanGAIL)と呼ばれる新しいアルゴリズムを導入する。
本アルゴリズムは,タスクを実行する専門家の高次元観察から自律エージェントを直接学習することを可能にする。
論文 参考訳(メタデータ) (2021-03-08T21:18:58Z) - Behavior Priors for Efficient Reinforcement Learning [97.81587970962232]
本稿では,情報とアーキテクチャの制約を,確率論的モデリング文献のアイデアと組み合わせて行動の事前学習を行う方法について考察する。
このような潜伏変数の定式化が階層的強化学習(HRL)と相互情報と好奇心に基づく目的との関係について論じる。
シミュレーションされた連続制御領域に適用することで,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-27T13:17:18Z) - Sense and Learn: Self-Supervision for Omnipresent Sensors [9.442811508809994]
我々は、生の知覚データから表現や特徴学習のためのSense and Learnというフレームワークを提案する。
これは、面倒なラベル付けプロセスに人間が関与することなく、注釈のないデータから、高レベルで広範囲に有用な特徴を学習できる補助的なタスクで構成されている。
提案手法は、教師付きアプローチと競合する結果を達成し、ネットワークを微調整し、ほとんどの場合、下流タスクを学習することでギャップを埋める。
論文 参考訳(メタデータ) (2020-09-28T11:57:43Z) - Learning from Extrinsic and Intrinsic Supervisions for Domain
Generalization [95.73898853032865]
ドメイン間を同時に一般化する方法を学ぶための新しいドメイン一般化フレームワークを提案する。
提案手法の有効性を2つの標準オブジェクト認識ベンチマークで示す。
論文 参考訳(メタデータ) (2020-07-18T03:12:24Z) - Self-supervised Learning from a Multi-view Perspective [121.63655399591681]
自己教師型表現はタスク関連情報を抽出し,タスク関連情報を破棄することができることを示す。
我々の理論的枠組みは、自己教師型学習目標設計のより広い空間への道を開くものである。
論文 参考訳(メタデータ) (2020-06-10T00:21:35Z) - Improving out-of-distribution generalization via multi-task
self-supervised pretraining [48.29123326140466]
我々は,自己教師付き学習を用いて得られた特徴が,コンピュータビジョンにおける領域一般化のための教師付き学習に匹敵するか,それより優れていることを示す。
本稿では,Gaborフィルタバンクに対する応答を予測するための自己教師型プレテキストタスクを提案する。
論文 参考訳(メタデータ) (2020-03-30T14:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。