論文の概要: Self-Supervised Domain Adaptation with Consistency Training
- arxiv url: http://arxiv.org/abs/2010.07539v1
- Date: Thu, 15 Oct 2020 06:03:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 04:09:33.963760
- Title: Self-Supervised Domain Adaptation with Consistency Training
- Title(参考訳): 一貫性トレーニングによる自己監督型ドメイン適応
- Authors: L. Xiao, J. Xu, D. Zhao, Z. Wang, L. Wang, Y. Nie, B. Dai
- Abstract要約: 画像分類における教師なし領域適応の問題点を考察する。
ラベルのないデータをある種の変換で拡張することにより、自己教師付きプレテキストタスクを作成する。
我々は、拡張データの表現を元のデータと整合するように強制する。
- 参考スコア(独自算出の注目度): 0.2462953128215087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of unsupervised domain adaptation for image
classification. To learn target-domain-aware features from the unlabeled data,
we create a self-supervised pretext task by augmenting the unlabeled data with
a certain type of transformation (specifically, image rotation) and ask the
learner to predict the properties of the transformation. However, the obtained
feature representation may contain a large amount of irrelevant information
with respect to the main task. To provide further guidance, we force the
feature representation of the augmented data to be consistent with that of the
original data. Intuitively, the consistency introduces additional constraints
to representation learning, therefore, the learned representation is more
likely to focus on the right information about the main task. Our experimental
results validate the proposed method and demonstrate state-of-the-art
performance on classical domain adaptation benchmarks. Code is available at
https://github.com/Jiaolong/ss-da-consistency.
- Abstract(参考訳): 画像分類における教師なし領域適応の問題を考える。
ラベルなしデータから対象領域認識特徴を学習するために,ラベルなしデータをある種の変換(特に画像回転)で拡張し,学習者に変換特性の予測を依頼することにより,自己教師付きプリテキストタスクを作成する。
しかし、得られた特徴表現は、メインタスクに関して大量の無関係な情報を含むことができる。
さらなるガイダンスを提供するため、我々は拡張データの特徴表現を元のデータと整合させるよう強制する。
直感的には、一貫性は表現学習にさらなる制約をもたらすため、学習された表現はメインタスクに関する正しい情報に集中する傾向にある。
提案手法を検証し,古典的ドメイン適応ベンチマークにおける最新性能を示す。
コードはhttps://github.com/jiaolong/ss-da-consistencyで入手できる。
関連論文リスト
- Attribute-Aware Deep Hashing with Self-Consistency for Large-Scale
Fine-Grained Image Retrieval [65.43522019468976]
本稿では属性認識ハッシュコードを生成するための自己整合性を持つ属性認識ハッシュネットワークを提案する。
本研究では,高レベル属性固有ベクトルを教師なしで蒸留する再構成タスクのエンコーダ・デコーダ構造ネットワークを開発する。
我々のモデルは,これらの属性ベクトルに特徴デコリレーション制約を設けて,それらの代表的能力を強化する。
論文 参考訳(メタデータ) (2023-11-21T08:20:38Z) - Self-Supervised Disentanglement by Leveraging Structure in Data Augmentations [63.73044203154743]
自己教師付き表現学習は、しばしばデータの「スタイル」属性を誘導するためにデータ拡張を使用する。
データの属性が実際に"スタイル"であり、安全に破棄されるような先入観を推論することは困難である。
スタイル機能を捨てるよりも、スタイル機能を切り離そうとする、より原則化されたアプローチを導入します。
論文 参考訳(メタデータ) (2023-11-15T09:34:08Z) - Unsupervised domain adaptation by learning using privileged information [6.748420131629902]
補助変数による側情報への訓練時間アクセスは,入力変数の制約緩和に有効であることを示す。
本稿では,対象領域における予測誤差の分析から着想を得た単純な2段階学習アルゴリズムと,画像分類のための実用的エンドツーエンド変種を提案する。
論文 参考訳(メタデータ) (2023-03-16T14:31:50Z) - Cross-Domain Aspect Extraction using Transformers Augmented with
Knowledge Graphs [3.662157175955389]
本稿では,アスペクト項の識別に関連する情報を含むドメイン固有知識グラフを自動構築する手法を提案する。
提案手法を用いたドメイン間アスペクト項抽出のためのベンチマークデータセットの最先端性能を実証し,Transformerで利用可能な外部知識の量がモデル性能に与える影響について検討する。
論文 参考訳(メタデータ) (2022-10-18T20:18:42Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Disentanglement by Cyclic Reconstruction [0.0]
教師付き学習では、訓練に使用されるデータセットに固有の情報が、手元にあるタスクとは無関係に、抽出された表現に符号化され続けることができる。
本稿では,その情報をタスク関連表現とその補完的文脈表現に分割することを提案する。
次に、この手法を教師なし領域適応問題に適用し、ソースとターゲットドメインの両方で実行可能なモデルを訓練する。
論文 参考訳(メタデータ) (2021-12-24T07:47:59Z) - Robust Representation Learning via Perceptual Similarity Metrics [18.842322467828502]
Contrastive Input Morphing (CIM) はデータの入力空間変換を学習する表現学習フレームワークである。
CIMは他の相互情報に基づく表現学習技術と相補的であることを示す。
論文 参考訳(メタデータ) (2021-06-11T21:45:44Z) - Conditional Contrastive Learning: Removing Undesirable Information in
Self-Supervised Representations [108.29288034509305]
我々は,自己指導型表現において望ましくない情報を除去するために,条件付きコントラスト学習を開発する。
提案手法は,下流タスクの自己教師付き表現をうまく学習できることを実証的に実証する。
論文 参考訳(メタデータ) (2021-06-05T10:51:26Z) - i-Mix: A Domain-Agnostic Strategy for Contrastive Representation
Learning [117.63815437385321]
対照的な表現学習を改善するために, 単純で効果的なドメインに依存しない正規化戦略i-Mixを提案する。
実験では、i-Mixはドメイン間の学習表現の質を一貫して改善することを示した。
論文 参考訳(メタデータ) (2020-10-17T23:32:26Z) - Uniform Priors for Data-Efficient Transfer [65.086680950871]
もっとも移動可能な特徴は埋め込み空間において高い均一性を有することを示す。
我々は、未確認のタスクやデータへの適応を容易にする能力の正規化を評価する。
論文 参考訳(メタデータ) (2020-06-30T04:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。