論文の概要: Domain-Aware Contrastive Knowledge Transfer for Multi-domain Imbalanced
Data
- arxiv url: http://arxiv.org/abs/2204.01916v1
- Date: Tue, 5 Apr 2022 01:02:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 22:43:27.913197
- Title: Domain-Aware Contrastive Knowledge Transfer for Multi-domain Imbalanced
Data
- Title(参考訳): 多領域不均衡データに対するドメイン対応コントラスト知識伝達
- Authors: Zixuan Ke, Mohammad Kachuee, Sungjin Lee
- Abstract要約: マルチドメイン不均衡学習(MIL)は,クラスだけでなく,ドメインにも不均衡が存在するというシナリオである。
MIL設定では、異なるドメインが異なるパターンを示しており、移行学習の機会と課題を呈するドメイン間では、様々な類似性とばらつきがある。
我々は,類似ドメイン間のポジティブな伝達を促進するために,DCMIと呼ばれる新しいドメイン認識型コントラスト型知識伝達手法を提案する。
- 参考スコア(独自算出の注目度): 23.22953767588902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many real-world machine learning applications, samples belong to a set of
domains e.g., for product reviews each review belongs to a product category. In
this paper, we study multi-domain imbalanced learning (MIL), the scenario that
there is imbalance not only in classes but also in domains. In the MIL setting,
different domains exhibit different patterns and there is a varying degree of
similarity and divergence among domains posing opportunities and challenges for
transfer learning especially when faced with limited or insufficient training
data. We propose a novel domain-aware contrastive knowledge transfer method
called DCMI to (1) identify the shared domain knowledge to encourage positive
transfer among similar domains (in particular from head domains to tail
domains); (2) isolate the domain-specific knowledge to minimize the negative
transfer from dissimilar domains. We evaluated the performance of DCMI on three
different datasets showing significant improvements in different MIL scenarios.
- Abstract(参考訳): 多くの実世界の機械学習アプリケーションでは、サンプルは一連のドメインに属し、例えば製品レビューでは、各レビューは製品カテゴリに属している。
本稿では,クラスだけでなくドメインにも不均衡が存在するというシナリオであるマルチドメイン不均衡学習(MIL)について検討する。
MIL設定では、異なるドメインが異なるパターンを示し、特に限られた訓練データや不十分な訓練データに直面する場合において、移行学習の機会や課題を示すドメイン間での類似性やばらつきの程度が異なる。
本稿では,(1)共有ドメイン知識を同定し,類似ドメイン(特にヘッドドメインからテールドメイン)間の正の移動を促進すること,(2)異なるドメイン間の負の移動を最小限に抑えるために,ドメイン固有の知識を分離すること,などを提案する。
我々は3つの異なるデータセット上でのDCMIの性能を評価し、異なるMILシナリオにおいて顕著な改善を示した。
関連論文リスト
- A Collaborative Transfer Learning Framework for Cross-domain
Recommendation [12.880177078884927]
推薦システムには、ユーザの多様な関心やニーズを満たすための複数のビジネスドメインが存在する。
本稿では,これらの課題を克服するために,協調的クロスドメイン・トランスファー学習フレームワーク(CCTL)を提案する。
CCTLは、対称コンパニオンネットワークを用いて、ターゲットドメイン上のソースドメインの情報ゲインを評価する。
論文 参考訳(メタデータ) (2023-06-26T09:43:58Z) - Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - Aggregation of Disentanglement: Reconsidering Domain Variations in
Domain Generalization [9.577254317971933]
ドメイン変種には、下流のタスクに有用な情報、すなわち分類対応情報も含まれている、と我々は主張する。
本稿では,ドメインエキスパートの特徴をソース・ドメイン・イメージから切り離すために,DDN(Domain Disentanglement Network)と呼ばれる新しいパラダイムを提案する。
また、ドメインの専門家がよりバランスよく分離可能な機能空間を形成するための、新しい対照的な学習方法を提案します。
論文 参考訳(メタデータ) (2023-02-05T09:48:57Z) - Improving Fake News Detection of Influential Domain via Domain- and
Instance-Level Transfer [16.886024206337257]
フェイクニュース検出(DITFEND)のためのドメインレベルおよびインスタンスレベルの転送フレームワークを提案する。
DITFENDは特定のターゲットドメインの性能を向上させることができる。
オンライン実験は、現実世界のシナリオにおいて、ベースモデルにさらなる改善をもたらすことを示している。
論文 参考訳(メタデータ) (2022-09-19T10:21:13Z) - Multi-Scale Multi-Target Domain Adaptation for Angle Closure
Classification [50.658613573816254]
角度閉包分類のためのM2DAN(Multi-scale Multi-target Domain Adversarial Network)を提案する。
異なるスケールでのこれらのドメイン不変性に基づいて、ソースドメインで訓練されたディープモデルは、複数のターゲットドメインの角度クロージャを分類することができる。
論文 参考訳(メタデータ) (2022-08-25T15:27:55Z) - Domain Generalization via Selective Consistency Regularization for Time
Series Classification [16.338176636365752]
ドメイン一般化手法は、限られた数のソースドメインからのデータで、ドメインシフトに頑健なモデルを学習することを目的としている。
本稿では,ソースドメイン間の予測一貫性を選択的に適用する表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-16T01:57:35Z) - Domain Invariant Masked Autoencoders for Self-supervised Learning from
Multi-domains [73.54897096088149]
マルチドメインからの自己教師型学習のためのドメイン不変のMasked AutoEncoder (DiMAE)を提案する。
中心となる考え方は、入力画像を異なるドメインからのスタイルノイズで拡張し、拡張イメージの埋め込みからイメージを再構築することである。
PACSとDomainNetの実験は、最近の最先端の手法と比較して、DiMAEがかなりの利益を得ていることを示している。
論文 参考訳(メタデータ) (2022-05-10T09:49:40Z) - Label Distribution Learning for Generalizable Multi-source Person
Re-identification [48.77206888171507]
人物再識別(Re-ID)は,映像監視システムにおいて重要な技術である。
教師付きモデルを任意の未確認領域に直接適用することは困難である。
一般化可能な多ソース人物Re-IDタスクに対処する新しいラベル分散学習法(LDL)を提案する。
論文 参考訳(メタデータ) (2022-04-12T15:59:10Z) - Open Domain Generalization with Domain-Augmented Meta-Learning [83.59952915761141]
オープンドメイン一般化(OpenDG)の新しい実践的問題について研究する。
本稿では,オープンドメイン一般化表現を学ぶためのメタ学習フレームワークを提案する。
種々のマルチドメインデータセットの実験結果から、提案したドメイン拡張メタラーニング(DAML)が、未確認ドメイン認識の先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-08T09:12:24Z) - Domain2Vec: Domain Embedding for Unsupervised Domain Adaptation [56.94873619509414]
従来の教師なしドメイン適応は、限られた数のドメイン間の知識伝達を研究する。
本稿では,特徴不整合とグラム行列の連成学習に基づいて,視覚領域のベクトル表現を提供する新しいDomain2Vecモデルを提案する。
我々の埋め込みは、異なるドメイン間の視覚的関係に関する直感と一致するドメイン類似性を予測できることを示した。
論文 参考訳(メタデータ) (2020-07-17T22:05:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。