論文の概要: Open-Set Multi-Source Multi-Target Domain Adaptation
- arxiv url: http://arxiv.org/abs/2302.00995v2
- Date: Fri, 3 Feb 2023 17:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 12:09:17.335555
- Title: Open-Set Multi-Source Multi-Target Domain Adaptation
- Title(参考訳): オープンソースマルチターゲットドメイン適応
- Authors: Rohit Lal, Arihant Gaur, Aadhithya Iyer, Muhammed Abdullah Shaikh and
Ritik Agrawal
- Abstract要約: Single-Source Single-Target Domain Adaptationは、ラベル付きソースドメインと非ラベル付きターゲットドメインの間のギャップを埋めることを目的としている。
最近のOpen-Set Domain Adaptation法は、未知のターゲットラベルを扱うが、複数のドメインで一般化できない。
我々は,複数のソースおよびターゲットドメインから情報をキャプチャできるDEGAAというグラフアテンションベースのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Single-Source Single-Target Domain Adaptation (1S1T) aims to bridge the gap
between a labelled source domain and an unlabelled target domain. Despite 1S1T
being a well-researched topic, they are typically not deployed to the real
world. Methods like Multi-Source Domain Adaptation and Multi-Target Domain
Adaptation have evolved to model real-world problems but still do not
generalise well. The fact that most of these methods assume a common label-set
between source and target is very restrictive. Recent Open-Set Domain
Adaptation methods handle unknown target labels but fail to generalise in
multiple domains. To overcome these difficulties, first, we propose a novel
generic domain adaptation (DA) setting named Open-Set Multi-Source Multi-Target
Domain Adaptation (OS-nSmT), with n and m being number of source and target
domains respectively. Next, we propose a graph attention based framework named
DEGAA which can capture information from multiple source and target domains
without knowing the exact label-set of the target. We argue that our method,
though offered for multiple sources and multiple targets, can also be agnostic
to various other DA settings. To check the robustness and versatility of DEGAA,
we put forward ample experiments and ablation studies.
- Abstract(参考訳): single-source single-target domain adaptation (1s1t) はラベル付きソースドメインとラベルなしのターゲットドメインの間のギャップを埋めることを目的としている。
1s1tはよく研究されたトピックだが、通常は現実世界にデプロイされない。
マルチソース・ドメイン・アダプションやマルチターゲット・ドメイン・アダプションのような手法は実世界の問題をモデル化するために進化してきたが、まだ一般化していない。
これらの方法のほとんどがソースとターゲットの間の共通のラベルセットを仮定しているという事実は、非常に制限的である。
最近のOpen-Set Domain Adaptation法は、未知のターゲットラベルを扱うが、複数のドメインで一般化できない。
これらの課題を克服するために,まず,オープンセットマルチターゲットドメイン適応(os-nsmt)と呼ばれる新しいジェネリックドメイン適応(da)設定を提案し,nとmをそれぞれソースドメインとターゲットドメインの数とする。
次に、ターゲットの正確なラベルセットを知らずに複数のソースとターゲットドメインから情報をキャプチャできる、グラフ注目ベースのフレームワークdegaaを提案する。
提案手法は複数のソースと複数のターゲットに対して提供されているが,他の様々なDA設定に依存しない場合もある。
DEGAAの堅牢性と汎用性を確認するため,本研究では,十分な実験とアブレーション研究を行った。
関連論文リスト
- Noisy Universal Domain Adaptation via Divergence Optimization for Visual
Recognition [30.31153237003218]
ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する、Noisy UniDAという新しいシナリオが提案されている。
ノイズUniDAで直面するすべての課題に同時に対処するために、マルチヘッド畳み込みニューラルネットワークフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-04-20T14:18:38Z) - Discovering Domain Disentanglement for Generalized Multi-source Domain
Adaptation [48.02978226737235]
典型的なマルチソースドメイン適応(MSDA)アプローチは、ラベル付きソースドメインから学習した知識をラベル付きターゲットドメインに転送することを目的としている。
本稿では、各インスタンスのドメイン表現と意味的特徴を分割し、次元的独立性を奨励する変動型ドメイン・アンタングルメント(VDD)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-11T04:33:08Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Aligning Domain-specific Distribution and Classifier for Cross-domain
Classification from Multiple Sources [25.204055330850164]
教師なしドメイン適応のための2つのアライメントステージを持つ新しいフレームワークを提案する。
本手法は画像分類のための一般的なベンチマークデータセットにおいて顕著な結果が得られる。
論文 参考訳(メタデータ) (2022-01-04T06:35:11Z) - Discover, Hallucinate, and Adapt: Open Compound Domain Adaptation for
Semantic Segmentation [91.30558794056056]
意味的セグメンテーションのための教師なしドメイン適応(UDA)が近年注目を集めている。
我々は,発見,幻覚,適応の3つの主要な設計原則に基づく新しいフレームワークを提案する。
我々は、標準ベンチマークGTAからC自動運転へのソリューションの評価を行い、新しい最先端の結果を得た。
論文 参考訳(メタデータ) (2021-10-08T13:20:09Z) - Multi-source Few-shot Domain Adaptation [26.725145982321287]
マルチソースドメイン適応(MDA)は、複数の完全ラベルのソースドメインから未ラベルのターゲットドメインに予測モデルを転送することを目的としている。
本稿では,Multi-source Few-shot Domain Adaptation (MFDA)について検討する。
本稿では,MSFAN(Multi-Source Few-shot Adaptation Network)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-25T15:54:01Z) - Domain Consistency Regularization for Unsupervised Multi-source Domain
Adaptive Classification [57.92800886719651]
近年,深層学習に基づくマルチソース非教師付きドメイン適応(MUDA)が活発に研究されている。
MUDAのドメインシフトは、ソースドメインとターゲットドメインの間だけでなく、複数のソースドメインの間にも存在します。
本稿では、教師なしマルチソースドメイン適応分類において、ドメインの一貫性規則化を利用するエンドツーエンドのトレーニング可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-16T07:29:27Z) - Dynamic Transfer for Multi-Source Domain Adaptation [82.54405157719641]
モデルパラメータがサンプルに適合する領域の競合に対処するために動的転送を提案する。
ソースドメインの障壁を壊し、マルチソースドメインを単一ソースドメインに変換する。
実験の結果, ドメインラベルを使わずに, 動的移動は最先端の手法よりも3%以上優れていた。
論文 参考訳(メタデータ) (2021-03-19T01:22:12Z) - Universal Multi-Source Domain Adaptation [17.045689789877926]
教師なしのドメイン適応により、インテリジェントモデルは、ラベル付きソースドメインから類似しているがラベルなしのターゲットドメインに知識を転送することができる。
ユニバーサルドメイン適応 (Universal Domain Adaptation, UDA) という,あるソースドメインから別の未知のターゲットドメインに知識を移すことが最近の研究で明らかになっている。
モデルの複雑さを増大させることなく、領域適応問題を解決するために、ユニバーサルなマルチソース適応ネットワーク(UMAN)を提案する。
論文 参考訳(メタデータ) (2020-11-05T00:20:38Z) - Cross-domain Self-supervised Learning for Domain Adaptation with Few
Source Labels [78.95901454696158]
ドメイン適応のためのクロスドメイン自己教師型学習手法を提案する。
本手法は,ソースラベルが少ない新しいターゲット領域において,ターゲット精度を著しく向上させる。
論文 参考訳(メタデータ) (2020-03-18T15:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。