論文の概要: Patch-Mix Transformer for Unsupervised Domain Adaptation: A Game
Perspective
- arxiv url: http://arxiv.org/abs/2303.13434v1
- Date: Thu, 23 Mar 2023 16:56:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 13:23:14.451418
- Title: Patch-Mix Transformer for Unsupervised Domain Adaptation: A Game
Perspective
- Title(参考訳): 教師なしドメイン適応のためのパッチミクス変換器:ゲーム視点
- Authors: Jinjing Zhu, Haotian Bai, Lin Wang
- Abstract要約: 本稿では、ソースドメインとターゲットドメインを中間ドメインでブリッジするPMTransモデルを提案する。
具体的には、中間ドメインを効果的に構築するPatchMixと呼ばれる新しいViTベースのモジュールを提案する。
その結果,PMTrans は Office-Home では +3.6%,Office-31 では +1.4%,DomainNet では +17.7% である。
- 参考スコア(独自算出の注目度): 4.156782836736784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Endeavors have been recently made to leverage the vision transformer (ViT)
for the challenging unsupervised domain adaptation (UDA) task. They typically
adopt the cross-attention in ViT for direct domain alignment. However, as the
performance of cross-attention highly relies on the quality of pseudo labels
for targeted samples, it becomes less effective when the domain gap becomes
large. We solve this problem from a game theory's perspective with the proposed
model dubbed as PMTrans, which bridges source and target domains with an
intermediate domain. Specifically, we propose a novel ViT-based module called
PatchMix that effectively builds up the intermediate domain, i.e., probability
distribution, by learning to sample patches from both domains based on the
game-theoretical models. This way, it learns to mix the patches from the source
and target domains to maximize the cross entropy (CE), while exploiting two
semi-supervised mixup losses in the feature and label spaces to minimize it. As
such, we interpret the process of UDA as a min-max CE game with three players,
including the feature extractor, classifier, and PatchMix, to find the Nash
Equilibria. Moreover, we leverage attention maps from ViT to re-weight the
label of each patch by its importance, making it possible to obtain more
domain-discriminative feature representations. We conduct extensive experiments
on four benchmark datasets, and the results show that PMTrans significantly
surpasses the ViT-based and CNN-based SoTA methods by +3.6% on Office-Home,
+1.4% on Office-31, and +17.7% on DomainNet, respectively.
- Abstract(参考訳): ビジョントランスフォーマー(ViT)を活用して、非教師なしドメイン適応(UDA)課題に挑戦する試みが最近行われた。
それらは通常、直接ドメインアライメントのためにViTのクロスアテンションを採用する。
しかし, クロスアテンションの性能は, 対象サンプルの擬似ラベルの品質に大きく依存しているため, ドメインギャップが大きくなると効果が低下する。
本稿では,PMTransと呼ばれる中間領域にソースとターゲットドメインをブリッジするモデルを用いて,ゲーム理論の観点からこの問題を解決する。
具体的には、ゲーム理論モデルに基づいて両方のドメインからパッチをサンプリングすることで、中間領域、すなわち確率分布を効果的に構築する、PatchMixと呼ばれる新しいViTベースのモジュールを提案する。
このようにして、ソースとターゲットドメインからのパッチを混合してクロスエントロピー(CE)を最大化し、機能とラベル空間の2つの半教師付きミックスアップ損失を利用して最小化する。
そこで我々は,UDAの処理を特徴抽出器,分類器,およびPatchMixを含む3人のプレイヤーでmin-max CEゲームとして解釈し,ナッシュ平衡を求める。
さらに,vitのアテンションマップを利用して,各パッチのラベルを重要度で再強調することで,よりドメイン識別的な特徴表現を得ることができる。
我々は4つのベンチマークデータセットについて広範な実験を行い、その結果、pmtrans は vit ベースの sota メソッドと cnn ベースの sota メソッドを、office-home では +3.6%、office-31 では +1.4%、domainnet では +17.7% を大きく上回った。
関連論文リスト
- Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - MEnsA: Mix-up Ensemble Average for Unsupervised Multi Target Domain
Adaptation on 3D Point Clouds [9.568577396815602]
Unlabelled Domain adaptation (UDA) は、教師なしターゲットドメインとラベル付きソースドメインの間の分散シフトの問題に対処する。
我々は,すべてのドメインの特徴表現を混合して,アンサンブル平均によるドメイン適応性能を向上させることを提案する。
混合表現では、ドメイン分類器を用いて、ソースドメインの特徴表現を、共有潜在空間における対象ドメインの特徴表現と区別する。
論文 参考訳(メタデータ) (2023-04-04T06:13:33Z) - Bidirectional Domain Mixup for Domain Adaptive Semantic Segmentation [73.3083304858763]
本稿では,ドメイン適応型セマンティックセグメンテーションタスクにおけるミックスアップの影響を系統的に研究する。
具体的には、ドメインミックスアップをカットとペーストという2ステップで実現します。
フレームワークの主なコンポーネントを実証的に検証するために、広範囲にわたるアブレーション実験を行います。
論文 参考訳(メタデータ) (2023-03-17T05:22:44Z) - SSDA3D: Semi-supervised Domain Adaptation for 3D Object Detection from
Point Cloud [125.9472454212909]
本稿では,3次元物体検出(SSDA3D)のための半改良型領域適応法を提案する。
SSDA3Dはドメイン間適応ステージとドメイン内一般化ステージを含む。
実験の結果,10%のラベル付きターゲットデータしか持たないSSDA3Dは,100%のターゲットラベルを持つ完全教師付きオラクルモデルを上回ることができることがわかった。
論文 参考訳(メタデータ) (2022-12-06T09:32:44Z) - Exploring Consistency in Cross-Domain Transformer for Domain Adaptive
Semantic Segmentation [51.10389829070684]
ドメインギャップは、自己注意の相違を引き起こす可能性がある。
このギャップのため、変圧器は、ターゲット領域の精度を低下させる刺激領域または画素に付随する。
ドメイン横断の注意層を持つアテンションマップに適応する。
論文 参考訳(メタデータ) (2022-11-27T02:40:33Z) - AdaTriplet-RA: Domain Matching via Adaptive Triplet and Reinforced
Attention for Unsupervised Domain Adaptation [15.905869933337101]
教師なしドメイン適応(Unsupervised Domain Adaption、UDA)は、ソースドメインのデータとアノテーションが利用できるが、トレーニング中にラベル付けされていないターゲットデータにのみアクセスできるトランスファー学習タスクである。
本稿では、ドメイン間サンプルマッチング方式を用いて、教師なしドメイン適応タスクを改善することを提案する。
ドメイン間サンプルに合わせるために,広く利用され,堅牢なTriplet損失を適用した。
トレーニング中に発生する不正確な擬似ラベルの破滅的効果を低減するため,信頼度の高い擬似ラベルを自動的に選択し,段階的に改良する新しい不確実性測定法を提案する。
論文 参考訳(メタデータ) (2022-11-16T13:04:24Z) - Towards Unsupervised Domain Adaptation via Domain-Transformer [0.0]
教師なしドメイン適応(UDA)のためのドメイン変換器(DoT)を提案する。
DoTは新しい視点から、CNNバックボーンとTransformerのコアアテンションメカニズムを統合する。
ドメイン間の局所的な意味的一貫性を実現し、そこではドメインレベルの注意と多様体の正規化が探索される。
論文 参考訳(メタデータ) (2022-02-24T02:30:15Z) - CDTrans: Cross-domain Transformer for Unsupervised Domain Adaptation [44.06904757181245]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインから異なるラベル付きターゲットドメインに学習した知識を転送することを目的としている。
カテゴリレベルに基づくUDAの根本的な問題は、ターゲットドメインのサンプル用の擬似ラベルの生成である。
我々は,対象サンプルの擬似ラベルを生成するために,双方向中心認識ラベルアルゴリズムを設計する。
擬似ラベルとともに、ソース/ターゲット特徴学習とソース/ターゲット領域アライメントに自己アテンションとクロスアテンションを適用するために、ウェイトシェアリング・トリプルブランチ・トランスフォーマー・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T17:59:07Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。