論文の概要: Implicit Semantic Augmentation for Distance Metric Learning in Domain
Generalization
- arxiv url: http://arxiv.org/abs/2208.02803v1
- Date: Tue, 2 Aug 2022 11:37:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 13:10:28.184558
- Title: Implicit Semantic Augmentation for Distance Metric Learning in Domain
Generalization
- Title(参考訳): ドメイン一般化における距離メトリック学習のための暗黙のセマンティック拡張
- Authors: Meng Wang, Jianlong Yuna, Qi Qian, Zhibin Wang, Hao Li
- Abstract要約: ドメイン一般化(DG)は、1つ以上の異なるが関連するソースドメインのモデルを、目に見えないターゲットドメインに一般化することを目的としている。
既存のDG手法は、モデルの一般化能力のために、ソースドメインの多様性を促進する。
この研究は、特徴空間における暗黙のセマンティック拡張を適用して、ソースドメインの多様性を捉える。
- 参考スコア(独自算出の注目度): 25.792285194055797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG) aims to learn a model on one or more different but
related source domains that could be generalized into an unseen target domain.
Existing DG methods try to prompt the diversity of source domains for the
model's generalization ability, while they may have to introduce auxiliary
networks or striking computational costs. On the contrary, this work applies
the implicit semantic augmentation in feature space to capture the diversity of
source domains. Concretely, an additional loss function of distance metric
learning (DML) is included to optimize the local geometry of data distribution.
Besides, the logits from cross entropy loss with infinite augmentations is
adopted as input features for the DML loss in lieu of the deep features. We
also provide a theoretical analysis to show that the logits can approximate the
distances defined on original features well. Further, we provide an in-depth
analysis of the mechanism and rational behind our approach, which gives us a
better understanding of why leverage logits in lieu of features can help domain
generalization. The proposed DML loss with the implicit augmentation is
incorporated into a recent DG method, that is, Fourier Augmented Co-Teacher
framework (FACT). Meanwhile, our method also can be easily plugged into various
DG methods. Extensive experiments on three benchmarks (Digits-DG, PACS and
Office-Home) have demonstrated that the proposed method is able to achieve the
state-of-the-art performance.
- Abstract(参考訳): ドメイン一般化(dg:domain generalization)は、1つ以上の異なるが関連するソースドメインでモデルを学習することを目的としている。
既存のDG手法は、モデルの一般化能力のためにソースドメインの多様性を促進させようとするが、補助的なネットワークの導入や計算コストの大幅な削減が必要になる。
逆に、この研究は、特徴空間における暗黙のセマンティック拡張を適用して、ソースドメインの多様性を捉える。
具体的には、データ分布の局所的幾何を最適化するために、距離距離距離学習(DML)のさらなる損失関数を含める。
また, 深部特徴の代わりにDML損失の入力特徴として, 無限拡張によるクロスエントロピー損失のロジットが採用されている。
また、ロジットが元の特徴に定義された距離をうまく近似できることを示す理論的解析も提供する。
さらに、我々のアプローチの背後にあるメカニズムと根拠を詳細に分析し、機能の代わりにlogitsを活用することがドメインの一般化に役立つ理由をよりよく理解できるようにします。
暗黙的な拡張によるDMLの損失は、最近のDG手法、すなわちFourier Augmented Co-Teacher framework(FACT)に組み込まれている。
一方,本手法は様々なDG手法に簡単に接続できる。
3つのベンチマーク(Digits-DG, PACS, Office-Home)の大規模な実験により, 提案手法は最先端の性能を実現することができることを示した。
関連論文リスト
- Unsupervised Domain Adaptation Using Compact Internal Representations [23.871860648919593]
教師なしドメイン適応に対処する技術では、ソースとターゲットドメインの両方からデータポイントを共有埋め込み空間にマッピングする。
我々は、ソース領域の内部分布をよりコンパクトにする追加の手法を開発する。
組込み空間における異なるクラスのデータ表現間のマージンを増大させることで、UDAのモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-01-14T05:53:33Z) - Unified Domain Adaptive Semantic Segmentation [96.74199626935294]
Unsupervised Adaptive Domain Semantic (UDA-SS)は、ラベル付きソースドメインからラベル付きターゲットドメインに監督を移すことを目的としている。
本稿では,特徴量と特徴量との相違に対処するQuad-directional Mixup(QuadMix)法を提案する。
提案手法は,4つの挑戦的UDA-SSベンチマークにおいて,最先端の成果を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2023-11-22T09:18:49Z) - MADG: Margin-based Adversarial Learning for Domain Generalization [25.45950080930517]
そこで本稿では,差分損失に基づく離散性尺度に基づく新しい逆学習DGアルゴリズムMADGを提案する。
提案したMADGモデルは,すべてのソースドメインにまたがるドメイン不変の特徴を学習し,敵対的トレーニングを用いて,未知のターゲットドメインによく適応する。
我々は、人気のある実世界のDGデータセット上でMADGモデルを広範囲に実験した。
論文 参考訳(メタデータ) (2023-11-14T19:53:09Z) - Increasing Model Generalizability for Unsupervised Domain Adaptation [12.013345715187285]
組込み空間におけるクラス間マージンの増大は, UDAアルゴリズムの開発に有効であることを示す。
提案手法を用いることで、4つの標準ベンチマーク UDA 画像分類データセットにおけるモデル一般化性が向上することが実証された。
論文 参考訳(メタデータ) (2022-09-29T09:08:04Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Learning Feature Decomposition for Domain Adaptive Monocular Depth
Estimation [51.15061013818216]
改良されたアプローチは、深層学習の進歩で大きな成功をもたらしたが、それらは大量の地底深度アノテーションに依存している。
教師なしドメイン適応(UDA)は、教師付き学習の制約を緩和するため、ラベル付きソースデータからラベルなしターゲットデータに知識を転送する。
本稿では,その特徴空間をコンテンツやスタイルコンポーネントに分解することを学ぶための,学習特徴分解 for Adaptation (LFDA) と呼ばれる新しいMDEのためのUDA手法を提案する。
論文 参考訳(メタデータ) (2022-07-30T08:05:35Z) - Decompose to Adapt: Cross-domain Object Detection via Feature
Disentanglement [79.2994130944482]
本研究では,DDF(Domain Disentanglement Faster-RCNN)を設計し,タスク学習のための特徴のソース固有情報を排除した。
DDF法は,グローバルトリプルト・ディアンタングルメント(GTD)モジュールとインスタンス類似性・ディアンタングルメント(ISD)モジュールを用いて,グローバルおよびローカルステージでの機能ディアンタングルを容易にする。
提案手法は,4つのUDAオブジェクト検出タスクにおいて最先端の手法より優れており,広い適用性で有効であることが実証された。
論文 参考訳(メタデータ) (2022-01-06T05:43:01Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z) - Learning Domain-invariant Graph for Adaptive Semi-supervised Domain
Adaptation with Few Labeled Source Samples [65.55521019202557]
ドメイン適応は、ソースドメインからモデルを一般化して、関連するが異なるターゲットドメインのタスクに取り組むことを目的としています。
従来のドメイン適応アルゴリズムは、事前知識として扱われる十分なラベル付きデータがソースドメインで利用できると仮定する。
少数のラベル付きソースサンプルを用いたドメイン適応のためのドメイン不変グラフ学習(DGL)手法を提案する。
論文 参考訳(メタデータ) (2020-08-21T08:13:25Z) - Discrepancy Minimization in Domain Generalization with Generative
Nearest Neighbors [13.047289562445242]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインでトレーニングされた機械学習モデルが、統計の異なるターゲットドメインでうまく一般化できないという、ドメインシフトの問題を扱う。
シフト対象領域の一般化を保証するのに失敗するソースドメイン全体にわたるドメイン不変表現を学習することにより、ドメイン一般化の問題を解決するために、複数のアプローチが提案されている。
本稿では,GNNDM(Generative Nearest Neighbor Based Discrepancy Minimization)法を提案する。
論文 参考訳(メタデータ) (2020-07-28T14:54:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。