論文の概要: Domain-aware Triplet loss in Domain Generalization
- arxiv url: http://arxiv.org/abs/2303.01233v1
- Date: Wed, 1 Mar 2023 14:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 14:29:32.910424
- Title: Domain-aware Triplet loss in Domain Generalization
- Title(参考訳): ドメイン一般化におけるドメイン認識三重項損失
- Authors: Kaiyu Guo, Brian Lovell
- Abstract要約: ドメインシフトは、テストとトレーニングデータの分布の相違によって引き起こされる。
ドメイン一般化のためのドメイン認識三重項損失を設計し、モデルが類似のセマンティックな特徴をクラスタリングするのを助ける。
本アルゴリズムは,埋め込み空間におけるドメイン情報を分散するように設計されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite much progress being made in the field of object recognition with the
advances of deep learning, there are still several factors negatively affecting
the performance of deep learning models. Domain shift is one of these factors
and is caused by discrepancies in the distributions of the testing and training
data. In this paper, we focus on the problem of compact feature clustering in
domain generalization to help optimize the embedding space from multi-domain
data. We design a domainaware triplet loss for domain generalization to help
the model to not only cluster similar semantic features, but also to disperse
features arising from the domain. Unlike previous methods focusing on
distribution alignment, our algorithm is designed to disperse domain
information in the embedding space. The basic idea is motivated based on the
assumption that embedding features can be clustered based on domain
information, which is mathematically and empirically supported in this paper.
In addition, during our exploration of feature clustering in domain
generalization, we note that factors affecting the convergence of metric
learning loss in domain generalization are more important than the pre-defined
domains. To solve this issue, we utilize two methods to normalize the embedding
space, reducing the internal covariate shift of the embedding features. The
ablation study demonstrates the effectiveness of our algorithm. Moreover, the
experiments on the benchmark datasets, including PACS, VLCS and Office-Home,
show that our method outperforms related methods focusing on domain
discrepancy. In particular, our results on RegnetY-16 are significantly better
than state-of-the-art methods on the benchmark datasets. Our code will be
released at https://github.com/workerbcd/DCT
- Abstract(参考訳): 深層学習の進歩とともに物体認識の分野で多くの進歩があったが、深層学習モデルの性能に悪影響を及ぼす要因はいくつかある。
ドメインシフトはこれらの要因の1つであり、テストとトレーニングデータの分布の相違によって引き起こされる。
本稿では,マルチドメインデータからの埋め込み空間を最適化するために,領域一般化におけるコンパクトな特徴クラスタリングの問題に着目する。
ドメイン一般化のためのドメイン認識三重項損失を設計し、モデルが類似したセマンティックな特徴をクラスタリングするだけでなく、ドメインから生じる特徴を分散するのを助ける。
分散アライメントに着目した従来の手法とは異なり,本アルゴリズムは領域情報を埋め込み空間に分散するように設計されている。
この基本的な考え方は、埋め込み機能は数学的および経験的にサポートされているドメイン情報に基づいてクラスタ化できるという仮定に基づいている。
さらに、ドメイン一般化における特徴クラスタリングの探求中に、ドメイン一般化におけるメトリック学習損失の収束に影響する要因が、事前定義されたドメインよりも重要であることに留意する。
そこで本研究では,埋め込み空間の正規化に2つの手法を応用し,埋め込み特徴の内部共変量シフトを低減した。
アブレーション研究はアルゴリズムの有効性を示す。
さらに,PACS,VLCS,Office-Homeなどのベンチマークデータセットを用いた実験により,本手法がドメインの差に着目した関連手法よりも優れていることが示された。
特に、RegnetY-16の結果は、ベンチマークデータセットの最先端メソッドよりもはるかに優れている。
私たちのコードはhttps://github.com/workerbcd/DCTでリリースされます。
関連論文リスト
- Unsupervised Domain Adaptation Using Compact Internal Representations [23.871860648919593]
教師なしドメイン適応に対処する技術では、ソースとターゲットドメインの両方からデータポイントを共有埋め込み空間にマッピングする。
我々は、ソース領域の内部分布をよりコンパクトにする追加の手法を開発する。
組込み空間における異なるクラスのデータ表現間のマージンを増大させることで、UDAのモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-01-14T05:53:33Z) - DAOT: Domain-Agnostically Aligned Optimal Transport for Domain-Adaptive
Crowd Counting [35.83485358725357]
ドメイン適応は一般的に、異なるデータセット間のドメインギャップをブリッジするために、群衆カウントに使用される。
既存のドメイン適応手法は、同じデータセット内の差を見下ろしながら、データセット間の違いに焦点を当てる傾向がある。
ドメインに依存しない要素をドメイン間で整合させるDAOT(Domain-Agnostically Aligned Optimal Transport)戦略を提案する。
論文 参考訳(メタデータ) (2023-08-10T02:59:40Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Domain Generalization via Selective Consistency Regularization for Time
Series Classification [16.338176636365752]
ドメイン一般化手法は、限られた数のソースドメインからのデータで、ドメインシフトに頑健なモデルを学習することを目的としている。
本稿では,ソースドメイン間の予測一貫性を選択的に適用する表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-16T01:57:35Z) - Domain-Class Correlation Decomposition for Generalizable Person
Re-Identification [34.813965300584776]
個人の再識別では、ドメインとクラスは相関する。
このドメイン・クラス間の相関関係により、ドメインの敵対的学習はクラスに関する特定の情報を失うことが示される。
我々のモデルは、大規模ドメイン一般化Re-IDベンチマークにおいて最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-06-29T09:45:03Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Discrepancy Minimization in Domain Generalization with Generative
Nearest Neighbors [13.047289562445242]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインでトレーニングされた機械学習モデルが、統計の異なるターゲットドメインでうまく一般化できないという、ドメインシフトの問題を扱う。
シフト対象領域の一般化を保証するのに失敗するソースドメイン全体にわたるドメイン不変表現を学習することにより、ドメイン一般化の問題を解決するために、複数のアプローチが提案されている。
本稿では,GNNDM(Generative Nearest Neighbor Based Discrepancy Minimization)法を提案する。
論文 参考訳(メタデータ) (2020-07-28T14:54:25Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Differential Treatment for Stuff and Things: A Simple Unsupervised
Domain Adaptation Method for Semantic Segmentation [105.96860932833759]
最先端のアプローチは、セマンティックレベルのアライメントの実行がドメインシフトの問題に取り組むのに役立つことを証明している。
我々は,物事領域や物事に対する異なる戦略による意味レベルのアライメントを改善することを提案する。
提案手法に加えて,提案手法は,ソースとターゲットドメイン間の最も類似した機能やインスタンス機能を最小化することにより,この問題の緩和に有効であることを示す。
論文 参考訳(メタデータ) (2020-03-18T04:43:25Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。