論文の概要: Unsupervised Domain Adaptation Using Compact Internal Representations
- arxiv url: http://arxiv.org/abs/2401.07207v1
- Date: Sun, 14 Jan 2024 05:53:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 19:21:57.288968
- Title: Unsupervised Domain Adaptation Using Compact Internal Representations
- Title(参考訳): コンパクト内部表現を用いた教師なし領域適応
- Authors: Mohammad Rostami
- Abstract要約: 教師なしドメイン適応に対処する技術では、ソースとターゲットドメインの両方からデータポイントを共有埋め込み空間にマッピングする。
我々は、ソース領域の内部分布をよりコンパクトにする追加の手法を開発する。
組込み空間における異なるクラスのデータ表現間のマージンを増大させることで、UDAのモデル性能を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 23.871860648919593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A major technique for tackling unsupervised domain adaptation involves
mapping data points from both the source and target domains into a shared
embedding space. The mapping encoder to the embedding space is trained such
that the embedding space becomes domain agnostic, allowing a classifier trained
on the source domain to generalize well on the target domain. To further
enhance the performance of unsupervised domain adaptation (UDA), we develop an
additional technique which makes the internal distribution of the source domain
more compact, thereby improving the model's ability to generalize in the target
domain.We demonstrate that by increasing the margins between data
representations for different classes in the embedding space, we can improve
the model performance for UDA. To make the internal representation more
compact, we estimate the internally learned multi-modal distribution of the
source domain as Gaussian mixture model (GMM). Utilizing the estimated GMM, we
enhance the separation between different classes in the source domain, thereby
mitigating the effects of domain shift. We offer theoretical analysis to
support outperofrmance of our method. To evaluate the effectiveness of our
approach, we conduct experiments on widely used UDA benchmark UDA datasets. The
results indicate that our method enhances model generalizability and
outperforms existing techniques.
- Abstract(参考訳): 教師なしドメイン適応に取り組むための主要なテクニックは、ソースとターゲットの両方のドメインからデータポイントを共有埋め込み空間にマッピングすることである。
埋め込み空間へのマッピングエンコーダは、埋め込み空間がドメイン非依存になるように訓練され、ソースドメインで訓練された分類器が対象領域でうまく一般化できる。
非教師なしドメイン適応(unsupervised domain adaptation, uda)の性能をさらに高めるために, ソース領域の内部分布をよりコンパクトにし, 対象領域に一般化するモデルの能力を向上させる付加的手法を開発し, 埋め込み空間における異なるクラスに対するデータ表現間のマージンを増大させることにより, udaのモデル性能を向上させることを実証する。
内部表現をよりコンパクトにするために、内部学習されたソースドメインのマルチモーダル分布をガウス混合モデル(gmm)として推定する。
推定したGMMを用いて、ソースドメイン内の異なるクラス間の分離を強化し、ドメインシフトの影響を軽減する。
我々は,提案手法を覆すために理論的分析を行う。
提案手法の有効性を評価するため,広く使用されているUDAベンチマークUDAデータセットを用いて実験を行った。
その結果,本手法はモデルの一般化性を向上し,既存の手法よりも優れていた。
関連論文リスト
- Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - Domain-aware Triplet loss in Domain Generalization [0.0]
ドメインシフトは、テストとトレーニングデータの分布の相違によって引き起こされる。
ドメイン一般化のためのドメイン認識三重項損失を設計し、モデルが類似のセマンティックな特徴をクラスタリングするのを助ける。
本アルゴリズムは,埋め込み空間におけるドメイン情報を分散するように設計されている。
論文 参考訳(メタデータ) (2023-03-01T14:02:01Z) - Increasing Model Generalizability for Unsupervised Domain Adaptation [12.013345715187285]
組込み空間におけるクラス間マージンの増大は, UDAアルゴリズムの開発に有効であることを示す。
提案手法を用いることで、4つの標準ベンチマーク UDA 画像分類データセットにおけるモデル一般化性が向上することが実証された。
論文 参考訳(メタデータ) (2022-09-29T09:08:04Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Implicit Semantic Augmentation for Distance Metric Learning in Domain
Generalization [25.792285194055797]
ドメイン一般化(DG)は、1つ以上の異なるが関連するソースドメインのモデルを、目に見えないターゲットドメインに一般化することを目的としている。
既存のDG手法は、モデルの一般化能力のために、ソースドメインの多様性を促進する。
この研究は、特徴空間における暗黙のセマンティック拡張を適用して、ソースドメインの多様性を捉える。
論文 参考訳(メタデータ) (2022-08-02T11:37:23Z) - Gradual Domain Adaptation via Self-Training of Auxiliary Models [50.63206102072175]
ソースとターゲットドメイン間のギャップを増やすことで、ドメイン適応はより難しくなります。
中間領域のモデルを学習する補助モデル(AuxSelfTrain)の自己学習を提案する。
教師なしおよび半教師付きドメイン適応のベンチマークデータセットの実験は、その有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:15:25Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z) - FixBi: Bridging Domain Spaces for Unsupervised Domain Adaptation [26.929772844572213]
我々は、ソースとターゲットドメイン間の複数の中間ドメインを拡大するために、固定比に基づくミックスアップを導入する。
我々は、相補的な特性を持つソース支配モデルとターゲット支配モデルを訓練する。
提案手法により,モデルが対象ドメインに徐々にドメイン知識を伝達する。
論文 参考訳(メタデータ) (2020-11-18T11:58:19Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。