論文の概要: A Prototype-Oriented Framework for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2110.12024v1
- Date: Fri, 22 Oct 2021 19:23:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 14:15:29.469982
- Title: A Prototype-Oriented Framework for Unsupervised Domain Adaptation
- Title(参考訳): 教師なしドメイン適応のためのプロトタイプ指向フレームワーク
- Authors: Korawat Tanwisuth, Xinjie Fan, Huangjie Zheng, Shujian Zhang, Hao
Zhang, Bo Chen, Mingyuan Zhou
- Abstract要約: メモリと計算効率のよい確率的フレームワークを提供し、クラスプロトタイプを抽出し、ターゲットとなる特徴をそれらと整合させる。
本稿では,単一ソース,マルチソース,クラス不均衡,ソースプライベートドメイン適応など,幅広いシナリオにおいて,本手法の汎用性を実証する。
- 参考スコア(独自算出の注目度): 52.25537670028037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing methods for unsupervised domain adaptation often rely on minimizing
some statistical distance between the source and target samples in the latent
space. To avoid the sampling variability, class imbalance, and data-privacy
concerns that often plague these methods, we instead provide a memory and
computation-efficient probabilistic framework to extract class prototypes and
align the target features with them. We demonstrate the general applicability
of our method on a wide range of scenarios, including single-source,
multi-source, class-imbalance, and source-private domain adaptation. Requiring
no additional model parameters and having a moderate increase in computation
over the source model alone, the proposed method achieves competitive
performance with state-of-the-art methods.
- Abstract(参考訳): 教師なし領域適応のための既存の手法は、しばしば潜在空間におけるソースとターゲットサンプルの間の統計距離を最小化することに依存している。
これらの手法をしばしば悩ませるサンプリングのバラツキ、クラス不均衡、データプライバシーの懸念を避けるため、代わりに、クラスプロトタイプを抽出し、ターゲット機能をそれらと整合させるメモリおよび計算効率の高い確率フレームワークを提供する。
本稿では,単一ソース,マルチソース,クラス不均衡,ソースプライベートドメイン適応など,幅広いシナリオにおいて,本手法の適用性を示す。
追加のモデルパラメータを必要とせず、ソースモデルのみに対して適度に計算量を増加させるため、提案手法は最先端手法による競合性能を実現する。
関連論文リスト
- Source-Free Domain-Invariant Performance Prediction [68.39031800809553]
本研究では,不確実性に基づく推定を主軸としたソースフリー手法を提案する。
オブジェクト認識データセットのベンチマーク実験により、既存のソースベースの手法は、限られたソースサンプルの可用性で不足していることが判明した。
提案手法は,現在の最先端のソースフリーおよびソースベース手法よりも優れており,ドメイン不変性能推定の有効性が確認されている。
論文 参考訳(メタデータ) (2024-08-05T03:18:58Z) - A Robust Negative Learning Approach to Partial Domain Adaptation Using
Source Prototypes [0.8895157045883034]
この研究は、負の転送問題を緩和する堅牢な部分的ドメイン適応(PDA)フレームワークを提案する。
それは多様で相補的なラベルフィードバックを含み、誤ったフィードバックの効果を緩和し、擬似ラベル改善を促進する。
我々は,部分領域適応タスクを網羅するアブレーション解析を含む包括的実験を行った。
論文 参考訳(メタデータ) (2023-09-07T07:26:27Z) - A principled approach to model validation in domain generalization [30.459247038765568]
本稿では,検証プロセスが分類リスクとドメインの不一致の両方を考慮すべきであることを示唆する新しいモデル選択法を提案する。
提案手法の有効性を,いくつかの領域一般化データセットの数値計算により検証した。
論文 参考訳(メタデータ) (2023-04-02T21:12:13Z) - Variational Model Perturbation for Source-Free Domain Adaptation [64.98560348412518]
確率的枠組みにおける変分ベイズ推定によるモデルパラメータの摂動を導入する。
本研究では,ベイズニューラルネットワークの学習と理論的関連性を実証し,目的領域に対する摂動モデルの一般化可能性を示す。
論文 参考訳(メタデータ) (2022-10-19T08:41:19Z) - Feature Alignment by Uncertainty and Self-Training for Source-Free
Unsupervised Domain Adaptation [1.6498361958317636]
ほとんどの教師なし領域適応(UDA)手法は、ラベル付きソースイメージがモデル適応中に利用できると仮定する。
本稿では,事前学習したソースモデルと未ラベルのターゲット画像のみを用いる,ソースフリーなUDA手法を提案する。
本手法は,データ拡張を取り入れ,特徴発生器を2つの整合性目標で訓練することにより,アレータリックな不確実性を捕捉する。
論文 参考訳(メタデータ) (2022-08-31T14:28:36Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - A Curriculum-style Self-training Approach for Source-Free Semantic Segmentation [91.13472029666312]
ソースフリーなドメイン適応型セマンティックセマンティックセグメンテーションのためのカリキュラムスタイルの自己学習手法を提案する。
提案手法は, ソースフリーなセマンティックセグメンテーションタスクにおいて, 合成-実-実-実-実-実-実-非実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実
論文 参考訳(メタデータ) (2021-06-22T10:21:39Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。