論文の概要: OVANet: One-vs-All Network for Universal Domain Adaptation
- arxiv url: http://arxiv.org/abs/2104.03344v1
- Date: Wed, 7 Apr 2021 18:36:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 13:10:13.089489
- Title: OVANet: One-vs-All Network for Universal Domain Adaptation
- Title(参考訳): OVANet:Universal Domain Adaptationのためのワンvsオールネットワーク
- Authors: Kuniaki Saito and Kate Saenko
- Abstract要約: 既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
- 参考スコア(独自算出の注目度): 78.86047802107025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal Domain Adaptation (UNDA) aims to handle both domain-shift and
category-shift between two datasets, where the main challenge is to transfer
knowledge while rejecting unknown classes which are absent in the labeled
source data but present in the unlabeled target data. Existing methods manually
set a threshold to reject unknown samples based on validation or a pre-defined
ratio of unknown samples, but this strategy is not practical. In this paper, we
propose a method to learn the threshold using source samples and to adapt it to
the target domain. Our idea is that a minimum inter-class distance in the
source domain should be a good threshold to decide between known or unknown in
the target. To learn the inter-and intra-class distance, we propose to train a
one-vs-all classifier for each class using labeled source data. Then, we adapt
the open-set classifier to the target domain by minimizing class entropy. The
resulting framework is the simplest of all baselines of UNDA and is insensitive
to the value of a hyper-parameter yet outperforms baselines with a large
margin.
- Abstract(参考訳): Universal Domain Adaptation (UNDA)は、2つのデータセット間のドメインシフトとカテゴリシフトの両方を扱うことを目的としている。
既存の手法は、検証や未知サンプルの事前定義された比率に基づいて、未知サンプルを拒否する閾値を手動で設定するが、この戦略は実用的ではない。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応させる手法を提案する。
私たちの考えでは、ソースドメイン内の最小クラス間距離は、ターゲット内の未知または未知を判断するための適切なしきい値であるべきです。
クラス間距離とクラス内距離を学習するために,ラベル付きソースデータを用いてクラス毎に1-vs-all分類器をトレーニングする。
そして、クラスエントロピーを最小化することにより、オープンセット分類器をターゲット領域に適応させる。
結果として得られるフレームワークはUNDAのすべてのベースラインの中で最も単純であり、ハイパーパラメータの値に敏感だが、大きなマージンでベースラインを上回っている。
関連論文リスト
- Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Conditional Extreme Value Theory for Open Set Video Domain Adaptation [17.474956295874797]
本稿では,ソースとターゲットデータ間の領域差を軽減するために,オープンセットの映像領域適応手法を提案する。
負の伝達問題を緩和するために、サンプルエントロピーからしきい値までの距離によって計算された重みを、対向学習に活用する。
提案手法は,小規模と大規模の両方のクロスドメインビデオデータセットに対して徹底的に評価されている。
論文 参考訳(メタデータ) (2021-09-01T10:51:50Z) - Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain
Adaptation [22.852237073492894]
Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
本稿では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン離散化(CGDM)手法を提案する。
対象サンプルの勾配信号を計算するために,クラスタリングに基づく自己教師型学習を通じて,対象の擬似ラベルを求める。
論文 参考訳(メタデータ) (2021-06-08T07:35:40Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Divergence Optimization for Noisy Universal Domain Adaptation [32.05829135903389]
ユニバーサルドメイン適応(UniDA)は、ラベルリッチソースドメインから学んだ知識をラベルスカースターゲットドメインに転送するために提案されている。
本稿では,すべての問題を同時に解決する2ヘッド畳み込みニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-01T04:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。