論文の概要: Upcycling Models under Domain and Category Shift
- arxiv url: http://arxiv.org/abs/2303.07110v1
- Date: Mon, 13 Mar 2023 13:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 14:50:36.640074
- Title: Upcycling Models under Domain and Category Shift
- Title(参考訳): ドメインとカテゴリシフトによるアップサイクリングモデル
- Authors: Sanqing Qu, Tianpei Zou, Florian Roehrbein, Cewu Lu, Guang Chen,
Dacheng Tao, Changjun Jiang
- Abstract要約: グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
- 参考スコア(独自算出の注目度): 95.22147885947732
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks (DNNs) often perform poorly in the presence of domain
shift and category shift. How to upcycle DNNs and adapt them to the target task
remains an important open problem. Unsupervised Domain Adaptation (UDA),
especially recently proposed Source-free Domain Adaptation (SFDA), has become a
promising technology to address this issue. Nevertheless, existing SFDA methods
require that the source domain and target domain share the same label space,
consequently being only applicable to the vanilla closed-set setting. In this
paper, we take one step further and explore the Source-free Universal Domain
Adaptation (SF-UniDA). The goal is to identify "known" data samples under both
domain and category shift, and reject those "unknown" data samples (not present
in source classes), with only the knowledge from standard pre-trained source
model. To this end, we introduce an innovative global and local clustering
learning technique (GLC). Specifically, we design a novel, adaptive one-vs-all
global clustering algorithm to achieve the distinction across different target
classes and introduce a local k-NN clustering strategy to alleviate negative
transfer. We examine the superiority of our GLC on multiple benchmarks with
different category shift scenarios, including partial-set, open-set, and
open-partial-set DA. Remarkably, in the most challenging open-partial-set DA
scenario, GLC outperforms UMAD by 14.8\% on the VisDA benchmark. The code is
available at https://github.com/ispc-lab/GLC.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)はドメインシフトやカテゴリシフトの存在下ではよく機能しない。
DNNをリサイクルし、ターゲットタスクに適応する方法は、依然として重要なオープンな問題である。
Unsupervised Domain Adaptation (UDA)、特に最近提案された Source-free Domain Adaptation (SFDA) はこの問題に対処するための有望な技術となっている。
それでも、既存のSFDA法では、ソースドメインとターゲットドメインが同じラベル空間を共有している必要があるため、バニラ閉集合設定にのみ適用できる。
本稿では、さらに一歩進めて、SF-UniDA(Source-free Universal Domain Adaptation)について考察する。
目標は、ドメインとカテゴリシフトの両方で"既知の"データサンプルを特定し、(ソースクラスには存在しない)これらの"既知の"データサンプルを、標準の事前学習されたソースモデルからのみ拒否することである。
そこで我々は,グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
具体的には,新しい適応型one-vs-allグローバルクラスタリングアルゴリズムを設計し,異なるターゲットクラス間の識別を実現し,局所的なk-nnクラスタリング戦略を導入して負の転送を緩和する。
部分集合, 開集合, 開部分集合 DA など, 異なるカテゴリシフトシナリオを持つ複数のベンチマークにおいて, GLC の優位性を検討する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8 %上回っていることである。
コードはhttps://github.com/ispc-lab/glcで入手できる。
関連論文リスト
- Unsupervised Domain Adaptation via Distilled Discriminative Clustering [45.39542287480395]
対象データの識別クラスタリングとしてドメイン適応問題を再検討する。
本稿では,ラベル付き情報源データよりも並列に教師付き学習目標を用いて,ネットワークを協調的に訓練することを提案する。
5つの人気のあるベンチマークデータセットに対して、慎重にアブレーション研究と広範な実験を行う。
論文 参考訳(メタデータ) (2023-02-23T13:03:48Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Polycentric Clustering and Structural Regularization for Source-free
Unsupervised Domain Adaptation [20.952542421577487]
Source-Free Domain Adaptation (SFDA)は、訓練済みのソースモデルから学習した知識を未確認のターゲットドメインに転送することで、ドメイン適応問題を解決することを目的としている。
既存のほとんどのメソッドは、機能プロトタイプを生成することによって、ターゲットデータに擬似ラベルを割り当てる。
本稿では,PCSRと命名された新しいフレームワークを,クラス内多中心クラスタリングおよび構造規則化戦略を通じてSFDAに取り組むために提案する。
論文 参考訳(メタデータ) (2022-10-14T02:20:48Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。