論文の概要: Multi-Granularity Class Prototype Topology Distillation for Class-Incremental Source-Free Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2411.16064v1
- Date: Mon, 25 Nov 2024 03:28:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:20:38.729545
- Title: Multi-Granularity Class Prototype Topology Distillation for Class-Incremental Source-Free Unsupervised Domain Adaptation
- Title(参考訳): クラスインクリメンタルソースフリー非教師なしドメイン適応のためのマルチグラニティクラスプロトタイプトポロジー蒸留
- Authors: Peihua Deng, Jiehua Zhang, Xichun Sheng, Chenggang Yan, Yaoqi Sun, Ying Fu, Liang Li,
- Abstract要約: クラスインクリメンタルソースフリーの非教師なしドメイン適応問題には2つの課題がある。
マルチグラニュラリティクラスプロトタイプトポロジー蒸留(GROTO)アルゴリズムを提案する。
提案手法は,3つの公開データセット上での最先端性能を実現する。
- 参考スコア(独自算出の注目度): 29.590172105562075
- License:
- Abstract: This paper explores the Class-Incremental Source-Free Unsupervised Domain Adaptation (CI-SFUDA) problem, where the unlabeled target data come incrementally without access to labeled source instances. This problem poses two challenges, the disturbances of similar source-class knowledge to target-class representation learning and the new target knowledge to old ones. To address them, we propose the Multi-Granularity Class Prototype Topology Distillation (GROTO) algorithm, which effectively transfers the source knowledge to the unlabeled class-incremental target domain. Concretely, we design the multi-granularity class prototype self-organization module and prototype topology distillation module. Firstly, the positive classes are mined by modeling two accumulation distributions. Then, we generate reliable pseudo-labels by introducing multi-granularity class prototypes, and use them to promote the positive-class target feature self-organization. Secondly, the positive-class prototypes are leveraged to construct the topological structures of source and target feature spaces. Then, we perform the topology distillation to continually mitigate the interferences of new target knowledge to old ones. Extensive experiments demonstrate that our proposed method achieves state-of-the-art performances on three public datasets.
- Abstract(参考訳): 本稿では、ラベル付きソースインスタンスにアクセスせずにラベル付きターゲットデータが段階的に取得されるCI-SFUDA問題について検討する。
この問題は、ターゲットクラス表現学習に対する類似したソースクラス知識の乱れと、古いクラスに対する新しいターゲット知識の2つの課題を提起する。
そこで本稿では,GROTOアルゴリズムを提案する。このアルゴリズムは,ソース知識を未ラベルのクラスインクリメンタルターゲットドメインに効果的に転送する。
具体的には,多粒度クラスの自己組織化モジュールとトポロジー蒸留モジュールを設計する。
まず、正のクラスは2つの累積分布をモデル化することによって決定される。
そこで我々は,多粒度クラスプロトタイプを導入して,信頼度の高い擬似ラベルを生成し,それを用いて,肯定的クラスの特徴的自己組織化を促進する。
第二に、正クラスプロトタイプは、ソースおよびターゲット特徴空間の位相構造を構築するために活用される。
そこで我々は,新しいターゲット知識の干渉を緩和するため,トポロジ蒸留を行った。
大規模な実験により,提案手法は3つの公開データセット上で最先端の性能を実現することを示した。
関連論文リスト
- Bidirectional Logits Tree: Pursuing Granularity Reconcilement in Fine-Grained Classification [89.20477310885731]
本稿では,粒度分類タスクにおけるグラニュラリティコンペティションの課題について述べる。
既存のアプローチは通常、共通のベースエンコーダから抽出された共有特徴に基づいて、独立した階層認識モデルを開発する。
グラニュラリティ再構成のための双方向ロジットツリー(BiLT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-17T10:42:19Z) - ProtoGMM: Multi-prototype Gaussian-Mixture-based Domain Adaptation Model for Semantic Segmentation [0.8213829427624407]
ドメイン適応型セマンティックセグメンテーションは、ラベルのないターゲットドメインに対して正確で高密度な予測を生成することを目的としている。
本稿では,GMMを比較学習に組み込んだProtoGMMモデルを提案する。
クラス間のセマンティックな類似性の向上,クラス間の類似性の低下,およびソースドメインとターゲットドメイン間のドメインアライメントを実現するために,マルチプロトタイプコントラスト学習を採用する。
論文 参考訳(メタデータ) (2024-06-27T14:50:50Z) - Semi-supervised Domain Adaptation via Prototype-based Multi-level
Learning [4.232614032390374]
半教師付きドメイン適応(SSDA)では、各クラスのいくつかのラベル付きターゲットサンプルが、完全なラベル付きソースドメインからターゲットドメインへの知識表現の転送を支援する。
本稿では,ラベル付き対象サンプルの可能性をうまく活用するために,プロトタイプベースのマルチレベル学習(ProML)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-04T10:09:30Z) - Generative Model Based Noise Robust Training for Unsupervised Domain
Adaptation [108.11783463263328]
本稿では, 生成モデルに基づくノイズ・ロバスト訓練法(GeNRT)を提案する。
ラベルノイズを緩和しながらドメインシフトを除去する。
Office-Home、PACS、Digit-Fiveの実験は、GeNRTが最先端のメソッドに匹敵するパフォーマンスを実現していることを示している。
論文 参考訳(メタデータ) (2023-03-10T06:43:55Z) - A Prototype-Oriented Clustering for Domain Shift with Source Privacy [66.67700676888629]
本稿では,PCD(Prototype-oriented Clustering with Distillation)を導入し,既存の手法の性能と適用性を向上させる。
PCDはまず、プロトタイプとデータの分布を整列することで、ソースクラスタリングモデルを構築する。
その後、ソースモデルが提供するクラスタラベルを通じてターゲットモデルに知識を蒸留し、同時にターゲットデータをクラスタ化する。
論文 参考訳(メタデータ) (2023-02-08T00:15:35Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - Polycentric Clustering and Structural Regularization for Source-free
Unsupervised Domain Adaptation [20.952542421577487]
Source-Free Domain Adaptation (SFDA)は、訓練済みのソースモデルから学習した知識を未確認のターゲットドメインに転送することで、ドメイン適応問題を解決することを目的としている。
既存のほとんどのメソッドは、機能プロトタイプを生成することによって、ターゲットデータに擬似ラベルを割り当てる。
本稿では,PCSRと命名された新しいフレームワークを,クラス内多中心クラスタリングおよび構造規則化戦略を通じてSFDAに取り組むために提案する。
論文 参考訳(メタデータ) (2022-10-14T02:20:48Z) - BMD: A General Class-balanced Multicentric Dynamic Prototype Strategy
for Source-free Domain Adaptation [74.93176783541332]
Source-free Domain Adaptation (SFDA)は、トレーニング済みのソースモデルを、十分にラベル付けされたソースデータにアクセスすることなく、未ラベルのターゲットドメインに適応することを目的としている。
ソースデータの欠如を補うため、既存のほとんどのメソッドは、機能プロトタイプベースの擬似ラベル戦略を導入した。
SFDAタスクのための汎用クラスベース多中心動的プロトタイプ戦略を提案する。
論文 参考訳(メタデータ) (2022-04-06T13:23:02Z) - Prototypical Pseudo Label Denoising and Target Structure Learning for
Domain Adaptive Semantic Segmentation [24.573242887937834]
ドメイン適応セグメンテーションにおける競争的アプローチは、ターゲットドメインの擬似ラベルでネットワークを訓練する。
さらに一歩進めて,単なるプロトタイプよりも豊富な情報を提供するプロトタイプからの機能距離を活用する。
学習済みの知識を自己教師付き事前学習モデルに蒸留することで,さらなる性能向上が期待できる。
論文 参考訳(メタデータ) (2021-01-26T18:12:54Z) - Contradictory Structure Learning for Semi-supervised Domain Adaptation [67.89665267469053]
現在の逆順応法は、クロスドメインの特徴を整列させようとする。
1)条件分布ミスマッチ、2)決定境界のソース領域へのバイアス。
本稿では,対向構造の学習を統一することで,半教師付きドメイン適応のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-06T22:58:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。