論文の概要: Calibration-based Dual Prototypical Contrastive Learning Approach for
Domain Generalization Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2309.14282v1
- Date: Mon, 25 Sep 2023 16:48:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 14:41:29.133670
- Title: Calibration-based Dual Prototypical Contrastive Learning Approach for
Domain Generalization Semantic Segmentation
- Title(参考訳): 領域一般化意味セグメンテーションのためのキャリブレーションに基づく双原型的コントラスト学習アプローチ
- Authors: Muxin Liao, Shishun Tian, Yuhang Zhang, Guoguang Hua, Wenbin Zou, Xia
Li
- Abstract要約: 校正に基づく二重コントラスト学習手法は、学習したクラスワイド特徴と異なるドメインのプロトタイプとのドメイン差を低減するために提案される。
提案手法はドメイン一般化セマンティックセグメンテーションタスクにおける現在のアプローチよりも優れた性能を実現する。
- 参考スコア(独自算出の注目度): 12.325342781693216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prototypical contrastive learning (PCL) has been widely used to learn
class-wise domain-invariant features recently. These methods are based on the
assumption that the prototypes, which are represented as the central value of
the same class in a certain domain, are domain-invariant. Since the prototypes
of different domains have discrepancies as well, the class-wise
domain-invariant features learned from the source domain by PCL need to be
aligned with the prototypes of other domains simultaneously. However, the
prototypes of the same class in different domains may be different while the
prototypes of different classes may be similar, which may affect the learning
of class-wise domain-invariant features. Based on these observations, a
calibration-based dual prototypical contrastive learning (CDPCL) approach is
proposed to reduce the domain discrepancy between the learned class-wise
features and the prototypes of different domains for domain generalization
semantic segmentation. It contains an uncertainty-guided PCL (UPCL) and a
hard-weighted PCL (HPCL). Since the domain discrepancies of the prototypes of
different classes may be different, we propose an uncertainty probability
matrix to represent the domain discrepancies of the prototypes of all the
classes. The UPCL estimates the uncertainty probability matrix to calibrate the
weights of the prototypes during the PCL. Moreover, considering that the
prototypes of different classes may be similar in some circumstances, which
means these prototypes are hard-aligned, the HPCL is proposed to generate a
hard-weighted matrix to calibrate the weights of the hard-aligned prototypes
during the PCL. Extensive experiments demonstrate that our approach achieves
superior performance over current approaches on domain generalization semantic
segmentation tasks.
- Abstract(参考訳): 原型コントラスト学習(PCL)は近年,クラスワイドドメイン不変の特徴を学習するために広く利用されている。
これらの方法は、ある領域において同じクラスの中心値として表されるプロトタイプがドメイン不変であるという仮定に基づいている。
異なるドメインのプロトタイプにも相違があるため、PCLがソースドメインから学んだクラスワイドなドメイン不変機能は、他のドメインのプロトタイプと同時に一致する必要がある。
しかし、異なるドメイン内の同じクラスのプロトタイプは異なるかもしれないが、異なるクラスのプロトタイプは似ているかもしれない。
これらの観察に基づいて,cdpcl(cdpcl)アプローチにより,学習したクラス別特徴量と異なるドメインのプロトタイプ間のドメイン不一致を低減し,ドメイン一般化意味セグメンテーションを実現する。
不確実性誘導PCL(UPCL)とハードウェイトPCL(HPCL)を含んでいる。
異なるクラスのプロトタイプのドメインのばらつきが異なる可能性があるので、全てのクラスのプロトタイプのドメインのばらつきを表す不確実性確率行列を提案する。
UPCLは、不確実確率行列を推定し、PCL中のプロトタイプの重量を校正する。
さらに,異なるクラスのプロトタイプが類似している場合もあるため,これらのプロトタイプはハードアライメントされているため,HPCLはPCL中にハードアライメントされたプロトタイプの重量をキャリブレーションする重み付き行列を生成することを提案する。
拡張実験により,本手法は領域一般化セマンティックセグメンテーションタスクにおける現在の手法よりも優れた性能を発揮することが示された。
関連論文リスト
- Mind the Gap Between Prototypes and Images in Cross-domain Finetuning [64.97317635355124]
プロトタイプと画像にそれぞれ異なる変換を適用するために,コントラスト型プロトタイプイメージ適応(CoPA)を提案する。
Meta-Datasetの実験では、CoPAが最先端のパフォーマンスをより効率的に達成できることが示されている。
論文 参考訳(メタデータ) (2024-10-16T11:42:11Z) - An Enhanced Federated Prototype Learning Method under Domain Shift [36.73020712815063]
Federated Learning (FL)は、プライベートデータを共有することなく、協調的な機械学習トレーニングを可能にする。
最近の論文では、分散対応のデュアルレベルプロトタイプクラスタリングを導入し、新しい$alpha$-sparsityプロトタイプロスを用いる。
Digit-5、Office-10、DomainNetデータセットの評価は、我々の手法が既存のアプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-09-27T09:28:27Z) - A prototype-based model for set classification [2.0564549686015594]
ベクトルの集合を表す一般的な方法は、それらを線型部分空間としてモデル化することである。
我々は、そのような線型部分空間、グラスマン多様体から形成される多様体について、プロトタイプベースの学習手法を提案する。
論文 参考訳(メタデータ) (2024-08-25T04:29:18Z) - Adaptive Parametric Prototype Learning for Cross-Domain Few-Shot
Classification [23.82751179819225]
本稿では,メタラーニング・コンベンションの下で新しい適応パラメトリックプロトタイプ学習法(APPL)を開発した。
APPLは多くの最先端のクロスドメイン・ショット・ラーニング手法よりも優れた性能が得られる。
論文 参考訳(メタデータ) (2023-09-04T03:58:50Z) - Learning Support and Trivial Prototypes for Interpretable Image
Classification [19.00622056840535]
Prototypeal part network (ProtoPNet) 法は解釈可能な分類を実現するために設計されている。
本稿では,特徴空間の分類境界付近にあるサポートプロトタイプを学習するための新しい手法により,ProtoPNetの分類を改善することを目的とする。
論文 参考訳(メタデータ) (2023-01-08T09:27:41Z) - Robust Domain Adaptive Object Detection with Unified Multi-Granularity Alignment [59.831917206058435]
ドメイン適応検出は、ターゲットドメイン上の検出器の一般化を改善することを目的としている。
近年のアプローチは、異なる粒度の特徴アライメントを通じて、逆学習を通じてドメイン適応を実現する。
ドメイン不変な特徴学習のための統合多重粒度アライメント(MGA)に基づく検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-01T08:38:07Z) - Prototypical Contrast Adaptation for Domain Adaptive Semantic
Segmentation [52.63046674453461]
プロトタイプ・コントラスト適応(Prototypeal Contrast Adaptation, ProCA)は、教師なしドメイン適応セマンティックセマンティックセグメンテーションのための対照的な学習法である。
ProCAはクラス間の情報をクラスワイドプロトタイプに組み込み、適応のためにクラス中心の分散アライメントを採用する。
論文 参考訳(メタデータ) (2022-07-14T04:54:26Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z) - Cross-domain Detection via Graph-induced Prototype Alignment [114.8952035552862]
カテゴリレベルのドメインアライメントを求めるグラフ誘発プロトタイプアライメント(GPA)フレームワークを提案する。
さらに,クラス不均衡がドメイン適応に与える影響を軽減するために,クラス重み付きコントラスト損失を設計する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-03-28T17:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。