論文の概要: ProtoGMM: Multi-prototype Gaussian-Mixture-based Domain Adaptation Model for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2406.19225v1
- Date: Thu, 27 Jun 2024 14:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-28 13:58:17.789731
- Title: ProtoGMM: Multi-prototype Gaussian-Mixture-based Domain Adaptation Model for Semantic Segmentation
- Title(参考訳): ProtoGMM:セマンティックセグメンテーションのためのマルチプロトタイプガウスミクチャーベースドメイン適応モデル
- Authors: Nazanin Moradinasab, Laura S. Shankman, Rebecca A. Deaton, Gary K. Owens, Donald E. Brown,
- Abstract要約: ドメイン適応型セマンティックセグメンテーションは、ラベルのないターゲットドメインに対して正確で高密度な予測を生成することを目的としている。
本稿では,GMMを比較学習に組み込んだProtoGMMモデルを提案する。
クラス間のセマンティックな類似性の向上,クラス間の類似性の低下,およびソースドメインとターゲットドメイン間のドメインアライメントを実現するために,マルチプロトタイプコントラスト学習を採用する。
- 参考スコア(独自算出の注目度): 0.8213829427624407
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Domain adaptive semantic segmentation aims to generate accurate and dense predictions for an unlabeled target domain by leveraging a supervised model trained on a labeled source domain. The prevalent self-training approach involves retraining the dense discriminative classifier of $p(class|pixel feature)$ using the pseudo-labels from the target domain. While many methods focus on mitigating the issue of noisy pseudo-labels, they often overlook the underlying data distribution p(pixel feature|class) in both the source and target domains. To address this limitation, we propose the multi-prototype Gaussian-Mixture-based (ProtoGMM) model, which incorporates the GMM into contrastive losses to perform guided contrastive learning. Contrastive losses are commonly executed in the literature using memory banks, which can lead to class biases due to underrepresented classes. Furthermore, memory banks often have fixed capacities, potentially restricting the model's ability to capture diverse representations of the target/source domains. An alternative approach is to use global class prototypes (i.e. averaged features per category). However, the global prototypes are based on the unimodal distribution assumption per class, disregarding within-class variation. To address these challenges, we propose the ProtoGMM model. This novel approach involves estimating the underlying multi-prototype source distribution by utilizing the GMM on the feature space of the source samples. The components of the GMM model act as representative prototypes. To achieve increased intra-class semantic similarity, decreased inter-class similarity, and domain alignment between the source and target domains, we employ multi-prototype contrastive learning between source distribution and target samples. The experiments show the effectiveness of our method on UDA benchmarks.
- Abstract(参考訳): ドメイン適応セマンティックセグメンテーションは、ラベル付きソースドメインでトレーニングされた教師付きモデルを活用することで、ラベルなしターゲットドメインの正確で高密度な予測を生成することを目的としている。
一般的な自己学習アプローチでは、ターゲット領域からの擬ラベルを用いて、$p(class|pixel feature)$の高密度な識別的分類器を再訓練する。
多くのメソッドは、ノイズの多い擬似ラベルの問題を軽減することに重点を置いているが、ソースドメインとターゲットドメインの両方において、基礎となるデータ分散p(ピクセル特徴|クラス)を見落としていることが多い。
この制限に対処するために,GMMを対照的な損失に組み込んだマルチプロトタイプのガウス・ミクチャーベース(ProtoGMM)モデルを提案する。
対照的な損失は、メモリバンクを使用して文献で一般的に実行されるため、クラスが不足しているため、クラスバイアスにつながる可能性がある。
さらに、メモリバンクはしばしば固定容量を持ち、モデルがターゲット/ソース領域の様々な表現をキャプチャする能力を制限する可能性がある。
別のアプローチは、グローバルクラスのプロトタイプ(すなわちカテゴリごとの平均的な特徴)を使用することである。
しかし、グローバルプロトタイプはクラスごとの単調分布の仮定に基づいており、クラス内の変動を無視している。
これらの課題に対処するため,我々はProtoGMMモデルを提案する。
本手法では, ソースサンプルの特徴空間上のGMMを利用して, 基礎となるマルチプロトタイプソース分布を推定する。
GMMモデルのコンポーネントは、代表的なプロトタイプとして機能する。
クラス内セマンティックな類似性の向上,クラス間類似性の低下,およびソースとターゲットドメイン間のドメインアライメントを実現するために,ソース分布とターゲットサンプル間のマルチプロトタイプコントラスト学習を採用する。
実験により,UDAベンチマークにおける本手法の有効性が示された。
関連論文リスト
- Semi-supervised Domain Adaptation via Prototype-based Multi-level
Learning [4.232614032390374]
半教師付きドメイン適応(SSDA)では、各クラスのいくつかのラベル付きターゲットサンプルが、完全なラベル付きソースドメインからターゲットドメインへの知識表現の転送を支援する。
本稿では,ラベル付き対象サンプルの可能性をうまく活用するために,プロトタイプベースのマルチレベル学習(ProML)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-04T10:09:30Z) - Generative Model Based Noise Robust Training for Unsupervised Domain
Adaptation [108.11783463263328]
本稿では, 生成モデルに基づくノイズ・ロバスト訓練法(GeNRT)を提案する。
ラベルノイズを緩和しながらドメインシフトを除去する。
Office-Home、PACS、Digit-Fiveの実験は、GeNRTが最先端のメソッドに匹敵するパフォーマンスを実現していることを示している。
論文 参考訳(メタデータ) (2023-03-10T06:43:55Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Polycentric Clustering and Structural Regularization for Source-free
Unsupervised Domain Adaptation [20.952542421577487]
Source-Free Domain Adaptation (SFDA)は、訓練済みのソースモデルから学習した知識を未確認のターゲットドメインに転送することで、ドメイン適応問題を解決することを目的としている。
既存のほとんどのメソッドは、機能プロトタイプを生成することによって、ターゲットデータに擬似ラベルを割り当てる。
本稿では,PCSRと命名された新しいフレームワークを,クラス内多中心クラスタリングおよび構造規則化戦略を通じてSFDAに取り組むために提案する。
論文 参考訳(メタデータ) (2022-10-14T02:20:48Z) - BMD: A General Class-balanced Multicentric Dynamic Prototype Strategy
for Source-free Domain Adaptation [74.93176783541332]
Source-free Domain Adaptation (SFDA)は、トレーニング済みのソースモデルを、十分にラベル付けされたソースデータにアクセスすることなく、未ラベルのターゲットドメインに適応することを目的としている。
ソースデータの欠如を補うため、既存のほとんどのメソッドは、機能プロトタイプベースの擬似ラベル戦略を導入した。
SFDAタスクのための汎用クラスベース多中心動的プロトタイプ戦略を提案する。
論文 参考訳(メタデータ) (2022-04-06T13:23:02Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - MiniMax Entropy Network: Learning Category-Invariant Features for Domain Adaptation [29.43532067090422]
逆学習に基づくMMEN(MiniMax Entropy Networks)と呼ばれる実装が容易な手法を提案する。
ドメイン差に対処するためにジェネレータを使用する既存のアプローチとは異なり、MMENはラベルのないターゲットサンプルからカテゴリ情報を学習することに重点を置いている。
論文 参考訳(メタデータ) (2019-04-21T13:39:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。