論文の概要: GMMSeg: Gaussian Mixture based Generative Semantic Segmentation Models
- arxiv url: http://arxiv.org/abs/2210.02025v1
- Date: Wed, 5 Oct 2022 05:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 14:00:34.921799
- Title: GMMSeg: Gaussian Mixture based Generative Semantic Segmentation Models
- Title(参考訳): GMMSeg:ガウス混合に基づく生成セマンティックセマンティックセグメンテーションモデル
- Authors: Chen Liang, Wenguan Wang, Jiaxu Miao, Yi Yang
- Abstract要約: 結合分布 p(ピクセル特徴,クラス) の高密度な生成型分類器に依存する分割モデルの新たなファミリーを提案する。
さまざまなセグメンテーションアーキテクチャとバックボーンにより、GMMSegはクローズドセットデータセットにおいて差別的よりも優れています。
GMMSegは、オープンワールドデータセットでもうまく機能する。
- 参考スコア(独自算出の注目度): 74.0430727476634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prevalent semantic segmentation solutions are, in essence, a dense
discriminative classifier of p(class|pixel feature). Though straightforward,
this de facto paradigm neglects the underlying data distribution p(pixel
feature|class), and struggles to identify out-of-distribution data. Going
beyond this, we propose GMMSeg, a new family of segmentation models that rely
on a dense generative classifier for the joint distribution p(pixel
feature,class). For each class, GMMSeg builds Gaussian Mixture Models (GMMs)
via Expectation-Maximization (EM), so as to capture class-conditional
densities. Meanwhile, the deep dense representation is end-to-end trained in a
discriminative manner, i.e., maximizing p(class|pixel feature). This endows
GMMSeg with the strengths of both generative and discriminative models. With a
variety of segmentation architectures and backbones, GMMSeg outperforms the
discriminative counterparts on three closed-set datasets. More impressively,
without any modification, GMMSeg even performs well on open-world datasets. We
believe this work brings fundamental insights into the related fields.
- Abstract(参考訳): 一般的なセマンティックセグメンテーションソリューションは、本質的には、p(class|pixel feature)の密な判別分類器である。
このデファクトパラダイムは単純ではあるが、基盤となるデータ分散p(pixel feature|class)を無視し、分散データの識別に苦労している。
これとは別に、我々はgmmsegという新しいセグメンテーションモデルを提案している。これはジョイント分布p(ピクセル特徴、クラス)の高密度生成型分類器に依存する。
各クラスに対して、GMMSegはクラス条件密度をキャプチャするために、期待最大化(EM)を介してガウス混合モデル(GMM)を構築する。
一方、濃密表現は、識別的な方法で、すなわちp(クラス|ピクセル特徴)を最大化するエンドツーエンドの訓練である。
このendows gmmsegは、生成モデルと識別モデルの双方の強みを持つ。
さまざまなセグメンテーションアーキテクチャとバックボーンにより、GMMSegは3つのクローズドセットデータセットにおいて差別的処理よりも優れています。
さらに印象的なことに、GMMSegは変更なしに、オープンワールドのデータセットでもうまく機能する。
この研究は、関連する分野に基本的な洞察をもたらしていると考えています。
関連論文リスト
- ProtoGMM: Multi-prototype Gaussian-Mixture-based Domain Adaptation Model for Semantic Segmentation [0.8213829427624407]
ドメイン適応型セマンティックセグメンテーションは、ラベルのないターゲットドメインに対して正確で高密度な予測を生成することを目的としている。
本稿では,GMMを比較学習に組み込んだProtoGMMモデルを提案する。
クラス間のセマンティックな類似性の向上,クラス間の類似性の低下,およびソースドメインとターゲットドメイン間のドメインアライメントを実現するために,マルチプロトタイプコントラスト学習を採用する。
論文 参考訳(メタデータ) (2024-06-27T14:50:50Z) - Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - Generative and Contrastive Paradigms Are Complementary for Graph
Self-Supervised Learning [56.45977379288308]
Masked Autoencoder (MAE)は、マスク付きグラフエッジやノード機能の再構築を学ぶ。
Contrastive Learning (CL)は、同じグラフの拡張ビュー間の類似性を最大化する。
我々は,MAE と CL を統一するグラフコントラッシブマスク付きオートエンコーダ (GCMAE) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T05:06:06Z) - HGFormer: Hierarchical Grouping Transformer for Domain Generalized
Semantic Segmentation [113.6560373226501]
本研究は領域一般化設定の下で意味的セグメンテーションを研究する。
本稿では,階層型グループ化変換器(HGFormer)を提案する。
実験により、HGFormerはピクセルごとの分類法やフラットグルーピング変換器よりも、より堅牢なセマンティックセグメンテーション結果が得られることが示された。
論文 参考訳(メタデータ) (2023-05-22T13:33:41Z) - A Hybrid of Generative and Discriminative Models Based on the
Gaussian-coupled Softmax Layer [5.33024001730262]
本稿では,1つのニューラルネットワークにおける識別モデルと生成モデルのハイブリッドを学習する手法を提案する。
提案手法を半教師付き学習と信頼性校正に適用できることを実証する。
論文 参考訳(メタデータ) (2023-05-10T05:48:22Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Generative Max-Mahalanobis Classifiers for Image Classification,
Generation and More [6.89001867562902]
Max-Mahalanobis (MMC) は、画像分類と生成のために、識別、生成、共同で訓練することができる。
ジェネラティブMCC(Generative MMC)は、画像分類と生成のために、識別的、生成的、または共同でトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-01-01T00:42:04Z) - Mixture of Conditional Gaussian Graphical Models for unlabelled
heterogeneous populations in the presence of co-factors [0.0]
ガウス図形モデル(GGM)内の条件相関ネットワークは、ランダムベクトルの成分間の直接相互作用を記述するために広く使われている。
本稿では,データポイントをサブポピュレーション対応クラスタに再分類するために,共機能の不均一な効果を減じる条件付きGGM(Mixture of Conditional GGM)を提案する。
論文 参考訳(メタデータ) (2020-06-19T11:57:30Z) - Handling missing data in model-based clustering [0.0]
欠損データの存在下でガウス混合体を適合させる2つの方法を提案する。
どちらの手法もデータ拡張のためにモンテカルロ予測最大化アルゴリズムの変種を用いる。
提案手法はクラスタ同定と密度推定の両面で多重計算手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-04T15:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。