論文の概要: HGFormer: Hierarchical Grouping Transformer for Domain Generalized
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2305.13031v1
- Date: Mon, 22 May 2023 13:33:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 15:56:06.676365
- Title: HGFormer: Hierarchical Grouping Transformer for Domain Generalized
Semantic Segmentation
- Title(参考訳): HGFormer:ドメイン一般化セマンティックセマンティックセグメンテーションのための階層型グループ変換器
- Authors: Jian Ding, Nan Xue, Gui-Song Xia, Bernt Schiele, Dengxin Dai
- Abstract要約: 本研究は領域一般化設定の下で意味的セグメンテーションを研究する。
本稿では,階層型グループ化変換器(HGFormer)を提案する。
実験により、HGFormerはピクセルごとの分類法やフラットグルーピング変換器よりも、より堅牢なセマンティックセグメンテーション結果が得られることが示された。
- 参考スコア(独自算出の注目度): 113.6560373226501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current semantic segmentation models have achieved great success under the
independent and identically distributed (i.i.d.) condition. However, in
real-world applications, test data might come from a different domain than
training data. Therefore, it is important to improve model robustness against
domain differences. This work studies semantic segmentation under the domain
generalization setting, where a model is trained only on the source domain and
tested on the unseen target domain. Existing works show that Vision
Transformers are more robust than CNNs and show that this is related to the
visual grouping property of self-attention. In this work, we propose a novel
hierarchical grouping transformer (HGFormer) to explicitly group pixels to form
part-level masks and then whole-level masks. The masks at different scales aim
to segment out both parts and a whole of classes. HGFormer combines mask
classification results at both scales for class label prediction. We assemble
multiple interesting cross-domain settings by using seven public semantic
segmentation datasets. Experiments show that HGFormer yields more robust
semantic segmentation results than per-pixel classification methods and flat
grouping transformers, and outperforms previous methods significantly. Code
will be available at https://github.com/dingjiansw101/HGFormer.
- Abstract(参考訳): 現在の意味セグメンテーションモデルは、独立かつ同一分散(i.i.d.)条件下で大きな成功を収めている。
しかし、現実世界のアプリケーションでは、テストデータはトレーニングデータとは異なるドメインから来る可能性がある。
したがって、ドメイン差に対するモデル堅牢性を改善することが重要である。
本研究は、モデルがソースドメインでのみ訓練され、対象領域でテストされる、ドメインの一般化設定の下で意味セグメンテーションを研究する。
既存の研究によると、視覚トランスフォーマーはcnnよりも頑丈であり、これは自己着脱の視覚グループ化特性に関連している。
本研究では,ピクセルを明示的にグループ化し,部分レベルのマスクと全体レベルのマスクを形成する階層型グループ化トランスフォーマー(hgformer)を提案する。
異なるスケールのマスクは、部分とクラス全体を分割することを目的としています。
HGFormerは、両方のスケールでマスク分類結果を組み合わせて、クラスラベルの予測を行う。
7つの公開セマンティクスセグメンテーションデータセットを使用して、複数の興味深いクロスドメイン設定を組み立てる。
実験により,HGFormerは画素ごとの分類法やフラットグルーピング変換法よりも,より堅牢なセマンティックセマンティックセマンティクス結果が得られることが示された。
コードはhttps://github.com/dingjiansw101/HGFormerで入手できる。
関連論文リスト
- A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - High-fidelity Pseudo-labels for Boosting Weakly-Supervised Segmentation [17.804090651425955]
画像レベルの弱い教師付きセグメンテーション(WSSS)は、トレーニング中にセグメンテーションマスクを代理することで、通常膨大なデータアノテーションコストを削減する。
本研究は,GAPの代替となる重要サンプリングと特徴類似性損失という,CAMを改善するための2つの手法に基づく。
複数の独立二項問題の後部二項問題に基づいて両手法を再構成する。
パフォーマンスが向上し、より一般的なものになり、事実上あらゆるWSSSメソッドを増強できるアドオンメソッドが出来上がります。
論文 参考訳(メタデータ) (2023-04-05T17:43:57Z) - Mean Shift Mask Transformer for Unseen Object Instance Segmentation [12.371855276852195]
Mean Shift Mask Transformer (MSMFormer)は、von Mises-Fisher(vMF)平均シフトクラスタリングアルゴリズムをシミュレートするトランスフォーマーアーキテクチャである。
実験の結果,MSMFormerは未確認オブジェクトのインスタンスセグメンテーションの最先端手法と比較して,競争性能が向上していることがわかった。
論文 参考訳(メタデータ) (2022-11-21T17:47:48Z) - Open-World Instance Segmentation: Exploiting Pseudo Ground Truth From
Learned Pairwise Affinity [59.1823948436411]
我々は、マスク提案のための新しいアプローチ、ジェネリックグループネットワーク(GGN)を提案する。
我々のアプローチは、ピクセル親和性の局所測定とインスタンスレベルのマスク監視を組み合わせることで、データの多様性が許容するほど汎用的なモデルを設計したトレーニングレギュレータを生成する。
論文 参考訳(メタデータ) (2022-04-12T22:37:49Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - SPCL: A New Framework for Domain Adaptive Semantic Segmentation via
Semantic Prototype-based Contrastive Learning [6.705297811617307]
ドメイン適応は、ラベル付けされたソースドメインからラベル付けされていないターゲットドメインに知識を転送するのに役立ちます。
本稿では,クラスアライメントを微粒化するための新しい意味的プロトタイプに基づくコントラスト学習フレームワークを提案する。
我々の手法は実装が容易であり、最先端の手法と比較して優れた結果が得られる。
論文 参考訳(メタデータ) (2021-11-24T09:26:07Z) - Segmenter: Transformer for Semantic Segmentation [79.9887988699159]
セマンティックセグメンテーションのためのトランスフォーマーモデルであるSegmenterを紹介します。
最近のViT(Vision Transformer)上に構築し,セマンティックセグメンテーションに拡張する。
これは、挑戦的なADE20Kデータセット上でのアートの状態を上回り、Pascal ContextとCityscapesでオンパーを実行する。
論文 参考訳(メタデータ) (2021-05-12T13:01:44Z) - Semantic Distribution-aware Contrastive Adaptation for Semantic
Segmentation [50.621269117524925]
ドメイン適応セマンティックセグメンテーション(ドメイン適応セマンティックセグメンテーション)とは、特定のソースドメインのアノテーションだけで特定のターゲットドメイン上で予測を行うことを指す。
画素ワイド表示アライメントを可能にする意味分布対応コントラスト適応アルゴリズムを提案する。
複数のベンチマークでSDCAを評価し、既存のアルゴリズムを大幅に改善します。
論文 参考訳(メタデータ) (2021-05-11T13:21:25Z) - Deep Domain-Adversarial Image Generation for Domain Generalisation [115.21519842245752]
マシンラーニングモデルは通常、ソースデータセットでトレーニングされたり、異なるディストリビューションのターゲットデータセットで評価されたりする際に、ドメインシフトの問題に悩まされる。
この問題を解決するために、ドメイン一般化(DG)手法は、訓練されたモデルが未知のドメインに一般化できるように、複数のソースドメインからのデータを活用することを目的としている。
我々はemphDeep Domain-Adversarial Image Generation (DDAIG)に基づく新しいDG手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T23:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。