論文の概要: Specialize and Fuse: Pyramidal Output Representation for Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2108.01866v1
- Date: Wed, 4 Aug 2021 06:31:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 13:19:32.923896
- Title: Specialize and Fuse: Pyramidal Output Representation for Semantic
Segmentation
- Title(参考訳): specialize and fuse: 意味セグメンテーションのためのピラミッド型出力表現
- Authors: Chi-Wei Hsiao, Cheng Sun, Hwann-Tzong Chen, Min Sun
- Abstract要約: 意味的セグメンテーションのための「特殊化と融合」プロセスと相似性を確保するために,新しいピラミッド出力表現を提案する。
ピラミッドの「出力」表現は、各レベルが異なるクラス分布において「特殊化」される粗いレベルから細いレベルで構成されている。
本手法における各キーモジュールの有効性を,包括的アブレーション研究により検証した。
- 参考スコア(独自算出の注目度): 38.80434233573089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel pyramidal output representation to ensure parsimony with
our "specialize and fuse" process for semantic segmentation. A pyramidal
"output" representation consists of coarse-to-fine levels, where each level is
"specialize" in a different class distribution (e.g., more stuff than things
classes at coarser levels). Two types of pyramidal outputs (i.e., unity and
semantic pyramid) are "fused" into the final semantic output, where the unity
pyramid indicates unity-cells (i.e., all pixels in such cell share the same
semantic label). The process ensures parsimony by predicting a relatively small
number of labels for unity-cells (e.g., a large cell of grass) to build the
final semantic output. In addition to the "output" representation, we design a
coarse-to-fine contextual module to aggregate the "features" representation
from different levels. We validate the effectiveness of each key module in our
method through comprehensive ablation studies. Finally, our approach achieves
state-of-the-art performance on three widely-used semantic segmentation
datasets -- ADE20K, COCO-Stuff, and Pascal-Context.
- Abstract(参考訳): セマンティクスセグメンテーションのための"特殊化と融合"のプロセスにparsimonyを保証するために,新しいピラミッド型出力表現を提案する。
ピラミッド的な「出力」表現は粗大なレベルで構成され、各レベルは異なるクラス分布(例えば、粗大なレベルでのクラスよりも多くのもの)において「特殊化」される。
2種類のピラミッド出力(すなわち、ユニティとセマンティックピラミッド)は、最終セマンティック出力に「融合」され、そこでは、ユニティピラミッドはユニティセルを示す(すなわち、そのようなセル内の全てのピクセルは同じセマンティックラベルを共有する)。
このプロセスは、最終的な意味出力を構築するために、比較的少数のセル(例えば草の大きなセル)のラベルを予測することによって、パシモニーを保証する。
アウトプット」表現に加えて、異なるレベルから「機能」表現を集約するために、粒度から粒度までのコンテキストモジュールを設計します。
本手法における各キーモジュールの有効性を包括的アブレーション研究により検証した。
最後に,ade20k,coco-stuff,pascal-contextという,広く使用されている3つのセマンティクスセグメンテーションデータセットにおいて,最先端のパフォーマンスを実現する。
関連論文リスト
- Enhancing Neural Machine Translation with Semantic Units [19.277108324366257]
文中の意味単位の積分的意味をモデル化する手法を提案する。
そして、それらを活用して、文を理解するための新しい視点を提供します。
実験結果から,本手法は強いベースラインを効果的にモデル化し,性能を向上することが示された。
論文 参考訳(メタデータ) (2023-10-17T15:55:31Z) - Hierarchical Open-vocabulary Universal Image Segmentation [48.008887320870244]
Open-vocabulary Image segmentationは、任意のテキスト記述に従ってイメージをセマンティック領域に分割することを目的としている。
我々は,「モノ」と「スタッフ」の双方に対して,分離されたテキストイメージ融合機構と表現学習モジュールを提案する。
HIPIE tackles, HIerarchical, oPen-vocabulary, unIvErsal segmentation task in a unified framework。
論文 参考訳(メタデータ) (2023-07-03T06:02:15Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - TransFGU: A Top-down Approach to Fine-Grained Unsupervised Semantic
Segmentation [44.75300205362518]
教師なしセマンティックセグメンテーションは、手動のアノテーションを使わずに、低レベルの視覚的特徴の高レベルセマンティック表現を得ることを目的としている。
本稿では, 非常に複雑なシナリオにおける細粒度セグメンテーションのための, トップダウンの教師なしセグメンテーションフレームワークを提案する。
我々の結果は、トップダウンの教師なしセグメンテーションが、オブジェクト中心とシーン中心の両方のデータセットに対して堅牢であることを示している。
論文 参考訳(メタデータ) (2021-12-02T18:59:03Z) - Segmenter: Transformer for Semantic Segmentation [79.9887988699159]
セマンティックセグメンテーションのためのトランスフォーマーモデルであるSegmenterを紹介します。
最近のViT(Vision Transformer)上に構築し,セマンティックセグメンテーションに拡張する。
これは、挑戦的なADE20Kデータセット上でのアートの状態を上回り、Pascal ContextとCityscapesでオンパーを実行する。
論文 参考訳(メタデータ) (2021-05-12T13:01:44Z) - Exploring Cross-Image Pixel Contrast for Semantic Segmentation [130.22216825377618]
完全教師付きセッティングにおけるセマンティックセグメンテーションのための画素単位のコントラストフレームワークを提案する。
中心となる考え方は、同じセマンティッククラスに属するピクセルの埋め込みを、異なるクラスの埋め込みよりもよく似ているように強制することである。
テスト中に余分なオーバーヘッドを伴わずに既存のセグメンテーションフレームワークに懸命に組み込むことができる。
論文 参考訳(メタデータ) (2021-01-28T11:35:32Z) - Edge Guided GANs with Contrastive Learning for Semantic Image Synthesis [194.1452124186117]
本稿では,難解なセマンティック画像合成タスクのための新しいECGANを提案する。
我々のECGANは最先端の手法よりもはるかに優れた結果が得られる。
論文 参考訳(メタデータ) (2020-03-31T01:23:21Z) - Layered Embeddings for Amodal Instance Segmentation [0.7734726150561089]
提案手法は,目に見える部分と隠蔽部分の両方を明示的に含むことによって,セマンティック・インスタンス・セグメンテーションの表現出力を拡張する。
完全な畳み込みネットワークは、2つの層に一貫したピクセルレベルの埋め込みを生成するように訓練され、クラスタ化されると、結果は各インスタンスの完全な空間範囲と深さ順序を伝達する。
論文 参考訳(メタデータ) (2020-02-14T22:00:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。