論文の概要: SE-PSNet: Silhouette-based Enhancement Feature for Panoptic Segmentation
Network
- arxiv url: http://arxiv.org/abs/2107.05093v1
- Date: Sun, 11 Jul 2021 17:20:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 16:10:29.690785
- Title: SE-PSNet: Silhouette-based Enhancement Feature for Panoptic Segmentation
Network
- Title(参考訳): SE-PSNet:Panoptic Segmentation Networkのためのシルエットベースの拡張機能
- Authors: Shuo-En Chang, Yi-Cheng Yang, En-Ting Lin, Pei-Yung Hsiao, Li-Chen Fu
- Abstract要約: 汎視的セグメンテーション課題に取り組むための解決策を提案する。
この構造はボトムアップ法とトップダウン法を組み合わせたものである。
ネットワークは主にマスクの品質に注意を払う。
- 参考スコア(独自算出の注目度): 5.353718408751182
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recently, there has been a panoptic segmentation task combining semantic and
instance segmentation, in which the goal is to classify each pixel with the
corresponding instance ID. In this work, we propose a solution to tackle the
panoptic segmentation task. The overall structure combines the bottom-up method
and the top-down method. Therefore, not only can there be better performance,
but also the execution speed can be maintained. The network mainly pays
attention to the quality of the mask. In the previous work, we can see that the
uneven contour of the object is more likely to appear, resulting in low-quality
prediction. Accordingly, we propose enhancement features and corresponding loss
functions for the silhouette of objects and backgrounds to improve the mask.
Meanwhile, we use the new proposed confidence score to solve the occlusion
problem and make the network tend to use higher quality masks as prediction
results. To verify our research, we used the COCO dataset and CityScapes
dataset to do experiments and obtained competitive results with fast inference
time.
- Abstract(参考訳): 最近、セマンティックセグメンテーションとインスタンスセグメンテーションを組み合わせたpanopticセグメンテーションタスクがあり、それぞれのピクセルを対応するインスタンスidで分類することを目標としている。
本研究では,panoptic segmentationタスクに取り組むための解法を提案する。
全体構造はボトムアップ法とトップダウン法を組み合わせている。
したがって、パフォーマンスが向上するだけでなく、実行速度も維持できる。
ネットワークは主にマスクの品質に注意を払っている。
前の研究では、オブジェクトの不均一な輪郭が出現する可能性が高まり、結果として低品質の予測が行われることがわかりました。
そこで我々は,マスク改善のために,物体と背景のシルエットに対する拡張機能とそれに対応する損失関数を提案する。
一方,新しい信頼度スコアを用いて咬合問題を解決し,ネットワークがより高品質なマスクを予測結果として使用する傾向を示した。
研究の検証には,cocoデータセットとcityscapesデータセットを使用して実験を行い,高速な推論時間で競合結果を得た。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Simple Contrastive Graph Clustering [41.396185271303956]
既存の手法を改善するための単純なコントラストグラフクラスタリング(SCGC)アルゴリズムを提案する。
我々のアルゴリズムは、最近のコントラストの高いディープクラスタリング競合よりも、平均して7倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2022-05-11T06:45:19Z) - PFENet++: Boosting Few-shot Semantic Segmentation with the
Noise-filtered Context-aware Prior Mask [62.37727055343632]
「Few-Shot」のためのガイド機能強化ネットワークで提案された以前のマスクガイダンスを再考する。
本稿では,クエリ画像中のオブジェクトの配置を改善するために,近隣のセマンティックキューを活用するコンテキスト対応プリエントマスク(CAPM)を提案する。
我々は、不要な応答をスクリーニングするために、軽量ノイズ抑圧モジュール(NSM)を組み込むことにより、さらに一歩前進する。
論文 参考訳(メタデータ) (2021-09-28T15:07:43Z) - Self-Supervised Visual Representations Learning by Contrastive Mask
Prediction [129.25459808288025]
視覚表現学習のための新しいコントラストマスク予測(CMP)タスクを提案する。
MaskCoは、ビューレベルの機能ではなく、リージョンレベルの機能と対比している。
我々は、ImageNet以外のデータセットのトレーニングでMaskCoを評価し、そのパフォーマンスをMoCo V2と比較した。
論文 参考訳(メタデータ) (2021-08-18T02:50:33Z) - An Efficient Multitask Neural Network for Face Alignment, Head Pose
Estimation and Face Tracking [9.39854778804018]
効率的なマルチタスク顔アライメント、顔追跡、頭部ポーズ推定ネットワーク(ATPN)を提案します。
ATPNは従来の最先端手法に比べて性能が向上し、パラメータやFLOPSは少ない。
論文 参考訳(メタデータ) (2021-03-13T04:41:15Z) - Spatiotemporal Graph Neural Network based Mask Reconstruction for Video
Object Segmentation [70.97625552643493]
本稿では,クラス非依存オブジェクトを半教師あり設定でセグメント化するタスクについて述べる。
提案手法のすべてを利用して局所的なコンテキストを捕捉する新しいグラフニューラルネットワーク(TG-Net)を提案する。
論文 参考訳(メタデータ) (2020-12-10T07:57:44Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z) - EPSNet: Efficient Panoptic Segmentation Network with Cross-layer
Attention Fusion [5.815742965809424]
高速な推論速度でパノプティカルセグメンテーションタスクに取り組むために,EPSNet(Efficient Panoptic Network)を提案する。
基本的に、EPSNetはプロトタイプマスクとマスク係数の単純な線形結合に基づいてマスクを生成する。
共有プロトタイプの品質を高めるために,我々は"クロスレイヤーアテンション融合モジュール"と呼ばれるモジュールを採用した。
論文 参考訳(メタデータ) (2020-03-23T09:11:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。