論文の概要: EPSNet: Efficient Panoptic Segmentation Network with Cross-layer
Attention Fusion
- arxiv url: http://arxiv.org/abs/2003.10142v3
- Date: Thu, 24 Dec 2020 05:15:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 00:16:27.801198
- Title: EPSNet: Efficient Panoptic Segmentation Network with Cross-layer
Attention Fusion
- Title(参考訳): EPSNet: 層間アテンション融合を用いた高効率パノプティックセグメンテーションネットワーク
- Authors: Chia-Yuan Chang, Shuo-En Chang, Pei-Yung Hsiao, and Li-Chen Fu
- Abstract要約: 高速な推論速度でパノプティカルセグメンテーションタスクに取り組むために,EPSNet(Efficient Panoptic Network)を提案する。
基本的に、EPSNetはプロトタイプマスクとマスク係数の単純な線形結合に基づいてマスクを生成する。
共有プロトタイプの品質を高めるために,我々は"クロスレイヤーアテンション融合モジュール"と呼ばれるモジュールを採用した。
- 参考スコア(独自算出の注目度): 5.815742965809424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Panoptic segmentation is a scene parsing task which unifies semantic
segmentation and instance segmentation into one single task. However, the
current state-of-the-art studies did not take too much concern on inference
time. In this work, we propose an Efficient Panoptic Segmentation Network
(EPSNet) to tackle the panoptic segmentation tasks with fast inference speed.
Basically, EPSNet generates masks based on simple linear combination of
prototype masks and mask coefficients. The light-weight network branches for
instance segmentation and semantic segmentation only need to predict mask
coefficients and produce masks with the shared prototypes predicted by
prototype network branch. Furthermore, to enhance the quality of shared
prototypes, we adopt a module called "cross-layer attention fusion module",
which aggregates the multi-scale features with attention mechanism helping them
capture the long-range dependencies between each other. To validate the
proposed work, we have conducted various experiments on the challenging COCO
panoptic dataset, which achieve highly promising performance with significantly
faster inference speed (53ms on GPU).
- Abstract(参考訳): panoptic segmentationは、セマンティックセグメンテーションとインスタンスセグメンテーションを1つのタスクに統一するシーン解析タスクである。
しかし、現在の最先端の研究は推論時間にあまり関心を持たなかった。
本研究では,高速な推論速度でパノプティカルセグメンテーションタスクに取り組むために,EPSNet(Efficient Panoptic Segmentation Network)を提案する。
基本的に、EPSNetはプロトタイプマスクとマスク係数の単純な線形結合に基づいてマスクを生成する。
セグメンテーションやセマンティクスセグメンテーションなどの軽量ネットワークブランチは、マスク係数を予測し、プロトタイプネットワークブランチによって予測される共有プロトタイプでマスクを生成するだけでよい。
さらに,共有プロトタイプの品質向上のために,多層アテンション融合モジュール(cross-layer attention fusion module)と呼ばれるモジュールを導入し,多層機能とアテンション機構を集約することで,相互の長距離依存関係を捕捉する。
提案手法の有効性を検証するため,提案手法を用いて,高速な推論速度(GPUでは53ms)で高い有望な性能を実現するCOCOパン光学データセットの実験を行った。
関連論文リスト
- The revenge of BiSeNet: Efficient Multi-Task Image Segmentation [6.172605433695617]
BiSeNetFormerは、効率的なマルチタスク画像セグメンテーションのための新しいアーキテクチャである。
複数のタスクをシームレスにサポートすることで、BiSeNetFormerはマルチタスクセグメンテーションのための汎用的なソリューションを提供する。
以上の結果から, BiSeNetFormerは高速, 効率的, マルチタスクセグメンテーションネットワークへの大きな進歩を示していることが示唆された。
論文 参考訳(メタデータ) (2024-04-15T08:32:18Z) - Cross-CBAM: A Lightweight network for Scene Segmentation [2.064612766965483]
リアルタイムセマンティックセグメンテーションのための新しい軽量ネットワークであるCross-CBAMネットワークを提案する。
CityscapesデータセットとCamvidデータセットの実験では、73.4% mIoU、240.9FPS、77.2% mIoU、NVIDIA GTX 1080Tiで88.6FPSを達成した。
論文 参考訳(メタデータ) (2023-06-04T09:03:05Z) - Beyond the Prototype: Divide-and-conquer Proxies for Few-shot
Segmentation [63.910211095033596]
少ないショットのセグメンテーションは、少数の濃密なラベル付けされたサンプルのみを与えられた、目に見えないクラスオブジェクトをセグメンテーションすることを目的としている。
分割・分散の精神において, 単純かつ多目的な枠組みを提案する。
提案手法は、DCP(disvision-and-conquer proxies)と呼ばれるもので、適切な信頼性のある情報の開発を可能にする。
論文 参考訳(メタデータ) (2022-04-21T06:21:14Z) - Semantic Attention and Scale Complementary Network for Instance
Segmentation in Remote Sensing Images [54.08240004593062]
本稿では,セマンティックアテンション(SEA)モジュールとスケール補完マスクブランチ(SCMB)で構成される,エンドツーエンドのマルチカテゴリインスタンスセグメンテーションモデルを提案する。
SEAモジュールは、機能マップ上の興味あるインスタンスのアクティベーションを強化するために、追加の監督を備えた、単純な完全な畳み込みセマンティックセマンティックセマンティクスブランチを含んでいる。
SCMBは、元のシングルマスクブランチをトリデントマスクブランチに拡張し、異なるスケールで補完マスクの監視を導入する。
論文 参考訳(メタデータ) (2021-07-25T08:53:59Z) - SE-PSNet: Silhouette-based Enhancement Feature for Panoptic Segmentation
Network [5.353718408751182]
汎視的セグメンテーション課題に取り組むための解決策を提案する。
この構造はボトムアップ法とトップダウン法を組み合わせたものである。
ネットワークは主にマスクの品質に注意を払う。
論文 参考訳(メタデータ) (2021-07-11T17:20:32Z) - Prototypical Cross-Attention Networks for Multiple Object Tracking and
Segmentation [95.74244714914052]
複数のオブジェクトのトラッキングとセグメンテーションには、与えられたクラスのセットに属するオブジェクトを検出し、追跡し、セグメンテーションする必要がある。
オンライン上でリッチ・テンポラル情報を活用するプロトタイプ・クロス・アテンション・ネットワーク(PCAN)を提案する。
PCANは、Youtube-VISとBDD100Kデータセットで、現在のビデオインスタンス追跡とセグメンテーションコンテストの勝者を上回っている。
論文 参考訳(メタデータ) (2021-06-22T17:57:24Z) - Boundary-assisted Region Proposal Networks for Nucleus Segmentation [89.69059532088129]
大量の核が混在しているため、機械学習モデルはうまく機能しない。
我々は、堅牢なインスタンスレベルの核分割を実現する境界支援領域提案ネットワーク(BRP-Net)を考案する。
論文 参考訳(メタデータ) (2020-06-04T08:26:38Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z) - PointINS: Point-based Instance Segmentation [117.38579097923052]
POI(Point-of-Interest)機能によるインスタンスセグメンテーションにおけるマスク表現は、各インスタンスの高次元マスク機能を学ぶには、計算負荷が重いため、難しい。
本稿では、このマスク表現学習タスクを2つの抽出可能なモジュールに分解するインスタンス認識畳み込みを提案する。
インスタンス認識の畳み込みとともに、単純で実用的なインスタンスセグメンテーションアプローチであるPointINSを提案する。
論文 参考訳(メタデータ) (2020-03-13T08:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。