論文の概要: PointINS: Point-based Instance Segmentation
- arxiv url: http://arxiv.org/abs/2003.06148v2
- Date: Thu, 1 Jul 2021 09:07:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:49:01.892675
- Title: PointINS: Point-based Instance Segmentation
- Title(参考訳): pointins: ポイントベースのインスタンスセグメンテーション
- Authors: Lu Qi and Yi Wang and Yukang Chen and Yingcong Chen and Xiangyu Zhang
and Jian Sun and Jiaya Jia
- Abstract要約: POI(Point-of-Interest)機能によるインスタンスセグメンテーションにおけるマスク表現は、各インスタンスの高次元マスク機能を学ぶには、計算負荷が重いため、難しい。
本稿では、このマスク表現学習タスクを2つの抽出可能なモジュールに分解するインスタンス認識畳み込みを提案する。
インスタンス認識の畳み込みとともに、単純で実用的なインスタンスセグメンテーションアプローチであるPointINSを提案する。
- 参考スコア(独自算出の注目度): 117.38579097923052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore the mask representation in instance segmentation
with Point-of-Interest (PoI) features. Differentiating multiple potential
instances within a single PoI feature is challenging because learning a
high-dimensional mask feature for each instance using vanilla convolution
demands a heavy computing burden. To address this challenge, we propose an
instance-aware convolution. It decomposes this mask representation learning
task into two tractable modules as instance-aware weights and instance-agnostic
features. The former is to parametrize convolution for producing mask features
corresponding to different instances, improving mask learning efficiency by
avoiding employing several independent convolutions. Meanwhile, the latter
serves as mask templates in a single point. Together, instance-aware mask
features are computed by convolving the template with dynamic weights, used for
the mask prediction. Along with instance-aware convolution, we propose
PointINS, a simple and practical instance segmentation approach, building upon
dense one-stage detectors. Through extensive experiments, we evaluated the
effectiveness of our framework built upon RetinaNet and FCOS. PointINS in
ResNet101 backbone achieves a 38.3 mask mean average precision (mAP) on COCO
dataset, outperforming existing point-based methods by a large margin. It gives
a comparable performance to the region-based Mask R-CNN with faster inference.
- Abstract(参考訳): 本稿では,PoI(Point-of-Interest)機能を用いたケースセグメンテーションにおけるマスク表現について検討する。
単一のPoI機能内で複数の潜在的インスタンスを差別化することは、バニラ畳み込みを使用して各インスタンスの高次元マスク機能を学ぶために、計算負荷が重いため、難しい。
この課題に対処するために,インスタンス認識畳み込みを提案する。
このマスク表現学習タスクを、インスタンス認識重みとインスタンス認識機能として、2つのトラクタブルモジュールに分解する。
前者は、異なるインスタンスに対応するマスク特徴を生成するための畳み込みをパラメトリズし、複数の独立した畳み込みを使わずにマスク学習効率を向上させることである。
一方、後者は1つの点でマスクテンプレートとして機能する。
同時に、マスク予測に使用される動的重み付きテンプレートを回転させることで、インスタンス認識マスクの特徴を計算する。
インスタンス認識畳み込みに加えて,密度の高い一段階検出器を基盤とした,単純かつ実用的なインスタンスセグメンテーションアプローチであるpointinsを提案する。
広範囲な実験を通じて, RetinaNet と FCOS を用いたフレームワークの有効性を評価した。
ResNet101のバックボーンのPointINSは、COCOデータセット上で38.3マスクの平均精度(mAP)を達成する。
より高速な推論で、リージョンベースのMask R-CNNに匹敵するパフォーマンスを提供する。
関連論文リスト
- Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - MaskUno: Switch-Split Block For Enhancing Instance Segmentation [0.0]
マスク予測を洗練されたROIを処理し、それらを分類し、特定のマスク予測者に割り当てるスイッチスプリットブロックに置き換えることを提案する。
平均平均精度(mAP)が2.03%上昇し,80クラスにおいて高い成績を示した。
論文 参考訳(メタデータ) (2024-07-31T10:12:14Z) - DynaMask: Dynamic Mask Selection for Instance Segmentation [21.50329070835023]
我々は,各インスタンスに最適なマスク解像度を選択するために,計算コストを無視できるマスクスイッチモジュール(MSM)を開発した。
提案手法,すなわちDynaMaskは,高い計算オーバーヘッドで,他の最先端技術よりも一貫した,顕著なパフォーマンス向上を実現する。
論文 参考訳(メタデータ) (2023-03-14T13:01:25Z) - Mask3D: Mask Transformer for 3D Semantic Instance Segmentation [89.41640045953378]
一般的なTransformerビルディングブロックを利用して、3Dポイントクラウドからインスタンスマスクを直接予測できることが示されています。
Transformerデコーダを使用して、インスタンスクエリは、複数のスケールでクラウド機能をポイントする反復的な参加者によって学習される。
Mask3Dは、新しい最先端ScanNetテスト(+6.2 mAP)、S3DIS 6-fold(+10.1 mAP)、LS3D(+11.2 mAP)、ScanNet200テスト(+12.4 mAP)を設定する。
論文 参考訳(メタデータ) (2022-10-06T17:55:09Z) - Instance and Panoptic Segmentation Using Conditional Convolutions [96.7275593916409]
本稿では,CondInst と呼ばれる,シンプルで効果的な光学的セグメンテーションフレームワークを提案する。
我々は、CondInstがインスタンス分割タスクと単眼セグメンテーションタスクの両方において精度と推論速度を向上できることを示す。
論文 参考訳(メタデータ) (2021-02-05T06:57:02Z) - Mask Encoding for Single Shot Instance Segmentation [97.99956029224622]
マスクエンコーディングに基づくインスタンスセグメンテーション(MEInst)と呼ばれる単純なシングルショットインスタンスセグメンテーションフレームワークを提案する。
二次元マスクを直接予測する代わりに、MEInstはそれをコンパクトで固定的な表現ベクトルに蒸留する。
よりシンプルでフレキシブルな一段階のインスタンスセグメンテーション手法は、競合性能も達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T02:51:17Z) - SOLOv2: Dynamic and Fast Instance Segmentation [102.15325936477362]
パフォーマンスの高いシンプルで直接的で高速なインスタンスセグメンテーションフレームワークを構築しています。
オブジェクトセグメンタのマスクヘッドを動的に学習することで、さらに一歩前進する。
簡単な直接インスタンス分割システムを示し,高速化と精度の両面において,いくつかの最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-23T09:44:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。