論文の概要: Implicit Feature Refinement for Instance Segmentation
- arxiv url: http://arxiv.org/abs/2112.04709v1
- Date: Thu, 9 Dec 2021 05:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 15:00:35.749966
- Title: Implicit Feature Refinement for Instance Segmentation
- Title(参考訳): インスタンスセグメンテーションのためのインプシット機能強化
- Authors: Lufan Ma, Tiancai Wang, Bin Dong, Jiangpeng Yan, Xiu Li, Xiangyu Zhang
- Abstract要約: 高品質なインスタンスセグメンテーションのための新しい暗黙的特徴改善モジュールを提案する。
我々のIRFは、最先端の画像/ビデオインスタンスセグメンテーションフレームワークの性能向上を実現しています。
- 参考スコア(独自算出の注目度): 20.34804959340334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel implicit feature refinement module for high-quality
instance segmentation. Existing image/video instance segmentation methods rely
on explicitly stacked convolutions to refine instance features before the final
prediction. In this paper, we first give an empirical comparison of different
refinement strategies,which reveals that the widely-used four consecutive
convolutions are not necessary. As an alternative, weight-sharing convolution
blocks provides competitive performance. When such block is iterated for
infinite times, the block output will eventually convergeto an equilibrium
state. Based on this observation, the implicit feature refinement (IFR) is
developed by constructing an implicit function. The equilibrium state of
instance features can be obtained by fixed-point iteration via a simulated
infinite-depth network. Our IFR enjoys several advantages: 1) simulates an
infinite-depth refinement network while only requiring parameters of single
residual block; 2) produces high-level equilibrium instance features of global
receptive field; 3) serves as a plug-and-play general module easily extended to
most object recognition frameworks. Experiments on the COCO and YouTube-VIS
benchmarks show that our IFR achieves improved performance on state-of-the-art
image/video instance segmentation frameworks, while reducing the parameter
burden (e.g.1% AP improvement on Mask R-CNN with only 30.0% parameters in mask
head). Code is made available at https://github.com/lufanma/IFR.git
- Abstract(参考訳): 高品質なインスタンスセグメンテーションのための新しい暗黙的特徴リファインメントモジュールを提案する。
既存のイメージ/ビデオインスタンスのセグメンテーションメソッドは、最終予測の前にインスタンスの機能を洗練するために明示的に積み重ねられた畳み込みに依存している。
本稿では,まず,様々な精細化戦略を実証的に比較し,広く用いられている4つの連続畳み込みは不要であることを明らかにした。
代替として、重量共有畳み込みブロックは競合性能を提供する。
そのようなブロックが無限回繰り返しられると、ブロック出力は最終的に平衡状態へと収束する。
この観察に基づいて、暗黙的特徴改善(IFR)は暗黙的機能を構築することによって開発される。
インスタンス特徴の平衡状態は、シミュレートされた無限深度ネットワークを介して固定点反復によって得ることができる。
IFRにはいくつかの利点があります。
1) 1つの残差ブロックのパラメータのみを必要としながら、無限深絞りネットワークをシミュレートする。
2) グローバル受容分野の高レベルの平衡インスタンス特性を生産する。
3)ほとんどのオブジェクト認識フレームワークに簡単に拡張できるプラグイン・アンド・プレイの汎用モジュールとして機能する。
COCOとYouTube-VISベンチマークの実験では、IFRは最新の画像/ビデオインスタンスセグメンテーションフレームワークのパフォーマンスを改善し、パラメータの負担を低減している(マスクヘッドに30.0%のパラメータしか持たないMask R-CNNのAP改善など)。
コードはhttps://github.com/lufanma/ifr.gitで入手できる。
関連論文リスト
- ALoRE: Efficient Visual Adaptation via Aggregating Low Rank Experts [71.91042186338163]
ALoREは、Kroneckerによって構築された超複素パラメータ化空間をAggregate Low Rank Expertsに再利用する新しいPETL法である。
巧妙な設計のおかげで、ALoREは無視できる余分なパラメータを保持し、凍ったバックボーンに強制的にマージできる。
論文 参考訳(メタデータ) (2024-12-11T12:31:30Z) - Dynamic Convolution for 3D Point Cloud Instance Segmentation [146.7971476424351]
動的畳み込みに基づく3次元点雲からのインスタンスセグメンテーション手法を提案する。
我々は、同じ意味圏と閉投票を持つ等質点を幾何学的遠近点に対して収集する。
提案手法は提案不要であり、代わりに各インスタンスの空間的および意味的特性に適応する畳み込みプロセスを利用する。
論文 参考訳(メタデータ) (2021-07-18T09:05:16Z) - Instance and Panoptic Segmentation Using Conditional Convolutions [96.7275593916409]
本稿では,CondInst と呼ばれる,シンプルで効果的な光学的セグメンテーションフレームワークを提案する。
我々は、CondInstがインスタンス分割タスクと単眼セグメンテーションタスクの両方において精度と推論速度を向上できることを示す。
論文 参考訳(メタデータ) (2021-02-05T06:57:02Z) - Unifying Instance and Panoptic Segmentation with Dynamic Rank-1
Convolutions [109.2706837177222]
DR1Maskは、インスタンスとセマンティックセグメンテーションの両方で共有機能マップを利用する最初のパノプティクスセグメンテーションフレームワークである。
副産物として、DR1Maskは従来の最先端のインスタンスセグメンテーションネットワークであるBlendMaskよりも10%高速で1ポイント精度が高い。
論文 参考訳(メタデータ) (2020-11-19T12:42:10Z) - EOLO: Embedded Object Segmentation only Look Once [0.0]
3つの独立したブランチで概念的にシンプルであり、完全に畳み込み可能で、モバイルや組み込みデバイスに簡単に組み込むことができるアンカーフリーでシングルショットのインスタンスセグメンテーション手法を導入する。
EOLOと呼ばれる本手法では,各画素のインスタンス中心分類と4次元距離回帰により,意味的セグメンテーションを予測し,重なり合うオブジェクト問題を区別するものとして,インスタンス分割問題を再構成する。
ベルとホイッスルがなければ、EOLOはIoU50の下で27.7$%のマスクmAPを獲得し、1080Ti GPU上で30FPSに達し、シングルモデルとシングルスケールのトレーニング/テストが可能である。
論文 参考訳(メタデータ) (2020-03-31T21:22:05Z) - PointINS: Point-based Instance Segmentation [117.38579097923052]
POI(Point-of-Interest)機能によるインスタンスセグメンテーションにおけるマスク表現は、各インスタンスの高次元マスク機能を学ぶには、計算負荷が重いため、難しい。
本稿では、このマスク表現学習タスクを2つの抽出可能なモジュールに分解するインスタンス認識畳み込みを提案する。
インスタンス認識の畳み込みとともに、単純で実用的なインスタンスセグメンテーションアプローチであるPointINSを提案する。
論文 参考訳(メタデータ) (2020-03-13T08:24:58Z) - Conditional Convolutions for Instance Segmentation [109.2706837177222]
我々はCondInstと呼ばれるシンプルだが効果的なインスタンスセグメンテーションフレームワークを提案する。
インスタンスに条件付き動的インスタンス認識ネットワークを採用しています。
本稿では,精度と推論速度の両面で性能の向上を実現するための,より単純なインスタンス分割法を示す。
論文 参考訳(メタデータ) (2020-03-12T08:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。