論文の概要: A Unified Instance Segmentation Framework for Completely Occluded
Objects and Dense Objects in Robot Vision Measurement
- arxiv url: http://arxiv.org/abs/2401.08174v2
- Date: Mon, 26 Feb 2024 02:06:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 00:09:32.457532
- Title: A Unified Instance Segmentation Framework for Completely Occluded
Objects and Dense Objects in Robot Vision Measurement
- Title(参考訳): ロボットビジョン計測における完全付加物体と高密度物体の統一インスタンスセグメンテーションフレームワーク
- Authors: Zhen Zhou, Junfeng Fan, Yunkai Ma, Sihan Zhao, Fengshui Jing, Min Tan
- Abstract要約: 本稿では,一貫した粗大なインスタンスセグメンテーションフレームワークCFNetを提案する。
ボックスプロンプトベースのセグメンテーション基礎モデル(BSM)を使用する。
CFNetは、産業用と公共用両方のデータセットにおいて、現在のインスタンスセグメンテーションメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 6.974903220611366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instance segmentation for completely occluded objects and dense objects in
robot vision measurement are two challenging tasks. To uniformly deal with
them, this paper proposes a unified coarse-to-fine instance segmentation
framework, CFNet, which uses box prompt-based segmentation foundation models
(BSMs), e.g., Segment Anything Model. Specifically, CFNet first detects
oriented bounding boxes (OBBs) to distinguish instances and provide coarse
localization information. Then, it predicts OBB prompt-related masks for fine
segmentation. CFNet performs instance segmentation with OBBs that only contain
partial object boundaries on occluders to predict occluded object instances,
which overcomes the difficulty of existing amodal instance segmentation methods
in directly predicting occluded objects. In addition, since OBBs only serve as
prompts, CFNet alleviates the over-dependence on bounding box detection
performance of current instance segmentation methods using OBBs for dense
objects. Moreover, to enable BSMs to handle OBB prompts, we propose a novel OBB
prompt encoder. To make CFNet more lightweight, we perform knowledge
distillation on it and introduce a Gaussian label smoothing method for teacher
model outputs. Experiments demonstrate that CFNet outperforms current instance
segmentation methods on both industrial and public datasets. The code is
available at https://github.com/zhen6618/OBBInstanceSegmentation.
- Abstract(参考訳): ロボットの視覚計測における完全に閉ざされた物体と密集した物体のインスタンスセグメンテーションは2つの課題である。
そこで本稿では,これらを統一的に扱うために,box prompt-based segmentation foundation model (bsms) を用いた粒度から粒度までのインスタンスセグメンテーションフレームワーク cfnet を提案する。
具体的には、cfnetは最初に向き付けられた境界ボックス(obbs)を検出してインスタンスを識別し、粗いローカライゼーション情報を提供する。
次に,OBBプロンプト関連マスクの微細セグメンテーションを予測する。
CFNet は OBB でインスタンスセグメンテーションを行うが、OBB では OBB は OOCCuder 上の部分的なオブジェクト境界のみを含んでおり、OOCCud オブジェクトの直接予測における既存の Amodal インスタンスセグメンテーションメソッドの難しさを克服している。
さらに、OBBはプロンプトとしてのみ機能するため、CFNetは高密度オブジェクトに対するOBBを用いた現在のインスタンスセグメンテーションメソッドのバウンディングボックス検出性能の過依存性を軽減する。
さらに,BSM が OBB プロンプトを扱えるようにするために,新しい OBB プロンプトエンコーダを提案する。
CFNetをより軽量にするため,知識蒸留を行い,教師モデル出力に対するガウスラベル平滑化手法を導入する。
実験によりcfnetは、産業用と公共のデータセットの両方で現在のインスタンスセグメンテーションメソッドよりも優れていることが示されている。
コードはhttps://github.com/zhen6618/OBBInstanceSegmentationで入手できる。
関連論文リスト
- PWISeg: Point-based Weakly-supervised Instance Segmentation for Surgical
Instruments [27.89003436883652]
我々はPWISeg (Point-based Weakly-supervised Instance) という,弱制御型手術器具セグメンテーション手法を提案する。
PWISegは、特徴点とバウンディングボックスの関係をモデル化するために、ポイント・ツー・ボックスとポイント・ツー・マスクのブランチを備えたFCNベースのアーキテクチャを採用している。
そこで本研究では,キー・ツー・マスク・ブランチを駆動し,より正確なセグメンテーション予測を生成するキー・ピクセル・アソシエーション・ロスとキー・ピクセル・アソシエーション・ロスを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:48:29Z) - Look Before You Match: Instance Understanding Matters in Video Object
Segmentation [114.57723592870097]
本稿では,ビデオオブジェクトセグメンテーション(VOS)におけるインスタンスの重要性について論じる。
本稿では,クエリベースのインスタンスセグメンテーション(IS)ブランチを現在のフレームのインスタンス詳細に分割し,VOSブランチをメモリバンクと時空間マッチングする,VOS用の2分岐ネットワークを提案する。
我々は、ISブランチから十分に学習されたオブジェクトクエリを使用して、インスタンス固有の情報をクエリキーに注入し、インスタンス拡張マッチングをさらに実行します。
論文 参考訳(メタデータ) (2022-12-13T18:59:59Z) - Multi-Object Tracking and Segmentation via Neural Message Passing [0.0]
グラフは、Multiple Object Tracking (MOT) とMultiple Object Tracking (MOTS) を定式化する自然な方法を提供する。
我々は、メッセージパッシングネットワーク(MPN)に基づく、完全に差別化可能なフレームワークを定義するために、MOTの古典的なネットワークフロー定式化を利用する。
いくつかの公開データセットにおけるトラッキングとセグメンテーションの両面での最先端の結果が得られます。
論文 参考訳(メタデータ) (2022-07-15T13:03:47Z) - Sparse Instance Activation for Real-Time Instance Segmentation [72.23597664935684]
本稿では,リアルタイムインスタンスセグメンテーションのための概念的・効率的・完全畳み込み型フレームワークを提案する。
SparseInstは非常に高速な推論速度を持ち、COCOベンチマークで40 FPSと37.9 APを達成した。
論文 参考訳(メタデータ) (2022-03-24T03:15:39Z) - Boundary Knowledge Translation based Reference Semantic Segmentation [62.60078935335371]
視覚境界知識翻訳を行うための参照参照セグメンテーションネットワーク(Ref-Net)を導入する。
人間の認識機構にインスパイアされたRTMTMは、参照オブジェクトの特徴に基づいて、同じカテゴリオブジェクトをセグメント化するだけに考案されている。
Ref-Netは、数十の細かい注釈付きサンプルをガイダンスとして、完全に教師された6つのデータセットのメソッドと同等の結果を得る。
論文 参考訳(メタデータ) (2021-08-01T07:40:09Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - Object-Guided Instance Segmentation With Auxiliary Feature Refinement
for Biological Images [58.914034295184685]
サンプルセグメンテーションは、神経細胞相互作用の研究、植物の表現型化、細胞が薬物治療にどう反応するかを定量的に測定するなど、多くの生物学的応用において非常に重要である。
Boxベースのインスタンスセグメンテーションメソッドは、バウンディングボックスを介してオブジェクトをキャプチャし、各バウンディングボックス領域内で個々のセグメンテーションを実行する。
提案手法は,まずオブジェクトの中心点を検出し,そこから境界ボックスパラメータが予測される。
セグメンテーションブランチは、オブジェクト特徴をガイダンスとして再利用し、同じバウンディングボックス領域内の隣のオブジェクトからターゲットオブジェクトを分離する。
論文 参考訳(メタデータ) (2021-06-14T04:35:36Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z) - Robust Instance Segmentation through Reasoning about Multi-Object
Occlusion [9.536947328412198]
本稿では,隠蔽に頑健な多目的インスタンスセグメンテーションのためのディープネットワークを提案する。
私たちの研究は、神経機能アクティベーションの生成モデルを学習し、オクローダの発見に役立てています。
特に、オブジェクトクラスとそのインスタンスおよびオクルーダーセグメンテーションのフィードフォワード予測を得る。
論文 参考訳(メタデータ) (2020-12-03T17:41:55Z) - Towards Bounding-Box Free Panoptic Segmentation [16.4548904544277]
パン光学セグメンテーションのための新しいBunding-Box Free Network (BBFNet) を提案する。
BBFNetは、粗い流域レベルを予測し、境界が適切に定義された大きなインスタンス候補を検出するためにそれらを使用する。
境界が信頼性の低い小さなインスタンスでは、BBFNetはHoughの投票によってインスタンス中心を予測し、続いて平均シフトによって小さなオブジェクトを確実に検出する。
論文 参考訳(メタデータ) (2020-02-18T16:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。