論文の概要: A Unified Instance Segmentation Framework for Completely Occluded
Objects and Dense Objects in Robot Vision Measurement
- arxiv url: http://arxiv.org/abs/2401.08174v2
- Date: Mon, 26 Feb 2024 02:06:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 00:09:32.457532
- Title: A Unified Instance Segmentation Framework for Completely Occluded
Objects and Dense Objects in Robot Vision Measurement
- Title(参考訳): ロボットビジョン計測における完全付加物体と高密度物体の統一インスタンスセグメンテーションフレームワーク
- Authors: Zhen Zhou, Junfeng Fan, Yunkai Ma, Sihan Zhao, Fengshui Jing, Min Tan
- Abstract要約: 本稿では,一貫した粗大なインスタンスセグメンテーションフレームワークCFNetを提案する。
ボックスプロンプトベースのセグメンテーション基礎モデル(BSM)を使用する。
CFNetは、産業用と公共用両方のデータセットにおいて、現在のインスタンスセグメンテーションメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 6.974903220611366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instance segmentation for completely occluded objects and dense objects in
robot vision measurement are two challenging tasks. To uniformly deal with
them, this paper proposes a unified coarse-to-fine instance segmentation
framework, CFNet, which uses box prompt-based segmentation foundation models
(BSMs), e.g., Segment Anything Model. Specifically, CFNet first detects
oriented bounding boxes (OBBs) to distinguish instances and provide coarse
localization information. Then, it predicts OBB prompt-related masks for fine
segmentation. CFNet performs instance segmentation with OBBs that only contain
partial object boundaries on occluders to predict occluded object instances,
which overcomes the difficulty of existing amodal instance segmentation methods
in directly predicting occluded objects. In addition, since OBBs only serve as
prompts, CFNet alleviates the over-dependence on bounding box detection
performance of current instance segmentation methods using OBBs for dense
objects. Moreover, to enable BSMs to handle OBB prompts, we propose a novel OBB
prompt encoder. To make CFNet more lightweight, we perform knowledge
distillation on it and introduce a Gaussian label smoothing method for teacher
model outputs. Experiments demonstrate that CFNet outperforms current instance
segmentation methods on both industrial and public datasets. The code is
available at https://github.com/zhen6618/OBBInstanceSegmentation.
- Abstract(参考訳): ロボットの視覚計測における完全に閉ざされた物体と密集した物体のインスタンスセグメンテーションは2つの課題である。
そこで本稿では,これらを統一的に扱うために,box prompt-based segmentation foundation model (bsms) を用いた粒度から粒度までのインスタンスセグメンテーションフレームワーク cfnet を提案する。
具体的には、cfnetは最初に向き付けられた境界ボックス(obbs)を検出してインスタンスを識別し、粗いローカライゼーション情報を提供する。
次に,OBBプロンプト関連マスクの微細セグメンテーションを予測する。
CFNet は OBB でインスタンスセグメンテーションを行うが、OBB では OBB は OOCCuder 上の部分的なオブジェクト境界のみを含んでおり、OOCCud オブジェクトの直接予測における既存の Amodal インスタンスセグメンテーションメソッドの難しさを克服している。
さらに、OBBはプロンプトとしてのみ機能するため、CFNetは高密度オブジェクトに対するOBBを用いた現在のインスタンスセグメンテーションメソッドのバウンディングボックス検出性能の過依存性を軽減する。
さらに,BSM が OBB プロンプトを扱えるようにするために,新しい OBB プロンプトエンコーダを提案する。
CFNetをより軽量にするため,知識蒸留を行い,教師モデル出力に対するガウスラベル平滑化手法を導入する。
実験によりcfnetは、産業用と公共のデータセットの両方で現在のインスタンスセグメンテーションメソッドよりも優れていることが示されている。
コードはhttps://github.com/zhen6618/OBBInstanceSegmentationで入手できる。
関連論文リスト
- BAISeg: Boundary Assisted Weakly Supervised Instance Segmentation [9.6046915661065]
インスタンスレベルの監視なしにインスタンスレベルのマスクを抽出する方法は、弱教師付きインスタンスセグメンテーション(WSIS)の主な課題である
人気のあるWSIS手法は、画素間関係の学習を通じて変位場(DF)を推定し、インスタンスを識別するためのクラスタリングを実行する。
本稿では,画素レベルのアノテーションでインスタンスセグメンテーションを実現するWSISの新しいパラダイムであるBundary-Assisted Instance(BAISeg)を提案する。
論文 参考訳(メタデータ) (2024-05-27T15:14:09Z) - Efficient Temporal Action Segmentation via Boundary-aware Query Voting [51.92693641176378]
BaFormerは境界対応のTransformerネットワークで、各ビデオセグメントをインスタンストークンとしてトークン化する。
BaFormerは実行時間の6%しか利用せず、計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2024-05-25T00:44:13Z) - ElC-OIS: Ellipsoidal Clustering for Open-World Instance Segmentation on
LiDAR Data [13.978966783993146]
オープンワールドインスタンス(OIS)は、現在の観察に現れるすべてのオブジェクトインスタンスを正確に分割することを目的とした、難しいタスクである。
これは、堅牢な自律ナビゲーションのような安全クリティカルなアプリケーションにとって重要である。
我々は、LiDARポイントクラウドのための柔軟で効果的なOISフレームワークを提案し、既知のインスタンスと未知のインスタンスの両方を正確に分割できる。
論文 参考訳(メタデータ) (2023-03-08T03:22:11Z) - Look Before You Match: Instance Understanding Matters in Video Object
Segmentation [114.57723592870097]
本稿では,ビデオオブジェクトセグメンテーション(VOS)におけるインスタンスの重要性について論じる。
本稿では,クエリベースのインスタンスセグメンテーション(IS)ブランチを現在のフレームのインスタンス詳細に分割し,VOSブランチをメモリバンクと時空間マッチングする,VOS用の2分岐ネットワークを提案する。
我々は、ISブランチから十分に学習されたオブジェクトクエリを使用して、インスタンス固有の情報をクエリキーに注入し、インスタンス拡張マッチングをさらに実行します。
論文 参考訳(メタデータ) (2022-12-13T18:59:59Z) - Sparse Instance Activation for Real-Time Instance Segmentation [72.23597664935684]
本稿では,リアルタイムインスタンスセグメンテーションのための概念的・効率的・完全畳み込み型フレームワークを提案する。
SparseInstは非常に高速な推論速度を持ち、COCOベンチマークで40 FPSと37.9 APを達成した。
論文 参考訳(メタデータ) (2022-03-24T03:15:39Z) - Boosting Weakly Supervised Object Detection via Learning Bounding Box
Adjusters [76.36104006511684]
高価なインスタンスレベルのオブジェクトアノテーションを避けるため、WSOD(Weakly-supervised Object Detection)が最近の話題として登場した。
我々は、よく注釈付けされた補助データセットからバウンディングボックス回帰知識を活用することにより、ローカライズ性能を向上させるための問題設定を擁護する。
提案手法は,WSOD法と知識伝達モデルに対して,同様の問題設定で良好に機能する。
論文 参考訳(メタデータ) (2021-08-03T13:38:20Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - Object-Guided Instance Segmentation With Auxiliary Feature Refinement
for Biological Images [58.914034295184685]
サンプルセグメンテーションは、神経細胞相互作用の研究、植物の表現型化、細胞が薬物治療にどう反応するかを定量的に測定するなど、多くの生物学的応用において非常に重要である。
Boxベースのインスタンスセグメンテーションメソッドは、バウンディングボックスを介してオブジェクトをキャプチャし、各バウンディングボックス領域内で個々のセグメンテーションを実行する。
提案手法は,まずオブジェクトの中心点を検出し,そこから境界ボックスパラメータが予測される。
セグメンテーションブランチは、オブジェクト特徴をガイダンスとして再利用し、同じバウンディングボックス領域内の隣のオブジェクトからターゲットオブジェクトを分離する。
論文 参考訳(メタデータ) (2021-06-14T04:35:36Z) - BBAM: Bounding Box Attribution Map for Weakly Supervised Semantic and
Instance Segmentation [19.55647093153416]
バウンディングボックスアノテーションを用いた弱い教師付きセグメンテーション手法は、オブジェクトを含む各ボックスからピクセルレベルのマスクを取得することに焦点を当てている。
本研究では,対象検出器が生成する画像の最小領域を画像全体とほぼ同程度に求めることにより,訓練対象検出器の挙動から得られる高次情報を利用する。
これらの領域はバウンディングボックスアトリビューションマップ(bbam)を構成しており、バウンディングボックス内の対象オブジェクトを識別し、弱い教師付きセマンティクスとcocoインスタンスセグメンテーションのための擬似基底となる。
論文 参考訳(メタデータ) (2021-03-16T08:29:33Z) - Towards Bounding-Box Free Panoptic Segmentation [16.4548904544277]
パン光学セグメンテーションのための新しいBunding-Box Free Network (BBFNet) を提案する。
BBFNetは、粗い流域レベルを予測し、境界が適切に定義された大きなインスタンス候補を検出するためにそれらを使用する。
境界が信頼性の低い小さなインスタンスでは、BBFNetはHoughの投票によってインスタンス中心を予測し、続いて平均シフトによって小さなオブジェクトを確実に検出する。
論文 参考訳(メタデータ) (2020-02-18T16:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。