論文の概要: Fast and Accurate Unknown Object Instance Segmentation through Error-Informed Refinement
- arxiv url: http://arxiv.org/abs/2306.16132v2
- Date: Tue, 30 Apr 2024 14:37:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 20:07:22.741210
- Title: Fast and Accurate Unknown Object Instance Segmentation through Error-Informed Refinement
- Title(参考訳): 誤りインフォームド・リファインメントによる未知オブジェクトインスタンスの高速かつ高精度セグメンテーション
- Authors: Seunghyeok Back, Sangbeom Lee, Kangmin Kim, Joosoon Lee, Sungho Shin, Jemo Maeng, Kyoobin Lee,
- Abstract要約: INSTA-BEERは、未知のオブジェクトインスタンスセグメンテーションの性能を向上させる高速で正確なモデルに依存しない精細化手法である。
本稿では, 画素単位の真正値, 真負値, 偽正値, およびオブジェクトインスタンスの境界における偽負値の定量化を行うクアッドメトリック境界誤差を提案する。
広く使用されている3つのベンチマークデータセットに対する総合評価では、INSTA-BEERは精度と推測時間の両方で最先端のモデルより優れていた。
- 参考スコア(独自算出の注目度): 7.297340899783621
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate perception of unknown objects is essential for autonomous robots, particularly when manipulating novel items in unstructured environments. However, existing unknown object instance segmentation (UOIS) methods often have over-segmentation and under-segmentation problems, resulting in inaccurate instance boundaries and failures in subsequent robotic tasks such as grasping and placement. To address this challenge, this article introduces INSTA-BEER, a fast and accurate model-agnostic refinement method that enhances the UOIS performance. The model adopts an error-informed refinement approach, which first predicts pixel-wise errors in the initial segmentation and then refines the segmentation guided by these error estimates. We introduce the quad-metric boundary error, which quantifies pixel-wise true positives, true negatives, false positives, and false negatives at the boundaries of object instances, effectively capturing both fine-grained and instance-level segmentation errors. Additionally, the Error Guidance Fusion (EGF) module explicitly integrates error information into the refinement process, further improving segmentation quality. In comprehensive evaluations conducted on three widely used benchmark datasets, INSTA-BEER outperformed state-of-the-art models in both accuracy and inference time. Moreover, a real-world robotic experiment demonstrated the practical applicability of our method in improving the performance of target object grasping tasks in cluttered environments.
- Abstract(参考訳): 未知の物体の正確な認識は、特に非構造環境における新しい物体を操作する際には、自律ロボットにとって不可欠である。
しかしながら、既存の未知のオブジェクトインスタンスセグメンテーション (UOIS) 法は、しばしば過剰なセグメンテーションと過小セグメンテーションの問題があり、結果として、把握や配置といったその後のロボット作業において、不正確なインスタンス境界と失敗をもたらす。
この課題に対処するために,本論文では,UOIS性能を向上させる高速かつ高精度なモデル非依存改善手法であるINSTA-BEERを紹介する。
このモデルは、まず初期セグメンテーションにおける画素単位の誤差を予測し、次にこれらの誤差推定によって導かれるセグメンテーションを洗練する。
本稿では, オブジェクトインスタンスの境界における画素単位の真正値, 真正値, 偽正値, 偽負値の定量化を行うクアッドメトリック境界誤差を導入し, 細粒度およびインスタンスレベルのセグメンテーション誤差を効果的に捉えた。
さらに、Error Guidance Fusion (EGF)モジュールは、エラー情報を精錬プロセスに統合し、セグメンテーションの品質をさらに向上する。
広く使用されている3つのベンチマークデータセットに対する総合評価では、INSTA-BEERは精度と推測時間の両方で最先端のモデルより優れていた。
さらに, 実際のロボット実験により, 分散環境における対象物体把握タスクの性能向上に本手法の有効性を実証した。
関連論文リスト
- Embodied Uncertainty-Aware Object Segmentation [38.52448300879023]
本研究では,不確実性を考慮したオブジェクトインスタンスセグメンテーション(UncOS)を導入し,対話型セグメンテーションの有用性を示す。
本研究では,大容量事前学習モデルの複数問合せを行うことにより,信頼度推定とともに,領域分割仮説の集合を得る。
アウトプットは、ロボットアクションを選択し、シーンを混乱させ、あいまいさを減らす、信念駆動のプロセスへの入力としても機能する。
論文 参考訳(メタデータ) (2024-08-08T21:29:22Z) - RISeg: Robot Interactive Object Segmentation via Body Frame-Invariant
Features [6.358423536732677]
本稿では,ロボットインタラクションとデザインされたボディーフレーム不変機能を用いて,不正確なセグメンテーションを補正する新しい手法を提案する。
オブジェクト分割精度を平均80.7%とすることで、散らばったシーンを正確にセグメント化するための対話型知覚パイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-04T05:03:24Z) - For A More Comprehensive Evaluation of 6DoF Object Pose Tracking [22.696375341994035]
上記の問題に対処するために、統一されたベンチマークに貢献する。
YCBVのより正確なアノテーションとして,多視点多目的グローバルポーズ改善法を提案する。
実験では,リアルな半合成データセットを用いて,提案手法の精度と信頼性を検証した。
論文 参考訳(メタデータ) (2023-09-14T15:35:08Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - Self-Supervised Interactive Object Segmentation Through a
Singulation-and-Grasping Approach [9.029861710944704]
本稿では,新しいオブジェクトと対話し,各オブジェクトのトレーニングラベルを収集するロボット学習手法を提案する。
Singulation-and-Grasping(SaG)ポリシは、エンドツーエンドの強化学習を通じてトレーニングされる。
本システムは,シミュレートされた散文シーンにおいて,70%の歌唱成功率を達成する。
論文 参考訳(メタデータ) (2022-07-19T15:01:36Z) - PointInst3D: Segmenting 3D Instances by Points [136.7261709896713]
本稿では,ポイント単位の予測方式で機能する,完全畳み込み型3Dポイントクラウドインスタンスセグメンテーション手法を提案する。
その成功の鍵は、各サンプルポイントに適切なターゲットを割り当てることにある。
提案手法はScanNetとS3DISのベンチマークで有望な結果が得られる。
論文 参考訳(メタデータ) (2022-04-25T02:41:46Z) - SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation [111.61261419566908]
ディープニューラルネットワーク(DNN)は通常、閉集合のセマンティッククラスで訓練される。
未発見のオブジェクトを扱うには不備だ。
このような物体の検出と局在化は、自動運転の認識などの安全クリティカルなアプリケーションに不可欠です。
論文 参考訳(メタデータ) (2021-04-30T07:58:19Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z) - Exposing Semantic Segmentation Failures via Maximum Discrepancy
Competition [102.75463782627791]
オープンビジュアルの世界において,既存の意味セグメンテーション手法の失敗を露呈することで,質問に答える。
モデル改ざんに関するこれまでの研究に触発され、任意に大きい画像セットから始まり、2つのセグメンテーション方法間の差分法(MAD)をMAximizingすることによって、小さな画像セットを自動的にサンプリングします。
選択された画像は、2つの方法のいずれか(または両方)を偽造する最大の可能性を持っている。
また,MADコンペティションにおいて,障害の露呈が困難であるセグメンテーション法について検討した。
論文 参考訳(メタデータ) (2021-02-27T16:06:25Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。