論文の概要: RISeg: Robot Interactive Object Segmentation via Body Frame-Invariant
Features
- arxiv url: http://arxiv.org/abs/2403.01731v1
- Date: Mon, 4 Mar 2024 05:03:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 20:04:40.235678
- Title: RISeg: Robot Interactive Object Segmentation via Body Frame-Invariant
Features
- Title(参考訳): RISeg:ボディーフレーム不変機能によるロボット対話型オブジェクトセグメンテーション
- Authors: Howard H. Qian, Yangxiao Lu, Kejia Ren, Gaotian Wang, Ninad
Khargonkar, Yu Xiang, Kaiyu Hang
- Abstract要約: 本稿では,ロボットインタラクションとデザインされたボディーフレーム不変機能を用いて,不正確なセグメンテーションを補正する新しい手法を提案する。
オブジェクト分割精度を平均80.7%とすることで、散らばったシーンを正確にセグメント化するための対話型知覚パイプラインの有効性を実証する。
- 参考スコア(独自算出の注目度): 6.358423536732677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to successfully perform manipulation tasks in new environments, such
as grasping, robots must be proficient in segmenting unseen objects from the
background and/or other objects. Previous works perform unseen object instance
segmentation (UOIS) by training deep neural networks on large-scale data to
learn RGB/RGB-D feature embeddings, where cluttered environments often result
in inaccurate segmentations. We build upon these methods and introduce a novel
approach to correct inaccurate segmentation, such as under-segmentation, of
static image-based UOIS masks by using robot interaction and a designed body
frame-invariant feature. We demonstrate that the relative linear and rotational
velocities of frames randomly attached to rigid bodies due to robot
interactions can be used to identify objects and accumulate corrected
object-level segmentation masks. By introducing motion to regions of
segmentation uncertainty, we are able to drastically improve segmentation
accuracy in an uncertainty-driven manner with minimal, non-disruptive
interactions (ca. 2-3 per scene). We demonstrate the effectiveness of our
proposed interactive perception pipeline in accurately segmenting cluttered
scenes by achieving an average object segmentation accuracy rate of 80.7%, an
increase of 28.2% when compared with other state-of-the-art UOIS methods.
- Abstract(参考訳): 把握などの新しい環境における操作タスクを成功させるためには、ロボットは背景や他の物体から見えない物体をセグメント化することに熟練しなければならない。
従来の研究は、大規模データ上のディープニューラルネットワークをトレーニングしてRGB/RGB-D機能埋め込みを学習することで、目に見えないオブジェクトインスタンスセグメンテーション(UOIS)を実行する。
ロボットインタラクションとデザインされたボディーフレーム不変機能を用いて,静的画像ベースUOISマスクのアンダーセグメンテーションなどの不正確なセグメンテーションを補正するための新しい手法を提案する。
ロボットインタラクションによる剛体にランダムに付着したフレームの相対線形および回転速度を用いて物体を識別し、補正された物体レベルのセグメンテーションマスクを蓄積できることを実証する。
セグメンテーションの不確実性の領域に動きを導入することで、最小の非破壊的相互作用(シーン当たり2-3)でセグメンテーション精度を不確実性駆動方式で劇的に向上させることができる。
従来のUOIS法と比較して, 物体分割精度80.7%, 28.2%の精度向上を実現し, 粗いシーンを正確にセグメンテーションする上での対話型知覚パイプラインの有効性を実証した。
関連論文リスト
- Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [59.87033229815062]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - Embodied Uncertainty-Aware Object Segmentation [38.52448300879023]
本研究では,不確実性を考慮したオブジェクトインスタンスセグメンテーション(UncOS)を導入し,対話型セグメンテーションの有用性を示す。
本研究では,大容量事前学習モデルの複数問合せを行うことにより,信頼度推定とともに,領域分割仮説の集合を得る。
アウトプットは、ロボットアクションを選択し、シーンを混乱させ、あいまいさを減らす、信念駆動のプロセスへの入力としても機能する。
論文 参考訳(メタデータ) (2024-08-08T21:29:22Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Self-Supervised Unseen Object Instance Segmentation via Long-Term Robot
Interaction [23.572104156617844]
本研究では,オブジェクトとの長期的なインタラクションを活用することで,オブジェクトのインスタンス分割を現実の世界で改善するための新しいロボットシステムを提案する。
本システムは,ロボットのプッシュ動作の後,オブジェクトのセグメント化の決定に反する。
システムによって収集された実世界データを用いて合成データに基づいて訓練されたセグメンテーションネットワークを微調整することで,システムの有用性を実証する。
論文 参考訳(メタデータ) (2023-02-07T23:11:29Z) - Self-supervised Pre-training for Semantic Segmentation in an Indoor
Scene [8.357801312689622]
本稿ではセグメンテーションモデルの自己教師型事前学習手法であるRegConsistを提案する。
我々は,対象環境におけるRGBビューからのセマンティックセグメンテーションを予測するために,コントラスト学習の変種を用いてDCNNモデルを訓練する。
提案手法は、ImageNetで事前訓練されたモデルよりも優れており、全く同じタスクでトレーニングされたモデルと異なるデータセットでトレーニングされたモデルを使用する場合の競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-04T20:10:14Z) - Self-Supervised Interactive Object Segmentation Through a
Singulation-and-Grasping Approach [9.029861710944704]
本稿では,新しいオブジェクトと対話し,各オブジェクトのトレーニングラベルを収集するロボット学習手法を提案する。
Singulation-and-Grasping(SaG)ポリシは、エンドツーエンドの強化学習を通じてトレーニングされる。
本システムは,シミュレートされた散文シーンにおいて,70%の歌唱成功率を達成する。
論文 参考訳(メタデータ) (2022-07-19T15:01:36Z) - Unseen Object Instance Segmentation with Fully Test-time RGB-D
Embeddings Adaptation [14.258456366985444]
最近では、大規模な合成データのRGB-D機能を活用し、実世界のシナリオにモデルを適用するのが一般的である。
本稿では,Sim2Realドメイン間の適応プロセスを再強調する。
本稿では,BatchNorm層のパラメータに基づいて,完全テスト時間RGB-D埋め込み適応(FTEA)を行うフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-21T02:35:20Z) - RICE: Refining Instance Masks in Cluttered Environments with Graph
Neural Networks [53.15260967235835]
本稿では,インスタンスマスクのグラフベース表現を利用して,そのような手法の出力を改良する新しいフレームワークを提案する。
我々は、セグメンテーションにスマートな摂動をサンプリングできるディープネットワークと、オブジェクト間の関係をエンコード可能なグラフニューラルネットワークを訓練し、セグメンテーションを評価する。
本稿では,本手法によって生成された不確実性推定を用いてマニピュレータを誘導し,乱れたシーンを効率的に理解するアプリケーションについて紹介する。
論文 参考訳(メタデータ) (2021-06-29T20:29:29Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z) - Learning RGB-D Feature Embeddings for Unseen Object Instance
Segmentation [67.88276573341734]
合成データからRGB-D特徴埋め込みを学習し,オブジェクトのインスタンスセグメンテーションを未確認する手法を提案する。
距離学習損失関数を用いて画素単位の機能埋め込みを学習する。
新たな2段階クラスタリングアルゴリズムにより,セグメンテーションの精度をさらに向上する。
論文 参考訳(メタデータ) (2020-07-30T00:23:07Z) - Unseen Object Instance Segmentation for Robotic Environments [67.88276573341734]
本稿では,テーブルトップ環境において未確認のオブジェクトインスタンスをセグメント化する手法を提案する。
UOIS-Netは2つのステージで構成されている: まず、オブジェクトのインスタンス中心の投票を2Dまたは3Dで生成するために、深さでのみ動作する。
驚くべきことに、我々のフレームワークは、RGBが非フォトリアリスティックな合成RGB-Dデータから学習することができる。
論文 参考訳(メタデータ) (2020-07-16T01:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。