論文の概要: GMFlow: Global Motion-Guided Recurrent Flow for 6D Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2411.17174v1
- Date: Tue, 26 Nov 2024 07:28:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:35:08.998297
- Title: GMFlow: Global Motion-Guided Recurrent Flow for 6D Object Pose Estimation
- Title(参考訳): GMFlow:6次元オブジェクトポス推定のためのグローバルモーションガイドリカレントフロー
- Authors: Xin Liu, Shibei Xue, Dezong Zhao, Shan Ma, Min Jiang,
- Abstract要約: ポーズ推定のためのGMFlowと呼ばれるグローバルな動き誘導型リカレントフロー推定法を提案する。
我々は、物体の構造情報を利用して、剛体の可視部分の運動を、その可視領域に拡張する。
提案手法は,競合計算効率を維持しつつ,既存の手法の精度を向上する。
- 参考スコア(独自算出の注目度): 10.48817934871207
- License:
- Abstract: 6D object pose estimation is crucial for robotic perception and precise manipulation. Occlusion and incomplete object visibility are common challenges in this task, but existing pose refinement methods often struggle to handle these issues effectively. To tackle this problem, we propose a global motion-guided recurrent flow estimation method called GMFlow for pose estimation. GMFlow overcomes local ambiguities caused by occlusion or missing parts by seeking global explanations. We leverage the object's structural information to extend the motion of visible parts of the rigid body to its invisible regions. Specifically, we capture global contextual information through a linear attention mechanism and guide local motion information to generate global motion estimates. Furthermore, we introduce object shape constraints in the flow iteration process, making flow estimation suitable for pose estimation scenarios. Experiments on the LM-O and YCB-V datasets demonstrate that our method outperforms existing techniques in accuracy while maintaining competitive computational efficiency.
- Abstract(参考訳): 6Dオブジェクトのポーズ推定はロボットの知覚と正確な操作に不可欠である。
排除と不完全なオブジェクトの可視性は、このタスクにおいて一般的な課題であるが、既存のポーズ改善手法は、これらの問題を効果的に扱うのに苦労することが多い。
この問題に対処するために,GMFlowと呼ばれるグローバルな動き誘導型リカレントフロー推定手法を提案する。
GMFlowは、グローバルな説明を求めることによって、閉塞や欠落による局所的な曖昧さを克服する。
我々は、物体の構造情報を利用して、剛体の可視部分の運動を、その可視領域に拡張する。
具体的には、線形アテンション機構を通じてグローバルな文脈情報をキャプチャし、局所的な動き情報を導き、グローバルな動き推定を生成する。
さらに,フロー反復過程におけるオブジェクト形状制約を導入し,ポーズ推定シナリオに適したフロー推定を行う。
LM-O および YCB-V データセットを用いた実験により,提案手法は競合計算効率を維持しつつ,既存の手法よりも精度が高いことを示した。
関連論文リスト
- Diff9D: Diffusion-Based Domain-Generalized Category-Level 9-DoF Object Pose Estimation [68.81887041766373]
ドメイン一般化9-DoFオブジェクトポーズ推定のための拡散に基づくパラダイムを提案する。
本研究では,9-DoFオブジェクトのポーズ推定を生成的観点から再定義する効果的な拡散モデルを提案する。
提案手法は,最先端の領域一般化性能を実現する。
論文 参考訳(メタデータ) (2025-02-04T17:46:34Z) - FlowMamba: Learning Point Cloud Scene Flow with Global Motion Propagation [14.293476753863272]
本研究では,フローマンバという,グローバルな動き伝搬を伴うシーンフロー推定ネットワークを提案する。
FlowMambaはFlyingThings3DおよびKITTIデータセットにおいてミリレベルの予測精度を実現する最初の方法である。
論文 参考訳(メタデータ) (2024-12-23T08:03:59Z) - Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - SeFlow: A Self-Supervised Scene Flow Method in Autonomous Driving [18.88208422580103]
連続したLiDARスキャンで各点における3次元運動を予測する。
現在の最先端の手法は、シーンフローネットワークをトレーニングするために注釈付きデータを必要とする。
本研究では,効率的な動的分類を学習に基づくシーンフローパイプラインに統合するSeFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T18:22:54Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - Sparse Global Matching for Video Frame Interpolation with Large Motion [20.49084881829404]
大きな動きはビデオフレーム補間(VFI)タスクにおいて重要な課題となる。
既存の手法は、しばしば制限された受容場によって制約されるため、大きな動きを持つシナリオを扱う際の準最適性能をもたらす。
我々はVFIのための新しいパイプラインを導入し、グローバルレベルの情報を効果的に統合し、大きな動きに関連する問題を緩和する。
論文 参考訳(メタデータ) (2024-04-10T11:06:29Z) - Generalizing Event-Based Motion Deblurring in Real-World Scenarios [62.995994797897424]
イベントベースの動作遅延は、低レイテンシイベントを活用することで、有望な結果を示している。
本研究では,フレキシブルな入力空間スケールを実現するとともに,時間スケールの異なる動きのぼかしから学習できるスケール対応ネットワークを提案する。
次に,実世界のデータ分布に適合する2段階の自己教師型学習手法を開発した。
論文 参考訳(メタデータ) (2023-08-11T04:27:29Z) - Exploiting Implicit Rigidity Constraints via Weight-Sharing Aggregation
for Scene Flow Estimation from Point Clouds [21.531037702059933]
本稿では,特徴量とシーンフローのアップサンプリングのための新しいウェイトシェアリングアグリゲーション(WSA)手法を提案する。
WSAは推定されたポーズやセグメンテーションされたオブジェクトに依存しておらず、構造歪みを避けるために暗黙的に剛性制約を強制することができる。
我々は、PointPWC-Netを修正し、提案したWSAおよび変形度モジュールを拡張されたPointPWC-Netに統合し、WSAFlowNetと呼ばれるエンドツーエンドのシーンフロー推定ネットワークを導出する。
論文 参考訳(メタデータ) (2023-03-04T16:55:57Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - Robust Ego and Object 6-DoF Motion Estimation and Tracking [5.162070820801102]
本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
論文 参考訳(メタデータ) (2020-07-28T05:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。