論文の概要: SCFlow2: Plug-and-Play Object Pose Refiner with Shape-Constraint Scene Flow
- arxiv url: http://arxiv.org/abs/2504.09160v1
- Date: Sat, 12 Apr 2025 09:48:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:52:20.427170
- Title: SCFlow2: Plug-and-Play Object Pose Refiner with Shape-Constraint Scene Flow
- Title(参考訳): SCFlow2: 形状に制約のあるシーンフローを有するプラグアンドプレイ型オブジェクト・ポース・リファイナ
- Authors: Qingyuan Wang, Rui Song, Jiaojiao Li, Kerui Cheng, David Ferstl, Yinlin Hu,
- Abstract要約: SCFlow2は6次元オブジェクトポーズ推定のためのプラグアンドプレイ改良フレームワークである。
RGBDフレームの3Dシーンフローによる反復の正規化として追加の深さを定式化する。
- 参考スコア(独自算出の注目度): 13.668161011991865
- License:
- Abstract: We introduce SCFlow2, a plug-and-play refinement framework for 6D object pose estimation. Most recent 6D object pose methods rely on refinement to get accurate results. However, most existing refinement methods either suffer from noises in establishing correspondences, or rely on retraining for novel objects. SCFlow2 is based on the SCFlow model designed for refinement with shape constraint, but formulates the additional depth as a regularization in the iteration via 3D scene flow for RGBD frames. The key design of SCFlow2 is an introduction of geometry constraints into the training of recurrent matching network, by combining the rigid-motion embeddings in 3D scene flow and 3D shape prior of the target. We train SCFlow2 on a combination of dataset Objaverse, GSO and ShapeNet, and evaluate on BOP datasets with novel objects. After using our method as a post-processing, most state-of-the-art methods produce significantly better results, without any retraining or fine-tuning. The source code is available at https://scflow2.github.io.
- Abstract(参考訳): SCFlow2は6次元オブジェクトのポーズ推定のためのプラグイン・アンド・プレイ・リファインメント・フレームワークである。
最近の6Dオブジェクトポーズ法は、正確な結果を得るために改善に依存している。
しかし、既存の洗練手法のほとんどは、対応を確立する際にノイズに悩まされるか、新しい物体の再訓練に頼っている。
SCFlow2は、形状制約による洗練のために設計されたSCFlowモデルに基づいているが、RGBDフレームの3Dシーンフローによる反復の正規化として追加の深さを定式化している。
SCFlow2の鍵となる設計は、3次元シーンフローにおける剛体移動埋め込みと、ターゲットの3次元形状を組み合わせることで、繰り返しマッチングネットワークのトレーニングに幾何学的制約を導入することである。
我々は、データセットObjaverse、GSO、ShapeNetの組み合わせでSCFlow2をトレーニングし、BOPデータセットと新しいオブジェクトを評価する。
我々の手法を後処理として使用した後、ほとんどの最先端の手法は、再訓練や微調整をせずに、より優れた結果をもたらす。
ソースコードはhttps://scflow2.github.ioで公開されている。
関連論文リスト
- T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - ScaleFlow++: Robust and Accurate Estimation of 3D Motion from Video [26.01796507893086]
本稿では,3次元モーション認識手法であるScaleFlow++を提案する。
たった1対のRGBイメージで、ScaleFlow++は光学フローとモーションインディープス(MID)をしっかりと推定できる。
KITTIでは、ScaleFlow++は、SF-allを6.21から5.79に削減し、最高のモノクロシーンフロー推定性能を達成した。
論文 参考訳(メタデータ) (2024-09-16T11:59:27Z) - ScaleFlow++: Robust and Accurate Estimation of 3D Motion from Video [15.629496237910999]
本稿では,3次元モーション認識手法であるScaleFlow++を提案する。
たった1対のRGBイメージで、ScaleFlow++は光学フローとモーションインディープス(MID)をしっかりと推定できる。
KITTIでは、ScaleFlow++は、SF-allを6.21から5.79に削減し、最高のモノクロシーンフロー推定性能を達成した。
論文 参考訳(メタデータ) (2024-07-13T07:58:48Z) - DiffComplete: Diffusion-based Generative 3D Shape Completion [114.43353365917015]
3次元レンジスキャンにおける形状完成のための拡散に基づく新しいアプローチを提案する。
私たちはリアリズム、マルチモダリティ、高忠実さのバランスを取ります。
DiffCompleteは2つの大規模3次元形状補完ベンチマークに新しいSOTA性能を設定する。
論文 参考訳(メタデータ) (2023-06-28T16:07:36Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - Exploiting Implicit Rigidity Constraints via Weight-Sharing Aggregation
for Scene Flow Estimation from Point Clouds [21.531037702059933]
本稿では,特徴量とシーンフローのアップサンプリングのための新しいウェイトシェアリングアグリゲーション(WSA)手法を提案する。
WSAは推定されたポーズやセグメンテーションされたオブジェクトに依存しておらず、構造歪みを避けるために暗黙的に剛性制約を強制することができる。
我々は、PointPWC-Netを修正し、提案したWSAおよび変形度モジュールを拡張されたPointPWC-Netに統合し、WSAFlowNetと呼ばれるエンドツーエンドのシーンフロー推定ネットワークを導出する。
論文 参考訳(メタデータ) (2023-03-04T16:55:57Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - CRT-6D: Fast 6D Object Pose Estimation with Cascaded Refinement
Transformers [51.142988196855484]
本稿では,CRT-6D(Cascaded Refinement Transformers)と呼ぶ新しい手法を提案する。
一般的に使用される高密度中間表現を,Os(Object Keypoint Features)と呼ばれる機能ピラミッドからサンプリングされた,各要素がオブジェクトキーポイントに対応するスパースな機能セットに置き換える。
一つのモデル上で最大21個のオブジェクトをサポートしながら,最も近いリアルタイム状態よりも2倍高速な推論を実現する。
論文 参考訳(メタデータ) (2022-10-21T04:06:52Z) - What Matters for 3D Scene Flow Network [44.02710380584977]
点雲からの3次元シーンフロー推定はコンピュータビジョンにおける低レベルな3次元モーション知覚タスクである。
そこで本研究では,初期シーンフロー推定時の逆方向の信頼性検証が可能な,新しい全対全フロー埋め込み層を提案する。
提案したモデルは,FlyingThings3Dデータセットで少なくとも38.2%,KITTI Scene Flowデータセットで24.7%,EPE3Dメトリックで,既存のすべてのメソッドを上回ります。
論文 参考訳(メタデータ) (2022-07-19T09:27:05Z) - CamLiFlow: Bidirectional Camera-LiDAR Fusion for Joint Optical Flow and
Scene Flow Estimation [15.98323974821097]
同期した2Dデータと3Dデータから光フローとシーンフローを同時推定する問題について検討する。
そこで本研究では,CamLiFlowと呼ばれる新しいエンドツーエンドフレームワークを提案する。
提案手法は,KITTI Scene Flowベンチマークで1位であり,従来の1/7パラメータよりも優れていた。
論文 参考訳(メタデータ) (2021-11-20T02:58:38Z) - Weakly Supervised Learning of Rigid 3D Scene Flow [81.37165332656612]
本研究では,剛体体として動くエージェント群によって説明できる3次元シーンを多用したデータ駆動シーンフロー推定アルゴリズムを提案する。
4種類の自律運転データセットにおいて,提案手法の有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-17T18:58:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。