論文の概要: MR6D: Benchmarking 6D Pose Estimation for Mobile Robots
- arxiv url: http://arxiv.org/abs/2508.13775v1
- Date: Tue, 19 Aug 2025 12:21:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.915221
- Title: MR6D: Benchmarking 6D Pose Estimation for Mobile Robots
- Title(参考訳): MR6D:移動ロボットの6次元空間推定のベンチマーク
- Authors: Anas Gouda, Shrutarv Awasthi, Christian Blesing, Lokeshwaran Manohar, Frank Hoffmann, Alice Kirchheim,
- Abstract要約: 既存の6Dポーズ推定データセットは、主にロボットアームマニピュレータによって処理される小さな家庭用オブジェクトに焦点を当てている。
産業環境における移動ロボットの6次元ポーズ推定のためのデータセットであるMR6Dを紹介する。
- 参考スコア(独自算出の注目度): 0.118749525824656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing 6D pose estimation datasets primarily focus on small household objects typically handled by robot arm manipulators, limiting their relevance to mobile robotics. Mobile platforms often operate without manipulators, interact with larger objects, and face challenges such as long-range perception, heavy self-occlusion, and diverse camera perspectives. While recent models generalize well to unseen objects, evaluations remain confined to household-like settings that overlook these factors. We introduce MR6D, a dataset designed for 6D pose estimation for mobile robots in industrial environments. It includes 92 real-world scenes featuring 16 unique objects across static and dynamic interactions. MR6D captures the challenges specific to mobile platforms, including distant viewpoints, varied object configurations, larger object sizes, and complex occlusion/self-occlusion patterns. Initial experiments reveal that current 6D pipelines underperform in these settings, with 2D segmentation being another hurdle. MR6D establishes a foundation for developing and evaluating pose estimation methods tailored to the demands of mobile robotics. The dataset is available at https://huggingface.co/datasets/anas-gouda/mr6d.
- Abstract(参考訳): 既存の6Dポーズ推定データセットは、主にロボットアームマニピュレータによって処理される小さな家庭用物体に焦点を当てており、移動ロボット工学との関係を制限している。
モバイルプラットフォームは、しばしばマニピュレータなしで動作し、より大きなオブジェクトと対話し、長距離認識、重い自己閉塞、多様なカメラ視点といった課題に直面している。
最近のモデルは、目に見えない物体によく当てはまるが、評価は、これらの要因を無視する家庭的な設定に限られている。
産業環境における移動ロボットの6次元ポーズ推定のためのデータセットであるMR6Dを紹介する。
92の現実世界シーンがあり、16のユニークなオブジェクトが静的および動的相互作用にまたがっている。
MR6Dは、リモート視点、さまざまなオブジェクト構成、より大きなオブジェクトサイズ、複雑な閉塞/自己閉塞パターンを含む、モバイルプラットフォーム固有の課題をキャプチャする。
初期の実験では、現在の6Dパイプラインはこれらの設定ではパフォーマンスが悪く、2Dセグメンテーションもハードルとなっている。
MR6Dは、モバイルロボティクスの要求に合わせたポーズ推定手法の開発と評価のための基盤を確立する。
データセットはhttps://huggingface.co/datasets/anas-gouda/mr6dで公開されている。
関連論文リスト
- CHIP: A multi-sensor dataset for 6D pose estimation of chairs in industrial settings [4.310149395049504]
CHIPは、実際の産業環境における椅子の6次元ポーズ推定のために設計された最初のデータセットである。
CHIPは、ロボットのキネマティクスから自動的に派生した6Dポーズに注釈付けされた77,811RGBD画像からなる。
結果は、データセットがもたらすユニークな課題を強調しながら、改善の余地がかなりあることを示している。
論文 参考訳(メタデータ) (2025-06-11T13:13:31Z) - Any6D: Model-free 6D Pose Estimation of Novel Objects [76.30057578269668]
我々は,6次元オブジェクトのポーズ推定のためのモデルフリーフレームワークであるAny6Dを紹介する。
新たなシーンでは、未知の物体の6Dポーズと大きさを推定するために、1枚のRGB-Dアンカー画像しか必要としない。
提案手法を5つの挑戦的データセットで評価する。
論文 参考訳(メタデータ) (2025-03-24T13:46:21Z) - 6D Object Pose Tracking in Internet Videos for Robotic Manipulation [20.22297850525832]
本研究では,入力画像中の物体の6次元ポーズを,物体自体の事前の知識を使わずに推定する手法を開発した。
インターネットビデオからスムーズな6次元物体軌跡を抽出し,検出された物体をビデオフレーム間で注意深く追跡する。
既存のRGB 6Dのポーズ推定手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2025-03-13T12:33:34Z) - ManiPose: A Comprehensive Benchmark for Pose-aware Object Manipulation in Robotics [55.85916671269219]
本稿では,ポーズ変動操作タスクの研究を進めるための先駆的ベンチマークであるManiPoseを紹介する。
包括的データセットは、2936の現実世界のスキャンされた剛体オブジェクトと100の明瞭なオブジェクトに対して、幾何学的に一貫性があり、操作指向の6Dポーズラベルを備えている。
本ベンチマークは,ポーズ推定,ポーズ認識操作,実ロボットのスキル伝達における顕著な進歩を示す。
論文 参考訳(メタデータ) (2024-03-20T07:48:32Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - Imitrob: Imitation Learning Dataset for Training and Evaluating 6D
Object Pose Estimators [20.611000416051546]
本稿では,標準RGBカメラで捉えたタスクデモにおける手持ちツールの6次元ポーズ推定のためのトレーニングと評価のためのデータセットを提案する。
このデータセットには、9つの異なるツールと12の操作タスクのイメージシーケンスが含まれており、2つのカメラ視点、4人の被写体、そして左右手である。
論文 参考訳(メタデータ) (2022-09-16T14:43:46Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - VIPose: Real-time Visual-Inertial 6D Object Pose Tracking [3.44942675405441]
本稿では,オブジェクトのポーズ追跡問題にリアルタイムに対処するために,VIPoseと呼ばれる新しいディープニューラルネットワーク(DNN)を提案する。
重要な貢献は、オブジェクトの相対的な6Dポーズを予測するために視覚的および慣性的特徴を融合する新しいDNNアーキテクチャの設計である。
このアプローチでは、最先端技術に匹敵する精度性能を示すが、リアルタイムであることにはさらなるメリットがある。
論文 参考訳(メタデータ) (2021-07-27T06:10:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。