論文の概要: One Object at a Time: Accurate and Robust Structure From Motion for
Robots
- arxiv url: http://arxiv.org/abs/2208.00487v1
- Date: Sun, 31 Jul 2022 18:17:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:34:09.590772
- Title: One Object at a Time: Accurate and Robust Structure From Motion for
Robots
- Title(参考訳): 一度に1つの物体:ロボットの運動による正確でロバストな構造
- Authors: Aravind Battaje, Oliver Brock
- Abstract要約: 視線固定ロボットは、固定対象物と周辺対象物の相対位置との距離を即時、正確に、かつ、堅牢に知覚する。
動きながら1つの物体を見る行為である固定は、3次元空間の幾何学における規則性を生かして情報を得る方法を示す。
- 参考スコア(独自算出の注目度): 11.204382077187137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A gaze-fixating robot perceives distance to the fixated object and relative
positions of surrounding objects immediately, accurately, and robustly. We show
how fixation, which is the act of looking at one object while moving, exploits
regularities in the geometry of 3D space to obtain this information. These
regularities introduce rotation-translation couplings that are not commonly
used in structure from motion. To validate, we use a Franka Emika Robot with an
RGB camera. We a) find that error in distance estimate is less than 5 mm at a
distance of 15 cm, and b) show how relative position can be used to find
obstacles under challenging scenarios. We combine accurate distance estimates
and obstacle information into a reactive robot behavior that is able to pick up
objects of unknown size, while impeded by unforeseen obstacles.
- Abstract(参考訳): 視線固定ロボットは、固定された物体と周辺物体の相対位置との距離を瞬時、正確に、かつロバストに知覚する。
動きながら1つの物体を見る行為である固定は、3次元空間の幾何学における規則性を利用して情報を得る方法を示す。
これらの規則性は回転変換結合を導入し、運動から構造に一般的には使われない。
検証にはRGBカメラを搭載したFranka Emika Robotを使用する。
私たち
a) 距離推定における誤差が15cmの距離で5mm未満であることを確認し、
b) 難解なシナリオの下で障害を見つけるために相対的な位置がいかに用いられるかを示すこと。
我々は、正確な距離推定と障害物情報を、未知の大きさの物体を拾い上げながら、予期せぬ障害物によって妨げられる反応性ロボットの動作に組み合わせる。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - 3D Foundation Models Enable Simultaneous Geometry and Pose Estimation of Grasped Objects [13.58353565350936]
本研究では,ロボットが把握した物体の形状と姿勢を共同で推定する手法を提案する。
提案手法は,推定幾何をロボットの座標フレームに変換する。
我々は,実世界の多様な物体の集合を保持するロボットマニピュレータに対する我々のアプローチを実証的に評価した。
論文 参考訳(メタデータ) (2024-07-14T21:02:55Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - External Camera-based Mobile Robot Pose Estimation for Collaborative
Perception with Smart Edge Sensors [22.5939915003931]
本稿では,移動ロボットのポーズを多視点RGB画像を用いた静的カメラネットワークのアロセントリック座標で推定する手法を提案する。
画像はオンラインで、深層ニューラルネットワークによってスマートエッジセンサーでローカルに処理され、ロボットを検出する。
ロボットのポーズを正確に推定すると、その観察は同中心のシーンモデルに融合することができる。
論文 参考訳(メタデータ) (2023-03-07T11:03:33Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - 6N-DoF Pose Tracking for Tensegrity Robots [5.398092221687385]
引張ロボットは剛性圧縮要素(ロッド)と柔軟な引張要素(ケーブルなど)から構成される
この研究は、マーカーのない視覚に基づく方法で、緊張するロボットのポーズトラッキングに対処することを目的としている。
RGB-Dビデオから張力ロボットの各剛体要素の6-DoFポーズを反復的に推定するプロセスを提案する。
論文 参考訳(メタデータ) (2022-05-29T20:55:29Z) - Gravity-Aware Monocular 3D Human-Object Reconstruction [73.25185274561139]
本稿では,共同マーカーレス3次元モーションキャプチャとモノクロRGB映像からの物体軌跡推定のための新しい手法を提案する。
自由飛行中に部分的に観察された物体を含むシーンに焦点を当てた。
実験では, 各種計測値を用いた3次元モーションキャプチャにおいて, 最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-08-19T17:59:57Z) - Geometry-based Distance Decomposition for Monocular 3D Object Detection [48.63934632884799]
本研究では,その要因により距離を回復する新しい幾何学的距離分解法を提案する。
分解の要因は、最も代表的かつ安定な変数へのオブジェクトの距離である。
RGB画像から3Dバウンディングボックスをコンパクトなアーキテクチャで直接予測します。
論文 参考訳(メタデータ) (2021-04-08T13:57:30Z) - Object Detection and Pose Estimation from RGB and Depth Data for
Real-time, Adaptive Robotic Grasping [0.0]
動的ロボットの把握を目的として,リアルタイム物体検出とポーズ推定を行うシステムを提案する。
提案されたアプローチは、ロボットが物体のアイデンティティとその実際のポーズを検出し、新しいポーズで使用するために正準の把握を適応させることを可能にする。
訓練のためのシステムは、ロボットの手首に取り付けられたグリッパーに対する対象の相対的な姿勢を捉えることで、標準的な把握を定義する。
テスト中、新しいポーズが検出されると、物体の正準的な把握が識別され、ロボットアームの関節角度を調整して動的に適応されます。
論文 参考訳(メタデータ) (2021-01-18T22:22:47Z) - MoreFusion: Multi-object Reasoning for 6D Pose Estimation from
Volumetric Fusion [19.034317851914725]
本稿では,複数の既知の物体の接触と隠蔽の正確なポーズを,リアルタイムな多視点視から推定するシステムを提案する。
提案手法は,1枚のRGB-Dビューからの3Dオブジェクトのポーズ提案を行い,カメラが移動すると,複数のビューからのポーズ推定と非パラメトリック占有情報を蓄積する。
提案手法の精度とロバスト性を2つのオブジェクトデータセット(YCB-Video)で実験的に検証する。
論文 参考訳(メタデータ) (2020-04-09T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。