論文の概要: One Object at a Time: Accurate and Robust Structure From Motion for
Robots
- arxiv url: http://arxiv.org/abs/2208.00487v1
- Date: Sun, 31 Jul 2022 18:17:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:34:09.590772
- Title: One Object at a Time: Accurate and Robust Structure From Motion for
Robots
- Title(参考訳): 一度に1つの物体:ロボットの運動による正確でロバストな構造
- Authors: Aravind Battaje, Oliver Brock
- Abstract要約: 視線固定ロボットは、固定対象物と周辺対象物の相対位置との距離を即時、正確に、かつ、堅牢に知覚する。
動きながら1つの物体を見る行為である固定は、3次元空間の幾何学における規則性を生かして情報を得る方法を示す。
- 参考スコア(独自算出の注目度): 11.204382077187137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A gaze-fixating robot perceives distance to the fixated object and relative
positions of surrounding objects immediately, accurately, and robustly. We show
how fixation, which is the act of looking at one object while moving, exploits
regularities in the geometry of 3D space to obtain this information. These
regularities introduce rotation-translation couplings that are not commonly
used in structure from motion. To validate, we use a Franka Emika Robot with an
RGB camera. We a) find that error in distance estimate is less than 5 mm at a
distance of 15 cm, and b) show how relative position can be used to find
obstacles under challenging scenarios. We combine accurate distance estimates
and obstacle information into a reactive robot behavior that is able to pick up
objects of unknown size, while impeded by unforeseen obstacles.
- Abstract(参考訳): 視線固定ロボットは、固定された物体と周辺物体の相対位置との距離を瞬時、正確に、かつロバストに知覚する。
動きながら1つの物体を見る行為である固定は、3次元空間の幾何学における規則性を利用して情報を得る方法を示す。
これらの規則性は回転変換結合を導入し、運動から構造に一般的には使われない。
検証にはRGBカメラを搭載したFranka Emika Robotを使用する。
私たち
a) 距離推定における誤差が15cmの距離で5mm未満であることを確認し、
b) 難解なシナリオの下で障害を見つけるために相対的な位置がいかに用いられるかを示すこと。
我々は、正確な距離推定と障害物情報を、未知の大きさの物体を拾い上げながら、予期せぬ障害物によって妨げられる反応性ロボットの動作に組み合わせる。
関連論文リスト
- Fit-NGP: Fitting Object Models to Neural Graphics Primitives [19.513102875891775]
本研究では, 高精度なポーズ推定法として, 最先端の高効率放射場再構成法によって生成された密度場が適していることを示す。
本稿では,手首にカメラを装着したロボットアームを用いた完全自動ポーズ推定システムを提案する。
論文 参考訳(メタデータ) (2024-01-04T16:57:56Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - External Camera-based Mobile Robot Pose Estimation for Collaborative
Perception with Smart Edge Sensors [22.5939915003931]
本稿では,移動ロボットのポーズを多視点RGB画像を用いた静的カメラネットワークのアロセントリック座標で推定する手法を提案する。
画像はオンラインで、深層ニューラルネットワークによってスマートエッジセンサーでローカルに処理され、ロボットを検出する。
ロボットのポーズを正確に推定すると、その観察は同中心のシーンモデルに融合することができる。
論文 参考訳(メタデータ) (2023-03-07T11:03:33Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - 6N-DoF Pose Tracking for Tensegrity Robots [5.398092221687385]
引張ロボットは剛性圧縮要素(ロッド)と柔軟な引張要素(ケーブルなど)から構成される
この研究は、マーカーのない視覚に基づく方法で、緊張するロボットのポーズトラッキングに対処することを目的としている。
RGB-Dビデオから張力ロボットの各剛体要素の6-DoFポーズを反復的に推定するプロセスを提案する。
論文 参考訳(メタデータ) (2022-05-29T20:55:29Z) - The Right Spin: Learning Object Motion from Rotation-Compensated Flow
Fields [61.664963331203666]
人間がどのように動く物体を知覚するかは、コンピュータービジョンにおける長年の研究課題である。
この問題の1つのアプローチは、これらすべての効果をモデル化するためのディープネットワークを教えることである。
運動場からカメラの回転を推定する新しい確率モデルを提案する。
論文 参考訳(メタデータ) (2022-02-28T22:05:09Z) - Gravity-Aware Monocular 3D Human-Object Reconstruction [73.25185274561139]
本稿では,共同マーカーレス3次元モーションキャプチャとモノクロRGB映像からの物体軌跡推定のための新しい手法を提案する。
自由飛行中に部分的に観察された物体を含むシーンに焦点を当てた。
実験では, 各種計測値を用いた3次元モーションキャプチャにおいて, 最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-08-19T17:59:57Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Geometry-based Distance Decomposition for Monocular 3D Object Detection [48.63934632884799]
本研究では,その要因により距離を回復する新しい幾何学的距離分解法を提案する。
分解の要因は、最も代表的かつ安定な変数へのオブジェクトの距離である。
RGB画像から3Dバウンディングボックスをコンパクトなアーキテクチャで直接予測します。
論文 参考訳(メタデータ) (2021-04-08T13:57:30Z) - Object Detection and Pose Estimation from RGB and Depth Data for
Real-time, Adaptive Robotic Grasping [0.0]
動的ロボットの把握を目的として,リアルタイム物体検出とポーズ推定を行うシステムを提案する。
提案されたアプローチは、ロボットが物体のアイデンティティとその実際のポーズを検出し、新しいポーズで使用するために正準の把握を適応させることを可能にする。
訓練のためのシステムは、ロボットの手首に取り付けられたグリッパーに対する対象の相対的な姿勢を捉えることで、標準的な把握を定義する。
テスト中、新しいポーズが検出されると、物体の正準的な把握が識別され、ロボットアームの関節角度を調整して動的に適応されます。
論文 参考訳(メタデータ) (2021-01-18T22:22:47Z) - MoreFusion: Multi-object Reasoning for 6D Pose Estimation from
Volumetric Fusion [19.034317851914725]
本稿では,複数の既知の物体の接触と隠蔽の正確なポーズを,リアルタイムな多視点視から推定するシステムを提案する。
提案手法は,1枚のRGB-Dビューからの3Dオブジェクトのポーズ提案を行い,カメラが移動すると,複数のビューからのポーズ推定と非パラメトリック占有情報を蓄積する。
提案手法の精度とロバスト性を2つのオブジェクトデータセット(YCB-Video)で実験的に検証する。
論文 参考訳(メタデータ) (2020-04-09T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。