論文の概要: Grasping Trajectory Optimization with Point Clouds
- arxiv url: http://arxiv.org/abs/2403.05466v2
- Date: Wed, 7 Aug 2024 20:33:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-09 20:26:31.011152
- Title: Grasping Trajectory Optimization with Point Clouds
- Title(参考訳): 点雲を用いたグラッピング軌道最適化
- Authors: Yu Xiang, Sai Haneesh Allu, Rohith Peddi, Tyler Summers, Vibhav Gogate,
- Abstract要約: 本稿では,ロボットとタスク空間のポイントクラウド表現に基づく,ロボットグルーピングのための新しい軌道最適化手法を提案する。
本手法では,ロボットはリンク面上の3Dポイントで表現され,ロボットのタスク空間は深度センサから得られる点雲で表現される。
- 参考スコア(独自算出の注目度): 6.521613092713019
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new trajectory optimization method for robotic grasping based on a point-cloud representation of robots and task spaces. In our method, robots are represented by 3D points on their link surfaces. The task space of a robot is represented by a point cloud that can be obtained from depth sensors. Using the point-cloud representation, goal reaching in grasping can be formulated as point matching, while collision avoidance can be efficiently achieved by querying the signed distance values of the robot points in the signed distance field of the scene points. Consequently, a constrained nonlinear optimization problem is formulated to solve the joint motion and grasp planning problem. The advantage of our method is that the point-cloud representation is general to be used with any robot in any environment. We demonstrate the effectiveness of our method by performing experiments on a tabletop scene and a shelf scene for grasping with a Fetch mobile manipulator and a Franka Panda arm. The project page is available at \url{https://irvlutd.github.io/GraspTrajOpt}
- Abstract(参考訳): 本稿では,ロボットとタスク空間のポイントクラウド表現に基づく,ロボットグルーピングのための新しい軌道最適化手法を提案する。
本手法では,ロボットはリンク面上の3Dポイントで表現される。
ロボットのタスク空間は、深度センサーから得られる点雲で表される。
ポイントクラウド表現を用いて、シーンポイントの符号付き距離フィールドにおいて、ロボットポイントの符号付き距離値を問合せすることで、衝突回避を効率的に行うとともに、把握時のゴールリーチをポイントマッチングとして定式化することができる。
これにより、制約付き非線形最適化問題を定式化し、関節運動と把握計画問題を解く。
提案手法の利点は,任意の環境において任意のロボットに対して,ポイントクラウド表現が一般的に使用されることである。
本研究では,Fetch移動マニピュレータとFranka Pandaアームを用いて,テーブルトップシーンと棚シーンで実験を行い,本手法の有効性を実証する。
プロジェクトページは \url{https://irvlutd.github.io/GraspTrajOpt} で公開されている。
関連論文リスト
- Planning Robot Placement for Object Grasping [5.327052729563043]
物体の摘み取りなどの操作に基づく活動を行う場合、移動ロボットは、実行を成功させる位置で基地を位置決めする必要がある。
この問題に対処するために、顕著なアプローチは、通常、対象のオブジェクトに対する把握ポーズを提供するために、プランナーを高価に把握することに依存する。
そこで我々は,まず環境との衝突を起こさないロボット配置を見つけ,次に最適な配置候補を見出すよう評価する。
論文 参考訳(メタデータ) (2024-05-26T20:57:32Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - RPMArt: Towards Robust Perception and Manipulation for Articulated Objects [56.73978941406907]
本稿では,Articulated Objects (RPMArt) のロバスト知覚と操作のためのフレームワークを提案する。
RPMArtは、調音パラメータを推定し、雑音の多い点雲から調音部分を操作することを学習する。
我々は,シミュレート・トゥ・リアル・トランスファーの能力を高めるための調音認識型分類手法を提案する。
論文 参考訳(メタデータ) (2024-03-24T05:55:39Z) - Neural Potential Field for Obstacle-Aware Local Motion Planning [46.42871544295734]
本稿では,ロボットのポーズ,障害物マップ,ロボットのフットプリントに基づいて,異なる衝突コストを返却するニューラルネットワークモデルを提案する。
私たちのアーキテクチャには、障害物マップとロボットフットプリントを埋め込みに変換するニューラルイメージエンコーダが含まれています。
Husky UGVモバイルロボットの実験は、我々のアプローチがリアルタイムで安全なローカルプランニングを可能にすることを示した。
論文 参考訳(メタデータ) (2023-10-25T05:00:21Z) - ImageManip: Image-based Robotic Manipulation with Affordance-guided Next
View Selection [10.162882793554191]
ロボットが環境と対話するためには、3Dの関節による物体操作が不可欠である。
既存の多くの研究では、操作ポリシーの主要な入力として3Dポイントクラウドを使用している。
RGB画像は、コスト効率の良い装置を用いた高分解能な観察を提供するが、空間的3次元幾何学的情報は欠如している。
このフレームワークは、対象対象物の複数の視点を捉え、その幾何学を補完するために深度情報を推測するように設計されている。
論文 参考訳(メタデータ) (2023-10-13T12:42:54Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - External Camera-based Mobile Robot Pose Estimation for Collaborative
Perception with Smart Edge Sensors [22.5939915003931]
本稿では,移動ロボットのポーズを多視点RGB画像を用いた静的カメラネットワークのアロセントリック座標で推定する手法を提案する。
画像はオンラインで、深層ニューラルネットワークによってスマートエッジセンサーでローカルに処理され、ロボットを検出する。
ロボットのポーズを正確に推定すると、その観察は同中心のシーンモデルに融合することができる。
論文 参考訳(メタデータ) (2023-03-07T11:03:33Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Relative Localization of Mobile Robots with Multiple Ultra-WideBand
Ranging Measurements [15.209043435869189]
ロボット群間の相対的なポーズを,複数のUWB範囲のノードを各ロボットに装備することで推定する手法を提案する。
局所化精度を向上させるため,スライディングウインドウを用いた最適化により,オドメトリー制約を利用する。
論文 参考訳(メタデータ) (2021-07-19T12:57:02Z) - Large Scale Distributed Collaborative Unlabeled Motion Planning with
Graph Policy Gradients [122.85280150421175]
本研究では,運動制約と空間制約を多数のロボットに対して2次元空間で解くための学習法を提案する。
ロボットのポリシーをパラメータ化するためにグラフニューラルネットワーク(GNN)を用いる。
論文 参考訳(メタデータ) (2021-02-11T21:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。