論文の概要: 6-DoF Grasp Planning using Fast 3D Reconstruction and Grasp Quality CNN
- arxiv url: http://arxiv.org/abs/2009.08618v1
- Date: Fri, 18 Sep 2020 03:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 03:24:29.564488
- Title: 6-DoF Grasp Planning using Fast 3D Reconstruction and Grasp Quality CNN
- Title(参考訳): 高速3次元再構成とグレープ品質CNNを用いた6-DoFグラフ計画
- Authors: Yahav Avigal, Samuel Paradis, Harry Zhang
- Abstract要約: 本稿では,把握可能な物体に対するLSMの修正,把握性の評価,および6-DoFグリッププランナの開発について述べる。
複数のカメラビューを利用して、トップダウングリップができない場合でも、堅牢なグリップを計画する。
- 参考スコア(独自算出の注目度): 4.043769110293341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent consumer demand for home robots has accelerated performance of robotic
grasping. However, a key component of the perception pipeline, the depth
camera, is still expensive and inaccessible to most consumers. In addition,
grasp planning has significantly improved recently, by leveraging large
datasets and cloud robotics, and by limiting the state and action space to
top-down grasps with 4 degrees of freedom (DoF). By leveraging multi-view
geometry of the object using inexpensive equipment such as off-the-shelf RGB
cameras and state-of-the-art algorithms such as Learn Stereo Machine
(LSM\cite{kar2017learning}), the robot is able to generate more robust grasps
from different angles with 6-DoF. In this paper, we present a modification of
LSM to graspable objects, evaluate the grasps, and develop a 6-DoF grasp
planner based on Grasp-Quality CNN (GQ-CNN\cite{mahler2017dex}) that exploits
multiple camera views to plan a robust grasp, even in the absence of a possible
top-down grasp.
- Abstract(参考訳): 最近の家庭用ロボットに対する消費者の需要は、ロボットの把持性能を加速させた。
しかし、知覚パイプラインの重要なコンポーネントである深度カメラはいまだに高価であり、ほとんどの消費者にとってアクセス不能である。
さらに、大規模データセットとクラウドロボティクスを活用し、状態と行動空間を4自由度(DoF)でトップダウングリップに制限することで、グリップ計画が大幅に改善された。
市販のRGBカメラやLearning Stereo Machine (LSM\cite{kar2017learning})のような最先端のアルゴリズムなどの安価な機器を用いて、物体の多視点形状を利用することにより、ロボットは6-DoFで異なる角度からより堅牢なグルーピングを生成することができる。
本稿では,把握可能な物体に対するlsmの修正を行い,把握を評価し,把握品質の高いcnn(gq-cnn\cite{mahler2017dex})に基づく6自由度把握プランナーを開発した。
関連論文リスト
- LLMI3D: Empowering LLM with 3D Perception from a Single 2D Image [72.14973729674995]
現在の3D認識手法、特に小さなモデルでは、論理的推論、質問応答、オープンシナリオカテゴリの処理に苦労している。
空間的特徴抽出のための空間的局所特徴抽出法,精密な幾何回帰のための3次元問合せ情報復号法,カメラ焦点長変動に対する幾何学投影に基づく3次元推論を提案する。
論文 参考訳(メタデータ) (2024-08-14T10:00:16Z) - EffLoc: Lightweight Vision Transformer for Efficient 6-DOF Camera
Relocalization [12.980447668368274]
EffLocは,シングルイメージカメラ再ローカライズのための新しい視覚変換器である。
EffLocは効率と正確性に優れ、AtLocやMapNetといった先行手法よりも優れています。
大規模な屋外自動車運転のシナリオで成長し、シンプルさを確保し、エンドツーエンドのトレーニング性を確保し、手作りの損失関数をなくす。
論文 参考訳(メタデータ) (2024-02-21T05:26:17Z) - Autonomous Marker-less Rapid Aerial Grasping [5.892028494793913]
本稿では,自律的高速空中把握のための視覚ベースシステムを提案する。
検出対象の高密度点雲を生成し,幾何に基づく把握計画を行う。
飛行プラットフォームを用いた幾何学的把握技術の最初の利用例を示す。
論文 参考訳(メタデータ) (2022-11-23T16:25:49Z) - One-Shot Neural Fields for 3D Object Understanding [112.32255680399399]
ロボット工学のための統一的でコンパクトなシーン表現を提案する。
シーン内の各オブジェクトは、幾何学と外観をキャプチャする潜在コードによって描写される。
この表現は、新しいビューレンダリングや3D再構成、安定した把握予測といった様々なタスクのためにデコードできる。
論文 参考訳(メタデータ) (2022-10-21T17:33:14Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Contact-GraspNet: Efficient 6-DoF Grasp Generation in Cluttered Scenes [50.303361537562715]
6-DoFパラレルジャッジの分布を効率的に生成するエンドツーエンドネットワークを提案する。
観測された点群の6-DoF把握ポーズと幅を根付かせることで、把握表現の寸法を4-DoFに縮小することができます。
構造クラッタにおける未知物体のロボット把持実験では, 90%以上の成功率を達成し, 最近の最先端手法と比較して, 故障率を半分に削減した。
論文 参考訳(メタデータ) (2021-03-25T20:33:29Z) - Goal-Auxiliary Actor-Critic for 6D Robotic Grasping with Point Clouds [62.013872787987054]
6次元グルーピングのためのクローズドループ制御ポリシーを学習するための新しい手法を提案する。
本ポリシーでは,エゴセントリックカメラからの物体のセグメント化点雲を入力とし,ロボットグリップの連続した6次元制御動作を出力し,物体をつかむ。
論文 参考訳(メタデータ) (2020-10-02T07:42:00Z) - Multi-Sensor Next-Best-View Planning as Matroid-Constrained Submodular
Maximization [42.2136160962607]
複数のロボットのチームが捉えた深度画像を用いて3次元モデルを作成することの問題点を考察する。
次回のビュープランニングでは、現在のシーンモデルを使用して次の視点を選択します。
このユーティリティ関数を用いたマルチセンサの次ベクタービュープランニングは,マットロイド制約の下でのサブモジュラーの例であることを示す。
論文 参考訳(メタデータ) (2020-07-04T12:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。