論文の概要: Autonomous Marker-less Rapid Aerial Grasping
- arxiv url: http://arxiv.org/abs/2211.13093v3
- Date: Tue, 5 Mar 2024 19:41:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 18:45:35.215205
- Title: Autonomous Marker-less Rapid Aerial Grasping
- Title(参考訳): 自律マーカーレス迅速空中把持
- Authors: Erik Bauer, Barnabas Gavin Cangan, Robert K. Katzschmann
- Abstract要約: 本稿では,自律的高速空中把握のための視覚ベースシステムを提案する。
検出対象の高密度点雲を生成し,幾何に基づく把握計画を行う。
飛行プラットフォームを用いた幾何学的把握技術の最初の利用例を示す。
- 参考スコア(独自算出の注目度): 5.892028494793913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a future with autonomous robots, visual and spatial perception is of
utmost importance for robotic systems. Particularly for aerial robotics, there
are many applications where utilizing visual perception is necessary for any
real-world scenarios. Robotic aerial grasping using drones promises fast
pick-and-place solutions with a large increase in mobility over other robotic
solutions. Utilizing Mask R-CNN scene segmentation (detectron2), we propose a
vision-based system for autonomous rapid aerial grasping which does not rely on
markers for object localization and does not require the appearance of the
object to be previously known. Combining segmented images with spatial
information from a depth camera, we generate a dense point cloud of the
detected objects and perform geometry-based grasp planning to determine
grasping points on the objects. In real-world experiments on a dynamically
grasping aerial platform, we show that our system can replicate the performance
of a motion capture system for object localization up to 94.5 % of the baseline
grasping success rate. With our results, we show the first use of
geometry-based grasping techniques with a flying platform and aim to increase
the autonomy of existing aerial manipulation platforms, bringing them further
towards real-world applications in warehouses and similar environments.
- Abstract(参考訳): ロボットの未来において、視覚と空間の知覚はロボットシステムにとって最も重要である。
特に航空ロボットには、現実世界のシナリオに視覚知覚を利用する多くの応用がある。
ドローンによる空中の把握は、他のロボティクスソリューションよりも大きなモビリティを持つ高速なピック・アンド・プレイス・ソリューションを約束する。
本研究では,Mask R-CNNシーンセグメンテーション(detectron2)を用いて,物体位置のマーカーに頼らず,既知の物体の外観を必要としない自律的高速空中把握システムを提案する。
分割画像と深度カメラからの空間情報とを組み合わせることで,検出対象の濃密点雲を生成し,形状に基づく把握計画を行い,対象物の把握点を決定する。
本システムでは,実世界における動的把持空中プラットフォーム実験において,ベースライン把持成功率の94.5%までの物体位置推定のためのモーションキャプチャシステムの性能を再現できることを示した。
本研究は,空飛ぶプラットフォームを用いた幾何学的把持技術の最初の使用例を示し,既存の航空操作プラットフォームの自律性向上を目標とし,倉庫等における実世界の応用に向けた。
関連論文リスト
- Enhancing Autonomous Navigation by Imaging Hidden Objects using Single-Photon LiDAR [12.183773707869069]
単一光子LiDARを用いたNon-Line-of-Sight(NLOS)センシングによる視認性の向上と自律ナビゲーションの向上を目的とした新しいアプローチを提案する。
本手法は,マルチバウンス光情報を利用することで,移動ロボットを「隅々まで見る」ことを可能にする。
論文 参考訳(メタデータ) (2024-10-04T16:03:13Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - FlowBot3D: Learning 3D Articulation Flow to Manipulate Articulated Objects [14.034256001448574]
そこで本研究では,様々な物体の潜在的な動きを学習して予測する視覚ベースシステムを提案する。
我々は,このベクトル場に基づく解析的運動プランナを配置し,最大調音を与えるポリシを実現する。
その結果,本システムは実世界のシミュレーション実験と実世界実験の両方において,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-05-09T15:35:33Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Multi-Object Tracking with Deep Learning Ensemble for Unmanned Aerial
System Applications [0.0]
多目的追跡(MOT)は、軍事防衛分野における状況認識の重要な構成要素である。
本稿では,リアルタイムな状況下での騒音に対応するために,頑健なオブジェクト追跡アーキテクチャを提案する。
本稿では,遅延空間における実体軌道の予測にシーケンス・ツー・シーケンス・アーキテクチャを用いる,Deep Extended Kalman Filter (DeepEKF) と呼ばれるキネマティックな予測モデルを提案する。
論文 参考訳(メタデータ) (2021-10-05T13:50:38Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。