論文の概要: Integration of Vision-based Object Detection and Grasping for
Articulated Manipulator in Lunar Conditions
- arxiv url: http://arxiv.org/abs/2309.01055v1
- Date: Sun, 3 Sep 2023 02:18:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 23:26:07.298256
- Title: Integration of Vision-based Object Detection and Grasping for
Articulated Manipulator in Lunar Conditions
- Title(参考訳): 月環境における関節マニピュレータの視覚に基づく物体検出と把持の融合
- Authors: Camille Boucher, Gustavo H. Diaz, Shreya Santra, Kentaro Uno, and
Kazuya Yoshida
- Abstract要約: 本稿では,オブジェクト検出,インスタンスセグメンテーション,グリップ検出を用いた汎用タスクパイプラインを提案する。
難しい照明条件下では, 岩盤上に岩盤を積み重ねる作業が可能であり, 成功率は92%であった。
- 参考スコア(独自算出の注目度): 2.8311497176067104
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The integration of vision-based frameworks to achieve lunar robot
applications faces numerous challenges such as terrain configuration or extreme
lighting conditions. This paper presents a generic task pipeline using object
detection, instance segmentation and grasp detection, that can be used for
various applications by using the results of these vision-based systems in a
different way. We achieve a rock stacking task on a non-flat surface in
difficult lighting conditions with a very good success rate of 92%. Eventually,
we present an experiment to assemble 3D printed robot components to initiate
more complex tasks in the future.
- Abstract(参考訳): 月面ロボットアプリケーションを実現するためのビジョンベースのフレームワークの統合は、地形構成や極端な照明条件といった多くの課題に直面している。
本稿では,オブジェクト検出,インスタンス分割,把握検出を用いた汎用タスクパイプラインを提案する。
難しい照明条件下では, 岩盤上に岩盤を積み重ねる作業が可能であり, 成功率は92%であった。
最終的には、3Dプリントされたロボット部品を組み立て、より複雑なタスクを将来的に開始する実験を行う。
関連論文リスト
- MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes [49.21187418886508]
本論文は,モノTDP(MonoTDP)と呼ばれる悪シーンにおける2つの深度を知覚するモノクル3次元検出モデルを提案する。
まず、制御不能な気象条件を扱うモデルを支援するための適応学習戦略を導入し、様々な劣化要因による劣化を著しく抑制する。
そこで本研究では, シーン深度と物体深度を同時に推定する新たな2つの深度認識モジュールを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:42:02Z) - Tracking through Containers and Occluders in the Wild [32.86030395660071]
重い閉塞と封じ込めによる視覚追跡のための新しいベンチマークとモデルである$textbfTCOW$を紹介した。
我々は、教師付き学習とモデル性能の構造化評価の両方をサポートするために、合成データセットと注釈付き実データセットの混合を作成する。
最近の2つのトランスフォーマーベースビデオモデルを評価し,タスク変動の特定の設定下でターゲットを驚くほど追跡できるが,トラッキングモデルが真のオブジェクト永続性(permanence)の概念を獲得したと主張するまでには,かなりの性能差が残っていることを発見した。
論文 参考訳(メタデータ) (2023-05-04T17:59:58Z) - RREx-BoT: Remote Referring Expressions with a Bag of Tricks [19.036557405184656]
本研究では,未観測環境における物体の探索に視覚言語スコアリングモデルを用いる方法を示す。
私たちは、我々のモデルを現実世界のTurtleBotプラットフォーム上でデモし、このアプローチの単純さと有用性を強調します。
本分析では,3次元座標と文脈の利用から,視覚言語モデルから大規模3次元検索空間への一般化に至るまで,この課題を達成する上で不可欠な「トリックの袋」を概説する。
論文 参考訳(メタデータ) (2023-01-30T02:19:19Z) - Boulders Identification on Small Bodies Under Varying Illumination
Conditions [0.0]
小天体の表面におけるボルダーの検出能力は、臨界操作中のナビゲーションやハザード検出といった視覚ベースの応用に有用である。
この課題は、不規則な形状の広範化、岩盤群の特徴、照明条件の急激な変動により困難である。
筆者らは,小体の表面に散らばる岩盤を頑健に検出し,セグメント化するための,データ駆動画像処理パイプラインを開発した。
論文 参考訳(メタデータ) (2022-10-28T17:22:46Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - PEGG-Net: Pixel-Wise Efficient Grasp Generation in Complex Scenes [7.907697609965681]
本研究では,既存の平面グリップ推定アルゴリズムについて検討し,複雑な場面における課題を解析する。
複雑な場面で把握する問題に対処するため,Pixel-wise Efficient Grasp Generation Network (PEGG-Net) を設計する。
PEGG-Netはコーネルデータセット(98.9%)の最先端性能とジャカードデータセット(93.8%)の2番目に高いパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2022-03-30T13:44:19Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。