論文の概要: Robotic Grasping of Fully-Occluded Objects using RF Perception
- arxiv url: http://arxiv.org/abs/2012.15436v1
- Date: Thu, 31 Dec 2020 04:01:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 17:02:25.555296
- Title: Robotic Grasping of Fully-Occluded Objects using RF Perception
- Title(参考訳): RF知覚を用いた完全付加物体のロボットグラスピング
- Authors: Tara Boroushaki, Junshan Leng, Ian Clester, Alberto Rodriguez, Fadel
Adib
- Abstract要約: RF-Graspは、非構造環境において、完全に隠された物体を把握できるロボットシステムである。
RF-Graspは、アイインハンドカメラと、関心のあるオブジェクトに添付されたバッテリーレスRFIDタグに依存します。
- 参考スコア(独自算出の注目度): 18.339320861642722
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present the design, implementation, and evaluation of RF-Grasp, a robotic
system that can grasp fully-occluded objects in unknown and unstructured
environments. Unlike prior systems that are constrained by the line-of-sight
perception of vision and infrared sensors, RF-Grasp employs RF (Radio
Frequency) perception to identify and locate target objects through occlusions,
and perform efficient exploration and complex manipulation tasks in
non-line-of-sight settings.
RF-Grasp relies on an eye-in-hand camera and batteryless RFID tags attached
to objects of interest. It introduces two main innovations: (1) an RF-visual
servoing controller that uses the RFID's location to selectively explore the
environment and plan an efficient trajectory toward an occluded target, and (2)
an RF-visual deep reinforcement learning network that can learn and execute
efficient, complex policies for decluttering and grasping.
We implemented and evaluated an end-to-end physical prototype of RF-Grasp and
a state-of-the-art baseline. We demonstrate it improves success rate and
efficiency by up to 40-50% in cluttered settings. We also demonstrate RF-Grasp
in novel tasks such mechanical search of fully-occluded objects behind
obstacles, opening up new possibilities for robotic manipulation.
- Abstract(参考訳): 本稿では,未知および非構造環境における完全閉塞物体を把握可能なロボットシステムrf-graspの設計,実装,評価について述べる。
視線と赤外線センサーの視線知覚に制約される従来のシステムとは異なり、RF-GraspはRF(Radio Frequency)の知覚を用いて、オクルージョンを通して対象物を識別し、特定し、非視線設定で効率的な探索と複雑な操作を行う。
RF-Graspは、目玉カメラと、興味のある物体に装着されたバッテリーレスRFIDタグに依存している。
1)RFIDの位置を利用して環境を選択的に探索し、隠蔽対象に向かって効率的な軌道を計画するRF視覚サーボ制御と,2)効果的かつ複雑な解離・把握ポリシーを学習・実行可能なRF視覚深部強化学習ネットワークである。
RF-Graspのプロトタイプと最先端のベースラインを実装,評価した。
乱雑な設定で成功率と効率を最大40~50%向上させることを示した。
また,障害物の背後の物体を機械的に探索し,ロボット操作の新たな可能性を開くなど,新たな課題としてrf-graspを提示する。
関連論文リスト
- RF-Annotate: Automatic RF-Supervised Image Annotation of Common Objects
in Context [0.25019493958767397]
ワイヤレスタグは、小売商品、食品、薬品、衣服、書籍、文書、鍵、機器など、一般的な商品の追跡や識別にますます利用されている。
本稿では,自律的画素画像アノテーションのためのパイプラインRF-Annotateについて述べる。
論文 参考訳(メタデータ) (2022-11-16T11:25:38Z) - GraspNeRF: Multiview-based 6-DoF Grasp Detection for Transparent and
Specular Objects Using Generalizable NeRF [7.47805672405939]
本稿では,マルチビューRGBベースの6-DoFグリップ検出ネットワークGraspNeRFを提案する。
既存のNeRFベースの3-DoFグリップ検出手法と比較して,RGB入力の少ないゼロショットNeRF構成を実現し,リアルタイムに6-DoFグリップを確実に検出できる。
学習データには, 散らばったテーブルトップシーンで把握する大規模フォトリアリスティックなドメインランダム化合成データセットを生成する。
論文 参考訳(メタデータ) (2022-10-12T20:31:23Z) - NeRF-Loc: Transformer-Based Object Localization Within Neural Radiance
Fields [62.89785701659139]
我々は,NeRFシーン内の物体の3次元境界ボックスを抽出するトランスフォーマーベースのフレームワークNeRF-Locを提案する。
NeRF-Locは、事前訓練されたNeRFモデルとカメラビューを入力として、オブジェクトのラベル付き3Dバウンディングボックスを出力として生成する。
論文 参考訳(メタデータ) (2022-09-24T18:34:22Z) - Radar Guided Dynamic Visual Attention for Resource-Efficient RGB Object
Detection [10.983063391496543]
自動運転車の認識品質を向上させるために,RGB画像に対する新しいレーダー誘導空間アテンションを提案する。
提案手法は,RGBモードの物体検出装置では検出されない小型・長距離物体の知覚を改善する。
論文 参考訳(メタデータ) (2022-06-03T18:29:55Z) - NeRF-Supervision: Learning Dense Object Descriptors from Neural Radiance
Fields [54.27264716713327]
シーンのニューラル・ラジアンス・フィールド(NeRF)表現は,高密度物体記述子の訓練に利用できることを示す。
我々は、最適化されたNeRFを用いて、オブジェクトの複数のビュー間の密接な対応を抽出し、これらの対応を、オブジェクトのビュー不変表現を学習するためのトレーニングデータとして使用する。
また,本手法により教師されたディエンス対応モデルは,市販の学習ディスクリプタよりも106%優れていた。
論文 参考訳(メタデータ) (2022-03-03T18:49:57Z) - RF-Net: a Unified Meta-learning Framework for RF-enabled One-shot Human
Activity Recognition [9.135311655929366]
デバイスフリー(または非接触)センシングは、デバイスベース(またはウェアラブル)センシングよりも環境変化に敏感である。
RF-HARの既存のソリューションは、新しい環境に適応するための努力的なデータ収集プロセスを必要とする。
本稿では,1ショットのRF-HARに対するメタラーニングに基づくアプローチとしてRF-Netを提案する。
論文 参考訳(メタデータ) (2021-10-29T01:58:29Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - Spectro-Temporal RF Identification using Deep Learning [3.8137985834223507]
WRISTは、分光時間検出、フレームワーク、システムを備えた広帯域リアルタイムRF識別システムである。
得られたディープラーニングモデルは、時間と周波数のRF放射を検出し、分類し、正確に検出することができる。
WRIST検出器は、野生の非常に密集した環境でも平均的な平均精度が90に達する。
論文 参考訳(メタデータ) (2021-07-11T19:02:07Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。