論文の概要: Neural Network Based Lidar Gesture Recognition for Realtime Robot
Teleoperation
- arxiv url: http://arxiv.org/abs/2109.08263v1
- Date: Fri, 17 Sep 2021 00:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 14:28:43.041336
- Title: Neural Network Based Lidar Gesture Recognition for Realtime Robot
Teleoperation
- Title(参考訳): ニューラルネットワークを用いたリアルタイムロボット遠隔操作のためのライダージェスチャー認識
- Authors: Simon Chamorro, Jack Collier, Fran\c{c}ois Grondin
- Abstract要約: 移動ロボット制御のための低複雑さライダージェスチャー認識システムを提案する。
このシステムは軽量で、限られた計算能力を持つ移動ロボット制御に適している。
ライダーの使用はシステムの堅牢性に寄与し、ほとんどの屋外環境での運用を可能にしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel low-complexity lidar gesture recognition system for mobile
robot control robust to gesture variation. Our system uses a modular approach,
consisting of a pose estimation module and a gesture classifier. Pose estimates
are predicted from lidar scans using a Convolutional Neural Network trained
using an existing stereo-based pose estimation system. Gesture classification
is accomplished using a Long Short-Term Memory network and uses a sequence of
estimated body poses as input to predict a gesture. Breaking down the pipeline
into two modules reduces the dimensionality of the input, which could be lidar
scans, stereo imagery, or any other modality from which body keypoints can be
extracted, making our system lightweight and suitable for mobile robot control
with limited computing power. The use of lidar contributes to the robustness of
the system, allowing it to operate in most outdoor conditions, to be
independent of lighting conditions, and for input to be detected 360 degrees
around the robot. The lidar-based pose estimator and gesture classifier use
data augmentation and automated labeling techniques, requiring a minimal amount
of data collection and avoiding the need for manual labeling. We report
experimental results for each module of our system and demonstrate its
effectiveness by testing it in a real-world robot teleoperation setting.
- Abstract(参考訳): 動作変動に頑健な移動ロボット制御のための,低複雑さなライダージェスチャー認識システムを提案する。
本システムでは,ポーズ推定モジュールとジェスチャ分類器からなるモジュラーアプローチを採用している。
既存のステレオベースポーズ推定システムを用いて訓練された畳み込みニューラルネットワークを用いて、ライダースキャンからポーズ推定を推定する。
ジェスチャー分類はLong Short-Term Memory Networkを用いて行われ、推定された身体ポーズのシーケンスを入力としてジェスチャーを予測する。
パイプラインを2つのモジュールに分割することで,ライダースキャンやステレオ画像,あるいはボディキーポイントを抽出できる任意のモダリティといった,入力の次元性が低減される。
lidarの使用はシステムの堅牢性に寄与し、ほとんどの屋外環境で動作し、照明条件とは無関係であり、ロボットの周囲360度の入力を検出することができる。
lidarベースのポーズ推定器とジェスチャー分類器は、データ拡張と自動ラベリング技術を使用し、最小限のデータ収集を必要とし、手動ラベリングの必要性を避ける。
本システムの各モジュールについて実験結果を報告し,実世界のロボット遠隔操作環境でテストすることでその効果を実証する。
関連論文リスト
- Modular Neural Network Policies for Learning In-Flight Object Catching
with a Robot Hand-Arm System [55.94648383147838]
本稿では,ロボットハンドアームシステムによる飛行物体の捕獲方法の学習を可能にするモジュラーフレームワークを提案する。
本フレームワークは,物体の軌跡予測を学習するオブジェクト状態推定器,(ii)捕捉対象のポーズのスコアとランク付けを学ぶキャッチポーズ品質ネットワーク,(iii)ロボットハンドをキャッチ前ポーズに移動させるように訓練されたリーチ制御ポリシ,(iv)ソフトキャッチ動作を行うように訓練された把握制御ポリシの5つのコアモジュールから構成される。
各モジュールと統合システムのシミュレーションにおいて、我々のフレームワークを広範囲に評価し、飛行における高い成功率を示す。
論文 参考訳(メタデータ) (2023-12-21T16:20:12Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - A System for Traded Control Teleoperation of Manipulation Tasks using
Intent Prediction from Hand Gestures [20.120263332724438]
本稿では,ロボットの知覚と手の動きからの意図予測を含む遠隔操作システムを提案する。
知覚モジュールは、ロボットワークスペースに存在するオブジェクトと、ユーザが把握したいと思われるオブジェクトの意図予測モジュールを識別する。
論文 参考訳(メタデータ) (2021-07-05T07:37:17Z) - In-air Knotting of Rope using Dual-Arm Robot based on Deep Learning [8.365690203298966]
深層学習に基づく双腕二本指ロボットを用いて,ロープの空中結節を成功させた。
全ての対象状態に対応する適切なロボット動作のマニュアル記述を事前に作成することは困難である。
そこで我々は,ロボットに2つの深層ニューラルネットワークを訓練し,そのセンサモデレータから収集したデータに基づいてボクノットとオーバーハンドノットを行うよう指示するモデルを構築した。
論文 参考訳(メタデータ) (2021-03-17T02:11:58Z) - Counterfactual Explanation and Causal Inference in Service of Robustness
in Robot Control [15.104159722499366]
我々は「事象AがCの代わりにBを引き起こすように変更できるか?」という形式の逆実数条件の生成モデルを訓練するためのアーキテクチャを提案する。
従来の制御設計手法とは対照的に、ノイズを除去する能力の観点から頑健さを定量化する手法では、ある要件に違反する可能性のある反事実の空間を探索する。
論文 参考訳(メタデータ) (2020-09-18T14:22:47Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Learning a generative model for robot control using visual feedback [7.171234436165255]
本稿では,ロボット制御に視覚フィードバックを取り入れた新しい定式化を提案する。
モデルにおける推論により,特徴のターゲット位置に対応するロボット状態を推測することができる。
本研究では,不正確な制御を行うロボットに対して,握りとタイトな挿入を実行することで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-03-10T00:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。