論文の概要: GraspLook: a VR-based Telemanipulation System with R-CNN-driven
Augmentation of Virtual Environment
- arxiv url: http://arxiv.org/abs/2110.12518v1
- Date: Sun, 24 Oct 2021 19:50:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 18:21:44.346877
- Title: GraspLook: a VR-based Telemanipulation System with R-CNN-driven
Augmentation of Virtual Environment
- Title(参考訳): grablook:r-cnnによる仮想環境の強化によるvrベーステレマニピュレーションシステム
- Authors: Polina Ponomareva, Daria Trinitatova, Aleksey Fedoseev, Ivan Kalinov,
Dzmitry Tsetserukou
- Abstract要約: 本稿では,拡張仮想環境に基づく遠隔操作システムを提案する。
開発システムでは,ロボットをよりスムーズに操作でき,タスク実行時間が短縮される。
- 参考スコア(独自算出の注目度): 3.7003629688390896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The teleoperation of robotic systems in medical applications requires stable
and convenient visual feedback for the operator. The most accessible approach
to delivering visual information from the remote area is using cameras to
transmit a video stream from the environment. However, such systems are
sensitive to the camera resolution, limited viewpoints, and cluttered
environment bringing additional mental demands to the human operator. The paper
proposes a novel system of teleoperation based on an augmented virtual
environment (VE). The region-based convolutional neural network (R-CNN) is
applied to detect the laboratory instrument and estimate its position in the
remote environment to display further its digital twin in the VE, which is
necessary for dexterous telemanipulation. The experimental results revealed
that the developed system allows users to operate the robot smoother, which
leads to a decrease in task execution time when manipulating test tubes. In
addition, the participants evaluated the developed system as less mentally
demanding (by 11%) and requiring less effort (by 16%) to accomplish the task
than the camera-based teleoperation approach and highly assessed their
performance in the augmented VE. The proposed technology can be potentially
applied for conducting laboratory tests in remote areas when operating with
infectious and poisonous reagents.
- Abstract(参考訳): 医療応用におけるロボットシステムの遠隔操作は、オペレーターにとって安定的で便利な視覚フィードバックを必要とする。
遠隔地から視覚情報を配信する最もアクセスしやすいアプローチは、カメラを使用して環境からビデオストリームを送信することである。
しかし、このようなシステムはカメラの解像度、視点の制限、乱雑な環境に敏感であり、人間のオペレーターにさらなる精神的な要求をもたらす。
本稿では,拡張仮想環境(ve)に基づく新しい遠隔操作システムを提案する。
領域ベースの畳み込みニューラルネットワーク(r-cnn)を用いて、実験機器を検出し、遠隔環境におけるその位置を推定し、そのデジタル双生児をveに表示させる。
実験結果から,ロボットをよりスムーズに動作させることで,試験管操作時のタスク実行時間を短縮できることがわかった。
また, 被験者は, 開発したシステムを, カメラを用いた遠隔操作手法よりも, 精神的要求の少ないもの(11%) と, 作業に要する労力の少ないもの(16%) と評価し, 拡張veの性能を高く評価した。
提案技術は,感染性および有毒の試薬を用いた遠隔地実験に応用できる可能性がある。
関連論文リスト
- AnyTeleop: A General Vision-Based Dexterous Robot Arm-Hand Teleoperation System [51.48191418148764]
ビジョンベースの遠隔操作は、人間レベルの知性をロボットに与え、環境と対話させる。
現在のビジョンベースの遠隔操作システムは、特定のロボットモデルとデプロイ環境に向けて設計・設計されている。
我々は、複数の異なる腕、手、現実、カメラ構成を単一のシステム内でサポートする、統一的で汎用的な遠隔操作システムであるAnyTeleopを提案する。
論文 参考訳(メタデータ) (2023-07-10T14:11:07Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Deep Multi-Emitter Spectrum Occupancy Mapping that is Robust to the
Number of Sensors, Noise and Threshold [32.880113150521154]
スペクトル占有マッピングの主な目的の1つは、センサー数、占有閾値(dBm)、センサノイズ、エミッタ数、伝播環境に関する仮定に頑健なシステムを作ることである。
このようなシステムは、トレーニングやテスト中に様々なセンサーを利用できるように、アグリゲーションのプロセスを用いてニューラルネットワークで設計される可能性がある。
論文 参考訳(メタデータ) (2022-11-27T14:08:11Z) - Virtual Reality via Object Poses and Active Learning: Realizing
Telepresence Robots with Aerial Manipulation Capabilities [39.29763956979895]
本稿では,動的・非構造環境下での空中操作を進展させる新しいテレプレゼンスシステムを提案する。
提案システムは触覚デバイスだけでなく、ロボットのワークスペースのリアルタイム3Dディスプレイを提供する仮想現実(VR)インターフェースも備えている。
DLRケーブル・サスペンド・エアリアルマニピュレータ(SAM)によるピック・アンド・プレイス、フォース・アプリケーション、ペグ・イン・ホールの70以上の堅牢な実行を示す。
論文 参考訳(メタデータ) (2022-10-18T08:42:30Z) - Optical flow-based branch segmentation for complex orchard environments [73.11023209243326]
シミュレーションでは、シミュレーションでは、シミュレーションされたRGBデータと光フローのみを用いてニューラルネットワークシステムを訓練する。
このニューラルネットワークは、忙しい果樹園環境において、追加の現実世界のトレーニングや、標準カメラ以外の特別な設定や機器を使用することなく、前景の枝のセグメンテーションを行うことができる。
その結果,本システムは高精度であり,手動ラベル付きRGBDデータを用いたネットワークと比較すると,トレーニングセットと異なる環境において,より一貫性と堅牢性を実現していることがわかった。
論文 参考訳(メタデータ) (2022-02-26T03:38:20Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - AEGIS: A real-time multimodal augmented reality computer vision based
system to assist facial expression recognition for individuals with autism
spectrum disorder [93.0013343535411]
本稿では,コンピュータビジョンと深部畳み込みニューラルネットワーク(CNN)を組み合わせたマルチモーダル拡張現実(AR)システムの開発について述べる。
提案システムはAIGISと呼ばれ,タブレット,スマートフォン,ビデオ会議システム,スマートグラスなど,さまざまなユーザデバイスにデプロイ可能な支援技術である。
我々は空間情報と時間情報の両方を活用して正確な表現予測を行い、それを対応する可視化に変換し、元のビデオフレーム上に描画する。
論文 参考訳(メタデータ) (2020-10-22T17:20:38Z) - Detection and Localization of Robotic Tools in Robot-Assisted Surgery
Videos Using Deep Neural Networks for Region Proposal and Detection [30.042965489804356]
本稿では,RASビデオ理解におけるツール検出と局所化の解法を提案する。
本稿では,マルチモーダル畳み込みニューラルネットワークを用いたRASビデオにおけるツールの高速検出とローカライズのためのアーキテクチャを提案する。
平均精度91%, 平均時間0.1秒で測定した結果, 従来の医用画像撮影法よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-07-29T10:59:15Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z) - A Markerless Deep Learning-based 6 Degrees of Freedom PoseEstimation for
with Mobile Robots using RGB Data [3.4806267677524896]
本稿では,拡張現実デバイス上でリアルタイムな3Dオブジェクトローカライゼーションを実現するために,アートニューラルネットワークの状態をデプロイする手法を提案する。
本研究では,2次元入力のみを用いて物体の3次元ポーズを高速かつ正確に抽出する高速な2次元検出手法に着目する。
2D画像の6Dアノテーションとして,私たちの知る限り,最初のオープンソースツールであるアノテーションツールを開発した。
論文 参考訳(メタデータ) (2020-01-16T09:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。