論文の概要: Tethered Aerial Visual Assistance
- arxiv url: http://arxiv.org/abs/2001.06347v1
- Date: Wed, 15 Jan 2020 06:41:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 07:16:22.503314
- Title: Tethered Aerial Visual Assistance
- Title(参考訳): テザード空中視覚支援
- Authors: Xuesu Xiao, Jan Dufek, Robin R. Murphy
- Abstract要約: 無人有人無人航空機(UAV)は、有人ロボットチームで視覚アシスタントとして開発されている。
基本的視点品質理論、形式的リスク推論フレームワーク、および新たに開発されたテザリングモーションスイートを用いて、視覚アシスタントは、高品質な視点に自律的にナビゲートすることができる。
開発された有人ロボットチームは、核作戦、爆弾部隊、災害ロボット、その他の領域での遠隔操作効率を向上させることができる。
- 参考スコア(独自算出の注目度): 5.237054164442403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, an autonomous tethered Unmanned Aerial Vehicle (UAV) is
developed into a visual assistant in a marsupial co-robots team, collaborating
with a tele-operated Unmanned Ground Vehicle (UGV) for robot operations in
unstructured or confined environments. These environments pose extreme
challenges to the remote tele-operator due to the lack of sufficient
situational awareness, mostly caused by the unstructuredness and confinement,
stationary and limited field-of-view and lack of depth perception from the
robot's onboard cameras. To overcome these problems, a secondary tele-operated
robot is used in current practices, who acts as a visual assistant and provides
external viewpoints to overcome the perceptual limitations of the primary
robot's onboard sensors. However, a second tele-operated robot requires extra
manpower and teamwork demand between primary and secondary operators. The
manually chosen viewpoints tend to be subjective and sub-optimal. Considering
these intricacies, we develop an autonomous tethered aerial visual assistant in
place of the secondary tele-operated robot and operator, to reduce human robot
ratio from 2:2 to 1:2. Using a fundamental viewpoint quality theory, a formal
risk reasoning framework, and a newly developed tethered motion suite, our
visual assistant is able to autonomously navigate to good-quality viewpoints in
a risk-aware manner through unstructured or confined spaces with a tether. The
developed marsupial co-robots team could improve tele-operation efficiency in
nuclear operations, bomb squad, disaster robots, and other domains with novel
tasks or highly occluded environments, by reducing manpower and teamwork
demand, and achieving better visual assistance quality with trustworthy
risk-aware motion.
- Abstract(参考訳): 本稿では,自律結合型無人航空機 (uav) をmarsupial co-robotsチームで視覚アシスタントとして開発し,非構造環境や制約環境におけるロボット操作のための遠隔操作型無人地上機 (ugv) と協調する。
これらの環境は、十分な状況認識の欠如、主に非構造性と閉じ込め、静止視野と限定視野、ロボット搭載カメラからの奥行き認識の欠如によって、遠隔遠隔操作者に極端な課題をもたらす。
これらの問題を解決するために、二次遠隔操作ロボットは、視覚アシスタントとして機能し、一次ロボットの搭載センサーの知覚的限界を克服するための外部視点を提供する現在のプラクティスで使用される。
しかし、第2の遠隔操作ロボットは、一次オペレーターと二次オペレーターの間の余分なマンパワーとチームワーク要求を必要とする。
手動で選択された視点は主観的かつ準最適である傾向がある。
これらの複雑さを考慮すると,遠隔操作ロボットとオペレータの代わりに自律的テザリング型空中視覚アシスタントを開発し,ロボットの比率を2:2から1:2に下げる。
視覚アシスタントは,基本的視点品質理論,形式的リスク推論フレームワーク,および新たに開発されたテザリング・モーション・スイートを用いて,非構造的あるいは制限的空間をテザ付きで自律的に品質の高い視点にナビゲートすることができる。
開発した有人ロボットチームは、人力とチームワークの需要を減らし、信頼性の高いリスク対応動作でより良い視覚支援品質を達成することで、核作戦、爆弾部隊、災害ロボット、その他の新しいタスクや高い環境を持つ領域での遠隔操作効率を向上させることができる。
関連論文リスト
- Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Open-TeleVision: Teleoperation with Immersive Active Visual Feedback [17.505318269362512]
Open-TeleVisionは、オペレーターが立体的にロボットの周囲を積極的に知覚することを可能にする。
このシステムは操作者の腕と手の動きをロボットに反映し、没入感のある体験を作り出す。
本システムの有効性は,長期的かつ正確な4つの課題に対して,データ収集と模倣学習ポリシーの訓練によって検証する。
論文 参考訳(メタデータ) (2024-07-01T17:55:35Z) - Amplifying robotics capacities with a human touch: An immersive
low-latency panoramic remote system [16.97496024217201]
アバター (Avatar) システムは, 没入型低遅延パノラマロボットインタラクションプラットフォームである。
良好なネットワーク条件下では,357msの遅延で低遅延高精細パノラマ視体験を達成できた。
このシステムは、キャンパス、州、国、大陸にまたがる広大な物理的な距離を遠隔操作できる。
論文 参考訳(メタデータ) (2024-01-07T06:55:41Z) - AnyTeleop: A General Vision-Based Dexterous Robot Arm-Hand Teleoperation System [51.48191418148764]
ビジョンベースの遠隔操作は、人間レベルの知性をロボットに与え、環境と対話させる。
現在のビジョンベースの遠隔操作システムは、特定のロボットモデルとデプロイ環境に向けて設計・設計されている。
我々は、複数の異なる腕、手、現実、カメラ構成を単一のシステム内でサポートする、統一的で汎用的な遠隔操作システムであるAnyTeleopを提案する。
論文 参考訳(メタデータ) (2023-07-10T14:11:07Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Marvin: Innovative Omni-Directional Robotic Assistant for Domestic
Environments [0.0]
モジュラー層をベースとしたアーキテクチャで開発した新しい補助ロボットであるMarvinを紹介した。
自律走行が可能な4つのメカナムホイールを備えた全方向プラットフォームを提案する。
視覚的知覚、人物のポーズの分類、音声コマンドのためのディープラーニングソリューションは、ロボットの組み込みハードウェア上で完全に実行される。
論文 参考訳(メタデータ) (2021-12-10T15:27:53Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - An Embarrassingly Pragmatic Introduction to Vision-based Autonomous
Robots [0.0]
視覚情報のみを用いてシーンを理解できる小型の自律走行車を開発した。
我々は、ロボットと自動運転の現在の状況と、この分野で見られる技術的、倫理的制約について論じる。
論文 参考訳(メタデータ) (2021-11-15T01:31:28Z) - OpenBot: Turning Smartphones into Robots [95.94432031144716]
現在のロボットは高価か、感覚豊かさ、計算能力、通信能力に重大な妥協をもたらす。
我々はスマートフォンを活用して、センサースイート、強力な計算能力、最先端通信チャネル、繁栄するソフトウェアエコシステムへのアクセスなどを備えたロボットを装備することを提案する。
われわれは50ドルの小型電気自動車を設計し、標準のAndroidスマートフォンのロボットボディとして機能する。
論文 参考訳(メタデータ) (2020-08-24T18:04:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。