論文の概要: Augmented Reality in Service of Human Operations on the Moon: Insights
from a Virtual Testbed
- arxiv url: http://arxiv.org/abs/2303.10686v1
- Date: Sun, 19 Mar 2023 15:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 17:56:44.540521
- Title: Augmented Reality in Service of Human Operations on the Moon: Insights
from a Virtual Testbed
- Title(参考訳): 月面における人間の操作サービスにおける拡張現実:バーチャルテストベッドからの洞察
- Authors: Leonie Becker, Tommy Nilsson, Paul Topf Aguiar de Medeiros, Flavie
Rometsch
- Abstract要約: 最初の6名の被験者による定性的反射に基づく検討を行った。
ARは、ナビゲーションのサポートやリスク認識など、いくつかのユースケースで有効であることが判明した。
冗長性の重要性やコンテキスト的適切性など、主要な設計上の課題も同様に特定された。
- 参考スコア(独自算出の注目度): 1.8638865257327277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Future astronauts living and working on the Moon will face extreme
environmental conditions impeding their operational safety and performance.
While it has been suggested that Augmented Reality (AR) Head-Up Displays (HUDs)
could potentially help mitigate some of these adversities, the applicability of
AR in the unique lunar context remains underexplored. To address this
limitation, we have produced an accurate representation of the lunar setting in
virtual reality (VR) which then formed our testbed for the exploration of
prospective operational scenarios with aerospace experts. Herein we present
findings based on qualitative reflections made by the first 6 study
participants. AR was found instrumental in several use cases, including the
support of navigation and risk awareness. Major design challenges were likewise
identified, including the importance of redundancy and contextual
appropriateness. Drawing on these findings, we conclude by outlining directions
for future research aimed at developing AR-based assistive solutions tailored
to the lunar setting.
- Abstract(参考訳): 将来の宇宙飛行士は、運用上の安全性と性能を損なう極端な環境条件に直面するだろう。
拡張現実(ar)ヘッドアップディスプレイ(hud)は、こうした逆境を緩和する可能性があると示唆されているが、ユニークな月の文脈におけるarの適用性は未検討のままである。
この制限に対処するため、我々はvr(virtual reality)における月面設定の正確な表現を作成し、航空宇宙の専門家による今後の運用シナリオの探索のためのテストベッドを形成しました。
そこで本研究では,最初の6名の被験者による定性的反射に基づく実験を行った。
arはナビゲーションやリスク認識のサポートなど、いくつかのユースケースで有用であることが判明した。
冗長性の重要性やコンテキスト的適切性など、主要な設計上の課題も同様に特定された。
これらの結果を踏まえ、月面に合わせたarベースのアシストソリューションの開発に向けた今後の研究の方向性を概説する。
関連論文リスト
- Foundation Models for Remote Sensing and Earth Observation: A Survey [101.77425018347557]
本調査は、リモートセンシング基礎モデル(RSFM)の新しい分野を体系的にレビューする。
モチベーションと背景の概要から始まり、続いて基本概念が導入された。
我々はこれらのモデルを公開データセットと比較し、既存の課題について議論し、今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2024-10-22T01:08:21Z) - Computer vision tasks for intelligent aerospace missions: An overview [10.929595257238548]
コンピュータビジョンタスクは、宇宙船が宇宙環境を理解し、解釈するのを助けるため、航空宇宙ミッションにとって不可欠である。
Kalman FilteringやStructure from Motion、Multi-View Stereoといった従来の手法は、厳しい条件を扱うのに十分な堅牢性を持っていない。
深層学習(DL)に基づく知覚技術は、従来の手法よりも大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-07-09T02:50:54Z) - Using Virtual Reality to Shape Humanity's Return to the Moon: Key
Takeaways from a Design Study [1.320520802560207]
本稿では,実験室環境におけるアナログ研究をシミュレーションするためのVR(Virtual Reality)の可能性について検討する。
われわれは、宇宙飛行士と宇宙の専門家のグループがVRで月面運用シナリオを再現した。
論文 参考訳(メタデータ) (2023-03-01T17:19:48Z) - SpaceYOLO: A Human-Inspired Model for Real-time, On-board Spacecraft
Feature Detection [0.0]
衝突の危険箇所を特定するためには、リアルタイムで自動的な宇宙船の特徴認識が必要である。
新しいアルゴリズムSpaceYOLOは、最先端のオブジェクト検出器YOLOv5を、人間にインスパイアされた意思決定プロセスに基づいて、別個のニューラルネットワークで融合する。
SpaceYOLOの自律型宇宙船検出の性能は、ハードウェア・イン・ザ・ループ実験において通常のYOLOv5と比較される。
論文 参考訳(メタデータ) (2023-02-02T02:11:39Z) - Exploring Event Camera-based Odometry for Planetary Robots [39.46226359115717]
イベントカメラは、将来の火星のヘリコプターミッションで視覚に基づく探査を可能にするためのセンサーになる見込みだ。
既存のイベントベースのビジュアル慣性オドメトリー(VIO)アルゴリズムは、高いトラッキングエラーに悩まされるか、脆弱である。
EKLT-VIOは,最先端のイベントベースとフィルタベースのバックエンドを組み合わせることで,両方の制約に対処する。
論文 参考訳(メタデータ) (2022-04-12T15:19:50Z) - Going Deeper into Recognizing Actions in Dark Environments: A
Comprehensive Benchmark Study [35.53075596912581]
暗黒環境における行動認識は、夜間の監視や自律運転といった分野に適用することができる。
夜間の監視や自動運転といった分野に適用可能な暗黒環境における行動認識の課題に焦点をあてる。
UG2+ Challenge Track 2 (UG2-2) をIEEE CVPR 2021でローンチし、暗黒環境でのARモデルの堅牢性の評価と向上を目的としている。
論文 参考訳(メタデータ) (2022-02-19T07:51:59Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - A survey on applications of augmented, mixed and virtual reality for
nature and environment [114.4879749449579]
拡張現実(AR)、仮想現実(VR)、複合現実(MR)は、彼らが提供できるエンゲージメントとエンリッチな体験のために、大きな潜在能力を持つ技術である。
しかし、環境応用の分野でAR、VR、MRがもたらす可能性はまだ広く研究されていない。
本研究は,環境に有利な既存のAR/VR/MRアプリケーションを発見・分類したり,環境問題に対する意識を高めることを目的とした調査の結果を示す。
論文 参考訳(メタデータ) (2020-08-27T09:59:27Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - An Exploration of Embodied Visual Exploration [97.21890864063872]
身体的コンピュータビジョンは、新しい非構造環境におけるロボットに対する知覚を考慮に入れている。
既存の視覚探索アルゴリズムの分類を提示し、それらをベンチマークするための標準フレームワークを作成する。
次に,提案フレームワークを用いた4つの最先端パラダイムの徹底的な実証的研究を行った。
論文 参考訳(メタデータ) (2020-01-07T17:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。