論文の概要: Understanding Context to Capture when Reconstructing Meaningful Spaces
for Remote Instruction and Connecting in XR
- arxiv url: http://arxiv.org/abs/2301.09492v1
- Date: Mon, 23 Jan 2023 15:40:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 13:42:39.304578
- Title: Understanding Context to Capture when Reconstructing Meaningful Spaces
for Remote Instruction and Connecting in XR
- Title(参考訳): リモート命令とxr接続のための意味空間再構成時のキャプチャのためのコンテキスト理解
- Authors: Hanuma Teja Maddali and Amanda Lazar
- Abstract要約: この研究は、XRアプリケーションを非公式な教育シナリオに適用するために、再構築において重要な社会的文脈を理解することを目指している。
本研究は, 密接な庭師の8世代間グループによるXRリモートガイダンスプロトタイプの評価を行った。
ユーザの関与が現実世界の体験をよりよく翻訳し、リフレクションを奨励し、プライバシーの配慮を取り入れ、非公式な世代間活動の媒体としてXRとの共有体験を保存できる再構築を実現する上での意義について論じる。
- 参考スコア(独自算出の注目度): 15.362025549031049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent technological advances are enabling HCI researchers to explore
interaction possibilities for remote XR collaboration using high-fidelity
reconstructions of physical activity spaces. However, creating these
reconstructions often lacks user involvement with an overt focus on capturing
sensory context that does not necessarily augment an informal social
experience. This work seeks to understand social context that can be important
for reconstruction to enable XR applications for informal instructional
scenarios. Our study involved the evaluation of an XR remote guidance prototype
by 8 intergenerational groups of closely related gardeners using
reconstructions of personally meaningful spaces in their gardens. Our findings
contextualize physical objects and areas with various motivations related to
gardening and detail perceptions of XR that might affect the use of
reconstructions for remote interaction. We discuss implications for user
involvement to create reconstructions that better translate real-world
experience, encourage reflection, incorporate privacy considerations, and
preserve shared experiences with XR as a medium for informal intergenerational
activities.
- Abstract(参考訳): 近年の技術的進歩により、HCI研究者は身体活動空間の高忠実度再構成を用いて遠隔XRコラボレーションのための相互作用の可能性を探ることができる。
しかし、これらの再構築は、必ずしも非公式な社会的体験を増大させるとは限らない感覚的コンテキストを捉えることに、ユーザの関与を欠いていることが多い。
この研究は、XRアプリケーションを非公式な教育シナリオに適用するために、再構築において重要な社会的文脈を理解することを目指している。
本研究は, 庭に有意な空間を再現したXRリモート誘導プロトタイプについて, 8世代間グループによる評価を行った。
本研究は, 遠隔操作の再建に影響を及ぼす可能性のある, 園芸や XR の細部知覚に関連する様々な動機を持つ物理的対象や領域を文脈的に認識するものである。
我々は,現実世界の体験をより良く翻訳し,反省を促し,プライバシーを考慮し,非公式な世代間活動の媒体としてのxrとの共有体験を保存できるリコンストラクションを作成するためのユーザ関与の意味について論じる。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - A Systematic Review of Deep Learning-based Research on Radiology Report Generation [19.36297532792359]
ラジオグラフィーレポート生成(RRG)は、臨床ラジオグラフィーから自由テキスト記述を自動的に生成することを目的としている。
RRGの研究は過去半年で爆発的な成長を遂げている。
論文 参考訳(メタデータ) (2023-11-23T20:52:44Z) - Exploiting Spatial-Temporal Context for Interacting Hand Reconstruction
on Monocular RGB Video [104.69686024776396]
モノラルなRGBデータからインタラクションハンドを再構築することは、多くの干渉要因が伴うため、難しい作業である。
これまでの作業は、物理的に妥当な関係をモデル化することなく、単一のRGBイメージからの情報のみを活用する。
本研究は, 空間的時間的情報を明示的に活用し, より優れた対話的手指再建を実現することを目的としている。
論文 参考訳(メタデータ) (2023-08-08T06:16:37Z) - From Interactive to Co-Constructive Task Learning [13.493719155524404]
インタラクティブなタスク学習に関する現在の提案をレビューし、その主な貢献について論じる。
次に、共同構築の概念について議論し、成人とロボットの相互作用からの研究知見を要約する。
論文 参考訳(メタデータ) (2023-05-24T19:45:30Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - Meta-Referential Games to Learn Compositional Learning Behaviours [0.20482269513546458]
構成学習行動(CLB)の学習における中心的な問題は、結合問題(BP)の解決である。
本稿では,BPのドメインに依存しないバージョンを解くことにより,CLBを提示するエージェントの能力を調べるベンチマークを提案する。
我々は、我々のベンチマークが魅力的な課題であることを示すベースラインの結果とエラー分析を提供し、研究コミュニティがより有能な人工エージェントを開発するよう促すことを願っている。
論文 参考訳(メタデータ) (2022-07-16T20:37:46Z) - RobustFusion: Robust Volumetric Performance Reconstruction under
Human-object Interactions from Monocular RGBD Stream [27.600873320989276]
現実のシナリオでは、さまざまなオブジェクトと複雑な相互作用を持つ人間のパフォーマンスの高品質の4D再構築が不可欠です。
近年の進歩は、信頼性の高い性能回復には至っていない。
人間と物体のインタラクションシナリオのための堅牢なボリュームパフォーマンス再構築システムであるRobustFusionを提案する。
論文 参考訳(メタデータ) (2021-04-30T08:41:45Z) - Reconstructing Interactive 3D Scenes by Panoptic Mapping and CAD Model
Alignments [81.38641691636847]
エンボディエージェントの観点から,シーン再構築の問題を再考する。
rgb-dデータストリームを用いてインタラクティブシーンを再構築する。
この再構成されたシーンは、密集したパノプティカルマップのオブジェクトメッシュを、部分ベースのCADモデルに置き換える。
論文 参考訳(メタデータ) (2021-03-30T05:56:58Z) - SPA: Verbal Interactions between Agents and Avatars in Shared Virtual
Environments using Propositional Planning [61.335252950832256]
SPA(Sense-Plan-Ask)は、仮想的な仮想環境において、仮想的な人間のようなエージェントとユーザアバターの間の言語的対話を生成する。
提案アルゴリズムは実行時コストを小さくし,自然言語通信を利用せずにエージェントよりも効率的に目標を達成できることが判明した。
論文 参考訳(メタデータ) (2020-02-08T23:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。