論文の概要: Focus360: Guiding User Attention in Immersive Videos for VR
- arxiv url: http://arxiv.org/abs/2603.28774v1
- Date: Thu, 29 Jan 2026 19:29:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-06 02:36:13.1283
- Title: Focus360: Guiding User Attention in Immersive Videos for VR
- Title(参考訳): Focus360:VR用没入型ビデオのユーザアテンション誘導
- Authors: Paulo Vitor S. Silva, Lucas L. Neves, Rafael A. Goiás, Diogo F. C. Silva, Rafael T. Sousa, Arlindo R. Galvão Filho,
- Abstract要約: このデモでは、360度VRビデオにおけるユーザのエンゲージメントを高めるためのシステムであるFocus360を紹介した。
このシステムは重要な要素を識別し、視覚効果の組み合わせをシームレスに誘導する。
デモ会場では、参加者が360度Safari Tourを体験し、システムのユーザフォーカスを改善する能力を示す。
- 参考スコア(独自算出の注目度): 0.2873445316250936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This demo introduces Focus360, a system designed to enhance user engagement in 360° VR videos by guiding attention to key elements within the scene. Using natural language descriptions, the system identifies important elements and applies a combination of visual effects to guide attention seamlessly. At the demonstration venue, participants can experience a 360° Safari Tour, showcasing the system's ability to improve user focus while maintaining an immersive experience.
- Abstract(参考訳): このデモでは、360度VRビデオにおけるユーザのエンゲージメントを高めるために、シーン内の重要な要素に注意を向けるシステムであるFocus360を紹介した。
自然言語記述を用いて重要な要素を識別し、視覚効果の組み合わせを適用して注意をシームレスに誘導する。
デモ会場では、参加者が360度Safari Tourを体験し、没入感のあるエクスペリエンスを維持しながらユーザのフォーカスを改善するシステムの能力を示す。
関連論文リスト
- Attention Guidance through Video Script: A Case Study of Object Focusing on 360° VR Video Tours [0.0]
本論文は,ビデオスクリプトをベースとしたオブジェクトに着目し,グラウンディング・ディノとセグメンション・アニーシングのモデルを組み合わせて注意を喚起する。
ケーススタディとして、本研究では、レディング大学の360度ビデオツアーで実験を行っている。
実験の結果,360度VRビデオツアーでは,ユーザの注意を向ける作業を支援することで,映像スクリプトによるユーザエクスペリエンスの向上が期待できることがわかった。
論文 参考訳(メタデータ) (2026-01-29T19:30:13Z) - Object-Shot Enhanced Grounding Network for Egocentric Video [60.97916755629796]
我々は,エゴセントリックビデオのためのオブジェクトショット拡張グラウンドネットワークOSGNetを提案する。
具体的には,映像表現を豊かにするために,映像から対象情報を抽出する。
我々は,エゴセントリックなビデオに固有の撮影動作を分析し,これらの特徴を活用して,装着者の注意情報を抽出する。
論文 参考訳(メタデータ) (2025-05-07T09:20:12Z) - IM360: Large-scale Indoor Mapping with 360 Cameras [48.99932182976206]
大規模屋内環境のための新しい3Dマッピングパイプラインを提案する。
本稿では,球面カメラモデルとStructure-from-Motion(SfM)パイプラインを融合したIM360を提案する。
我々のSfMは、360度画像に特化して設計された密マッチング機能を利用しており、画像登録の優れた能力を示している。
大規模屋内シーンにおけるパイプラインの評価を行い,実世界のシナリオにおけるその効果を実証した。
論文 参考訳(メタデータ) (2025-02-18T05:15:19Z) - ESVQA: Perceptual Quality Assessment of Egocentric Spatial Videos [71.62145804686062]
自己中心型空間ビデオのクオリティ・オブ・エクスペリエンス(QoE)を評価することは、高品質な視聴体験を確保するために不可欠である。
我々は,600個のエゴセントリックな空間ビデオからなる,最初のエゴセントリックな空間ビデオ品質評価データベース(ESVQAD)を紹介した。
また,両眼の空間,運動,意味的特徴を統合し,全体的な知覚品質を予測する多次元両眼機能融合モデルであるESVQAnetを提案する。
論文 参考訳(メタデータ) (2024-12-29T10:13:30Z) - Anomaly Detection for People with Visual Impairments Using an Egocentric 360-Degree Camera [3.327376781194993]
視覚障害者の異常な状況を検出するための第一歩として,360度カメラを用いて周囲を観察する手法を提案する。
我々は、視覚障害者が遭遇する可能性のある異常な活動を含む、新しいエゴセントリックな360度ビデオデータセットVIEW360を紹介した。
本稿では,異常事象のフレームレベルの予測と方向の同定を容易にするFDPNというアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-11-17T02:52:34Z) - Learning High-Quality Navigation and Zooming on Omnidirectional Images in Virtual Reality [37.564863636844905]
我々は,VRナビゲーションにおける視覚的明瞭度を高めるために,OmniVRと呼ばれる新しいシステムを提案する。
当社のシステムでは,VRに関心のある対象を,ユーザーが自由に見つけてズームインすることができる。
論文 参考訳(メタデータ) (2024-05-01T07:08:24Z) - GPT4Ego: Unleashing the Potential of Pre-trained Models for Zero-Shot Egocentric Action Recognition [48.686183248092476]
GPT4Egoは、ZS-EAR向けの単純だが驚くほど強力なVLMフレームワークである。
GPT4Egoは3つの大規模エゴセントリックビデオベンチマークにおいて既存のVLMよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-01-18T15:04:46Z) - 3D Gaze Vis: Sharing Eye Tracking Data Visualization for Collaborative
Work in VR Environment [3.3130410344903325]
私たちは、視線カーソル、視線スポットライト、視線軌跡の3つの異なる視線追跡データ可視化を、人間の心臓のコースのためにVRシーンで設計しました。
医師の視線カーソルは、複雑な3D心臓モデルをより効果的に学習するのに役立ちます。
その結果,視線追跡データの視覚化により,VR環境における協調作業の品質と効率が向上することが示唆された。
論文 参考訳(メタデータ) (2023-03-19T12:00:53Z) - Ego4D: Around the World in 3,000 Hours of Egocentric Video [276.1326075259486]
Ego4Dは大規模なビデオデータセットとベンチマークスイートである。
世界中の74か国と9か国から、855人のユニークなカメラ着用者が捉えた数百のシナリオを、毎日3,025時間の動画で見ることができる。
ビデオにはオーディオ、環境の3Dメッシュ、視線、ステレオ、および/または複数のエゴセントリックカメラからの同期ビデオが添付されている。
論文 参考訳(メタデータ) (2021-10-13T22:19:32Z) - ATSal: An Attention Based Architecture for Saliency Prediction in 360
Videos [5.831115928056554]
本稿では,360度ビデオの注目度に基づく新しいサリエンシモデルであるATSalを提案する。
提案したアプローチを,Salient360!とVR-EyeTrackingという2つのデータセット上で,最先端のSaliencyモデルと比較する。
80以上のODVビデオ(75K以上のフレーム)の実験結果から,提案手法は既存の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2020-11-20T19:19:48Z) - Perceptual Quality Assessment of Omnidirectional Images as Moving Camera
Videos [49.217528156417906]
ユーザの視聴行動やパノラマの知覚的品質を決定するには,2種類のVR視聴条件が不可欠である。
まず、異なる視聴条件下での異なるユーザの視聴行動を用いて、一方向の画像を複数のビデオ表現に変換する。
次に、高度な2次元フルレファレンスビデオ品質モデルを活用して、知覚された品質を計算する。
論文 参考訳(メタデータ) (2020-05-21T10:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。