論文の概要: Impact of Target and Tool Visualization on Depth Perception and Usability in Optical See-Through AR
- arxiv url: http://arxiv.org/abs/2508.18481v1
- Date: Mon, 25 Aug 2025 20:45:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.590928
- Title: Impact of Target and Tool Visualization on Depth Perception and Usability in Optical See-Through AR
- Title(参考訳): 光シーソーARの深さ知覚と使用性に及ぼすターゲットとツールの可視化の影響
- Authors: Yue Yang, Xue Xie, Xinkai Wang, Hui Zhang, Chiming Yu, Xiaoxian Xiong, Lifeng Zhu, Yuanyi Zheng, Jue Cen, Bruce Daniel, Fred Baik,
- Abstract要約: 本稿では,対象物を異なる透過度で可視化し,追跡ツールの可視化が深度知覚とシステムユーザビリティにどのように影響するかを評価する。
10人の参加者がMicrosoft HoloLens 2.0で2つの実験を行った。
- 参考スコア(独自算出の注目度): 11.30601844048379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical see-through augmented reality (OST-AR) systems like Microsoft HoloLens 2 hold promise for arm's distance guidance (e.g., surgery), but depth perception of the hologram and occlusion of real instruments remain challenging. We present an evaluation of how visualizing the target object with different transparencies and visualizing a tracked tool (virtual proxy vs. real tool vs. no tool tracking) affects depth perception and system usability. Ten participants performed two experiments on HoloLens 2. In Experiment 1, we compared high-transparency vs. low-transparency target rendering in a depth matching task at arm's length. In Experiment 2, participants performed a simulated surgical pinpoint task on a frontal bone target under six visualization conditions ($2 \times 3$: two target transparencies and three tool visualization modes: virtual tool hologram, real tool, or no tool tracking). We collected data on depth matching error, target localization error, system usability, task workload, and qualitative feedback. Results show that a more opaque target yields significantly lower depth estimation error than a highly transparent target at arm's distance. Moreover, showing the real tool (occluding the virtual target) led to the highest accuracy and usability with the lowest workload, while not tracking the tool yielded the worst performance and user ratings. However, making the target highly transparent, while allowing the real tool to remain visible, slightly impaired depth cues and did not improve usability. Our findings underscore that correct occlusion cues, rendering virtual content opaque and occluding it with real tools in real time, are critical for depth perception and precision in OST-AR. Designers of arm-distance AR systems should prioritize robust tool tracking and occlusion handling; if unavailable, cautiously use transparency to balance depth perception and tool visibility.
- Abstract(参考訳): マイクロソフトHoloLens 2のような光学シースルー拡張現実(OST-AR)システムは、腕の距離誘導(例えば手術)を約束するが、ホログラムの深度認識と実際の機器の閉塞は依然として困難である。
本研究では,対象物を異なる透過度で可視化し,追跡ツール(仮想プロキシ対実ツール対ツールトラッキングなし)を視覚化する方法が,深度知覚やシステムユーザビリティにどのように影響するかを評価する。
10人の参加者がHoloLens 2.0で2つの実験を行った。
実験1では,腕長の深度マッチングタスクにおいて,高透過率と低透過度ターゲットレンダリングを比較した。
実験2では、被験者は6つの可視化条件下で前頭骨の目標に対して、模擬的なピンポイントタスクを行った(2 \times 3$:2つの目標透明性と3つのツール可視化モード:仮想ツールホログラム、リアルツール、ツールトラッキングなし)。
我々は,深度マッチング誤差,目標位置推定誤差,システムのユーザビリティ,タスクの負荷,質的なフィードバックに関するデータを収集した。
その結果, より不透明なターゲットは, アーム距離において高い透過性を持つターゲットよりも, はるかに低い深さ推定誤差が得られることがわかった。
さらに、実際のツール(仮想ターゲットを含む)の表示は、作業負荷が低い場合、最も正確かつユーザビリティが高く、ツールを追跡できないため、パフォーマンスとユーザ評価が最悪のものになった。
しかし、ターゲットを極めて透明にしながら、実際のツールを目に見える状態に保ちながら、わずかに奥行きが損なわれ、使い勝手は向上しなかった。
以上の結果から, OST-ARの深度知覚と高精度化には, 正当性, 仮想コンテンツ不透明性, リアルタイムに実際のツールで隠蔽することが重要であることが示唆された。
腕距離ARシステムのデザイナは、堅牢なツールトラッキングと閉塞処理を優先すべきである。
関連論文リスト
- V-HOP: Visuo-Haptic 6D Object Pose Tracking [18.984396185797667]
人間は自然に視覚と触覚を統合し、操作中に頑健な物体の知覚を行う。
事前のポーズ推定研究は視覚的・触覚的・触覚的フィードバックを組み合わせようと試みている。
視覚と触覚の入力をシームレスに統合する新しいビジュオ触覚変換器を用いたオブジェクトポーズトラッカーを提案する。
論文 参考訳(メタデータ) (2025-02-24T18:59:50Z) - ClearDepth: Enhanced Stereo Perception of Transparent Objects for Robotic Manipulation [18.140839442955485]
我々は透明物体の立体深度回復のための視覚変換器に基づくアルゴリズムを開発した。
提案手法は,効率的なデータ生成のためのパラメータ整合,ドメイン適応,物理的に現実的なSim2Realシミュレーションを含む。
実世界のシナリオにおけるSim2Realの例外的な一般化性を示す実験結果を得た。
論文 参考訳(メタデータ) (2024-09-13T15:44:38Z) - NeRF-Det++: Incorporating Semantic Cues and Perspective-aware Depth
Supervision for Indoor Multi-View 3D Detection [72.0098999512727]
NeRF-Detは、NeRFを用いた屋内マルチビュー3次元検出において、表現学習の強化による優れた性能を実現している。
セマンティックエンハンスメント(セマンティックエンハンスメント)、パースペクティブ・アウェア・サンプリング(パースペクティブ・アウェア・サンプリング)、および順序深度監視を含む3つのソリューションを提案する。
結果として得られたアルゴリズムであるNeRF-Det++は、ScanNetV2とAR KITScenesデータセットで魅力的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-22T11:48:06Z) - 2D Feature Distillation for Weakly- and Semi-Supervised 3D Semantic
Segmentation [92.17700318483745]
合成訓練された2Dセマンティックセマンティックセグメンテーションネットワークから高レベル特徴情報を蒸留するアイデアに基づく画像誘導ネットワーク(IGNet)を提案する。
IGNetは、ScribbleKITTI上の弱い教師付きLiDARセマンティックセマンティックセグメンテーションの最先端の結果を達成し、8%のラベル付きポイントしか持たない完全な教師付きトレーニングに対して最大98%のパフォーマンスを誇っている。
論文 参考訳(メタデータ) (2023-11-27T07:57:29Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - TransTouch: Learning Transparent Objects Depth Sensing Through Sparse
Touches [23.87056600709768]
本研究では,触覚フィードバックを持つ探索システムを用いて,疎深度ラベルを自動収集したステレオネットワークを微調整する手法を提案する。
提案手法は,特に透明物体に対して,現実世界の深度検出精度を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-09-18T01:55:17Z) - Perspective-aware Convolution for Monocular 3D Object Detection [2.33877878310217]
画像の長距離依存性をキャプチャする新しい視点対応畳み込み層を提案する。
画像画素ごとの深度軸に沿った特徴を抽出するために畳み込みカーネルを強制することにより、パースペクティブ情報をネットワークアーキテクチャに組み込む。
我々は、KITTI3Dデータセットの性能向上を実証し、簡単なベンチマークで平均23.9%の精度を達成した。
論文 参考訳(メタデータ) (2023-08-24T17:25:36Z) - Offline Visual Representation Learning for Embodied Navigation [50.442660137987275]
自己教師付き学習による視覚表現のオフライン事前学習(SSL)
長期学習スケジュール下での画像強調による特定のタスクにおけるビジュモータ表現のオンライン微調整
論文 参考訳(メタデータ) (2022-04-27T23:22:43Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Self-supervised Visual-LiDAR Odometry with Flip Consistency [7.883162238852467]
自己監督型視覚ライダー・オドメトリー(Self-VLO)フレームワークを提案する。
3dlidarポイントから投影された単眼画像とスパース深度マップの両方を入力として取得する。
エンドツーエンドの学習方法でポーズと深さの推定を生成する。
論文 参考訳(メタデータ) (2021-01-05T02:42:59Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。