論文の概要: Gaze-Sensing LEDs for Head Mounted Displays
- arxiv url: http://arxiv.org/abs/2003.08499v1
- Date: Wed, 18 Mar 2020 23:03:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 09:57:23.278241
- Title: Gaze-Sensing LEDs for Head Mounted Displays
- Title(参考訳): ヘッドマウントディスプレイ用ガゼセンシングLED
- Authors: Kaan Ak\c{s}it, Jan Kautz, David Luebke
- Abstract要約: 仮想現実(VR)アプリケーションのための低消費電力の視線トラッカーを作成するために,LEDのセンサ機能を利用する。
我々は,視線推定法が複雑な次元削減技術を必要としないことを示した。
- 参考スコア(独自算出の注目度): 73.88424800314634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new gaze tracker for Head Mounted Displays (HMDs). We modify
two off-the-shelf HMDs to be gaze-aware using Light Emitting Diodes (LEDs). Our
key contribution is to exploit the sensing capability of LEDs to create
low-power gaze tracker for virtual reality (VR) applications. This yields a
simple approach using minimal hardware to achieve good accuracy and low latency
using light-weight supervised Gaussian Process Regression (GPR) running on a
mobile device. With our hardware, we show that Minkowski distance measure based
GPR implementation outperforms the commonly used radial basis function-based
support vector regression (SVR) without the need to precisely determine free
parameters. We show that our gaze estimation method does not require complex
dimension reduction techniques, feature extraction, or distortion corrections
due to off-axis optical paths. We demonstrate two complete HMD prototypes with
a sample eye-tracked application, and report on a series of subjective tests
using our prototypes.
- Abstract(参考訳): ヘッドマウントディスプレイ(HMD)のための新しいガウントラッカーを導入する。
光エミットダイオード(LED)を用いて、2つの既製のHMDを視線対応に修正する。
私たちの重要な貢献は、LEDのセンシング機能を利用して、仮想現実(VR)アプリケーションのための低消費電力の視線トラッカーを作成することです。
これにより、最小限のハードウェアを使用して、モバイルデバイス上で動作する軽量教師付きガウスプロセス回帰(GPR)を使用して、高い精度と低レイテンシを実現するシンプルなアプローチが得られる。
ハードウェアを用いて,ミンコフスキー距離測度に基づくGPR実装は,自由パラメータを正確に決定することなく,一般的に使用される放射基底関数に基づくサポートベクター回帰(SVR)よりも優れていることを示す。
本手法では,オフ軸光路による複雑な次元縮小,特徴抽出,歪み補正を必要としないことを示す。
眼球追跡アプリケーションを用いた2つの完全なHMDプロトタイプを実演し,プロトタイプを用いた一連の主観的テストについて報告する。
関連論文リスト
- Learning to Make Keypoints Sub-Pixel Accurate [80.55676599677824]
本研究は,2次元局所特徴の検出におけるサブピクセル精度の課題に対処する。
本稿では,検出された特徴に対するオフセットベクトルを学習することにより,サブピクセル精度で検出器を拡張できる新しいネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T12:39:56Z) - HMD-Poser: On-Device Real-time Human Motion Tracking from Scalable
Sparse Observations [28.452132601844717]
HMDとIMUのスケーラブルなスパース観測により全身運動を復元する最初の統一的アプローチであるHMD-Poserを提案する。
HMD-Poserでは,そのモデルがリアルタイムにHMD上で動作することを保証するために,軽量な時空間特徴学習ネットワークを提案する。
AMASSデータセットの大規模な実験結果から、HMD-Poserは、精度とリアルタイムのパフォーマンスの両方において、新しい最先端の結果を達成することが示された。
論文 参考訳(メタデータ) (2024-03-06T09:10:36Z) - GIR: 3D Gaussian Inverse Rendering for Relightable Scene Factorization [62.13932669494098]
本稿では,3次元ガウス表現を用いた3次元ガウス逆レンダリング(GIR)手法を提案する。
最短固有ベクトルを用いて各3次元ガウスの正規性を計算する。
我々は3次元ガウシアン毎に方向対応の放射光を格納し、多重バウンス光輸送を近似するために二次照明をアンタングルするために、効率的なボクセルベースの間接照明追跡方式を採用する。
論文 参考訳(メタデータ) (2023-12-08T16:05:15Z) - DiffusionPoser: Real-time Human Motion Reconstruction From Arbitrary Sparse Sensors Using Autoregressive Diffusion [10.439802168557513]
限られた数のボディウーンセンサーからのモーションキャプチャーは、健康、人間のパフォーマンス、エンターテイメントに重要な応用がある。
最近の研究は、6つのIMUを用いて、特定のセンサー構成から全身の動きを正確に再構築することに焦点を当てている。
センサの任意の組み合わせから人の動きをリアルタイムで再現する単一拡散モデルDiffusionPoserを提案する。
論文 参考訳(メタデータ) (2023-08-31T12:36:50Z) - Slippage-robust Gaze Tracking for Near-eye Display [14.038708833057534]
ヘッドマウントデバイス(HMD)のスリップは、視線追跡エラーを高くする。
球状眼球モデルに基づく近目表示のためのすべり面ローバストな視線追跡法を提案する。
論文 参考訳(メタデータ) (2022-10-20T23:47:56Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - LGC-Net: A Lightweight Gyroscope Calibration Network for Efficient
Attitude Estimation [10.468378902106613]
本稿では,低コストマイクロエレクトロメカニカル・システム(MEMS)ジャイロスコープを分解し,ロボットの姿勢をリアルタイムで推定するキャリブレーションニューラルネットワークモデルを提案する。
鍵となるアイデアは、慣性測定ユニット(IMU)測定の時間窓から局所的および大域的特徴を抽出し、ジャイロスコープの出力補償成分を動的に回帰させることである。
提案アルゴリズムはEuRoCおよびTUM-VIデータセットで評価され、より軽量なモデル構造で(目に見えない)テストシーケンスの最先端化を実現する。
論文 参考訳(メタデータ) (2022-09-19T08:03:03Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - DUT-LFSaliency: Versatile Dataset and Light Field-to-RGB Saliency
Detection [104.50425501764806]
ライトフィールドサリエンシー検出のための汎用性の高いアプリケーションを可能にする大規模なデータセットを紹介します。
本論文では,フォカルストリームとRGBストリームからなる非対称2ストリームモデルを提案する。
実験は、我々の焦点ストリームが最先端のパフォーマンスを達成することを実証する。
論文 参考訳(メタデータ) (2020-12-30T11:53:27Z) - LE-HGR: A Lightweight and Efficient RGB-based Online Gesture Recognition
Network for Embedded AR Devices [8.509059894058947]
本稿では,低消費電力な組込みデバイス上でのリアルタイムジェスチャー認識を実現するために,軽量で計算効率のよいHGRフレームワークLE-HGRを提案する。
提案手法は高精度でロバスト性があり,様々な複雑な相互作用環境において,高性能な性能を実現することができることを示す。
論文 参考訳(メタデータ) (2020-01-16T05:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。