論文の概要: Mind Your Vision: Multimodal Estimation of Refractive Disorders Using Electrooculography and Eye Tracking
- arxiv url: http://arxiv.org/abs/2505.18538v1
- Date: Sat, 24 May 2025 06:03:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.488593
- Title: Mind Your Vision: Multimodal Estimation of Refractive Disorders Using Electrooculography and Eye Tracking
- Title(参考訳): Mind Your Vision:Electrooculography と Eye Tracking を用いた屈折障害のマルチモーダル推定
- Authors: Xin Wei, Huakun Liu, Yutaro Hirao, Monica Perusquia-Hernandez, Katsutoshi Masai, Hideaki Uchiyama, Kiyoshi Kiyokawa,
- Abstract要約: 本研究では,2つの眼球運動記録技術 (EOG) とビデオベースの眼球追跡技術を用いて屈折率を推定する受動的手法について検討した。
我々は長短期記憶(LSTM)モデルを訓練し、屈折パワーを単眼(EOGまたはアイトラッキング)とマルチモーダル構成から分類した。
その結果,マルチモーダルモデルは単調モデルよりも常に優れており,両方の設定で平均精度が最も高いことがわかった。
- 参考スコア(独自算出の注目度): 12.016546264209536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Refractive errors are among the most common visual impairments globally, yet their diagnosis often relies on active user participation and clinical oversight. This study explores a passive method for estimating refractive power using two eye movement recording techniques: electrooculography (EOG) and video-based eye tracking. Using a publicly available dataset recorded under varying diopter conditions, we trained Long Short-Term Memory (LSTM) models to classify refractive power from unimodal (EOG or eye tracking) and multimodal configuration. We assess performance in both subject-dependent and subject-independent settings to evaluate model personalization and generalizability across individuals. Results show that the multimodal model consistently outperforms unimodal models, achieving the highest average accuracy in both settings: 96.207\% in the subject-dependent scenario and 8.882\% in the subject-independent scenario. However, generalization remains limited, with classification accuracy only marginally above chance in the subject-independent evaluations. Statistical comparisons in the subject-dependent setting confirmed that the multimodal model significantly outperformed the EOG and eye-tracking models. However, no statistically significant differences were found in the subject-independent setting. Our findings demonstrate both the potential and current limitations of eye movement data-based refractive error estimation, contributing to the development of continuous, non-invasive screening methods using EOG signals and eye-tracking data.
- Abstract(参考訳): 屈折誤差は世界中で最も一般的な視覚障害の1つであるが、その診断はアクティブなユーザ参加と臨床監視に依存していることが多い。
本研究では,2つの眼球運動記録技術 (EOG) とビデオベースの眼球追跡技術を用いて屈折率を推定する受動的手法について検討した。
様々なダイオプタ条件下で記録された公開データセットを用いて、単眼(EOGまたはアイトラッキング)とマルチモーダル構成から屈折パワーを分類するために、Long Short-Term Memory(LSTM)モデルを訓練した。
モデルパーソナライゼーションと個人間の一般化性を評価するため,対象に依存しない設定と対象に依存しない設定の両方のパフォーマンスを評価する。
その結果、マルチモーダルモデルは単調モデルよりも常に優れており、どちらの設定でも96.207\%、主観非依存シナリオでは8.882\%である。
しかし、一般化は依然として限られており、分類精度は被検者に依存しない評価においてわずかに上回っている。
被験者別設定における統計的比較により、マルチモーダルモデルはEOGおよびアイトラッキングモデルよりも有意に優れていたことが確認された。
しかし, 被験者に依存しない設定では, 統計的に有意な差は認められなかった。
本研究は眼球運動データに基づく屈折誤差推定の可能性と現在の限界を両立させ,眼球運動信号と眼球追跡データを用いた連続的非侵襲スクリーニング法の開発に寄与した。
関連論文リスト
- MVICAD2: Multi-View Independent Component Analysis with Delays and Dilations [61.59658203704757]
本稿では,時間的遅延と拡張の両面において,被験者間でソースを異にするMVICAD(Multi-View Independent Component Analysis with Delays and Dilations)を提案する。
本稿では, 正則化と最適化手法を用いて, 性能向上を図るため, 正則化と最適化手法を用いて, その可能性の近似を導出する。
論文 参考訳(メタデータ) (2025-01-13T15:47:02Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Generalized Robust Fundus Photography-based Vision Loss Estimation for High Myopia [6.193135671460362]
VF推定の一般化ロバスト性を高めるための新しいパラメータ効率フレームワークを提案する。
本手法は, RMSE, MAE, 係数相関において, 内部および外部の検証において, 既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-07-04T07:39:19Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Causal Dynamic Variational Autoencoder for Counterfactual Regression in Longitudinal Data [3.3523758554338734]
時間とともに治療効果を推定することは、精密医療、疫学、経済、マーケティングなど多くの現実世界の応用において重要である。
我々は、観測されていないリスク要因、すなわち、結果の順序だけに影響を与える調整変数を仮定することで、異なる視点を取る。
我々は、時間変化効果と未観測の調整変数によって生じる課題に対処する。
論文 参考訳(メタデータ) (2023-10-16T16:32:35Z) - Multimodal Motion Conditioned Diffusion Model for Skeleton-based Video
Anomaly Detection [46.8584162860564]
ビデオ異常検出(VAD)のための新しい生成モデルを提案する。
我々は、骨格表現を考察し、最先端拡散確率モデルを用いて、多モーダルな未来の人間のポーズを生成する。
4つの確立されたベンチマークでモデルを検証します。
論文 参考訳(メタデータ) (2023-07-14T07:42:45Z) - Assessing Coarse-to-Fine Deep Learning Models for Optic Disc and Cup
Segmentation in Fundus Images [0.0]
粗い深層学習アルゴリズムは、底面画像の鉛直カップ・トゥ・ディスク比(vCDR)を効率的に測定するために用いられる。
5つの公開データベースを用いたOD/OCセグメンテーションのための粗粒度設計の包括的解析を行う。
分析の結果,これらのアルゴリズムは必ずしも標準のマルチクラスシングルステージモデルより優れているとは限らないことがわかった。
論文 参考訳(メタデータ) (2022-09-28T19:19:16Z) - Learnable Patchmatch and Self-Teaching for Multi-Frame Depth Estimation in Monocular Endoscopy [16.233423010425355]
教師なしマルチフレーム単眼深度推定モデルを提案する。
提案モデルでは、学習可能なパッチマッチモジュールを統合し、低次および均質なテクスチャを持つ領域における識別能力を適応的に向上させる。
自己学習パラダイムの副産物として,テスト時により多くのフレームが入力されたときの深度予測を改善することができる。
論文 参考訳(メタデータ) (2022-05-30T12:11:03Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。