論文の概要: EyeDentify: A Dataset for Pupil Diameter Estimation based on Webcam Images
- arxiv url: http://arxiv.org/abs/2407.11204v1
- Date: Mon, 15 Jul 2024 19:39:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-17 19:21:30.826317
- Title: EyeDentify: A Dataset for Pupil Diameter Estimation based on Webcam Images
- Title(参考訳): EyeDentify:Webカメラ画像に基づく瞳孔径推定用データセット
- Authors: Vijul Shah, Ko Watanabe, Brian B. Moser, Andreas Dengel,
- Abstract要約: EyeDentifyは、Webカメラ画像に基づく瞳孔径推定のために設計されたデータセットである。
標準的なウェブカメラデータを用いて瞳孔径を推定できるディープラーニングモデルは少ない。
EyeDentifyは、装備の少ない環境向けに特別に設計されたモデルの開発と改良を可能にする。
- 参考スコア(独自算出の注目度): 6.298516754485939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce EyeDentify, a dataset specifically designed for pupil diameter estimation based on webcam images. EyeDentify addresses the lack of available datasets for pupil diameter estimation, a crucial domain for understanding physiological and psychological states traditionally dominated by highly specialized sensor systems such as Tobii. Unlike these advanced sensor systems and associated costs, webcam images are more commonly found in practice. Yet, deep learning models that can estimate pupil diameters using standard webcam data are scarce. By providing a dataset of cropped eye images alongside corresponding pupil diameter information, EyeDentify enables the development and refinement of models designed specifically for less-equipped environments, democratizing pupil diameter estimation by making it more accessible and broadly applicable, which in turn contributes to multiple domains of understanding human activity and supporting healthcare. Our dataset is available at https://vijulshah.github.io/eyedentify/.
- Abstract(参考訳): 本研究では,Webカメラ画像に基づく瞳孔径推定のためのデータセットであるEyeDentifyを紹介する。
EyeDentifyは、トビイのような高度に専門化されたセンサーシステムによって伝統的に支配される生理的および心理的状態を理解するための重要な領域である瞳孔径推定のためのデータセットの欠如に対処している。
これらの先進的なセンサーシステムや関連するコストとは異なり、ウェブカメラ画像は実際より一般的に見られる。
しかし、標準的なウェブカメラデータを用いて瞳孔径を推定できるディープラーニングモデルは少ない。
眼球画像のデータセットとそれに対応する瞳径情報を提供することにより、EyeDentifyは、低装備環境向けに設計されたモデルの開発と改良を可能にし、よりアクセスし、広く適用できるようにすることで、瞳径推定を民主化し、それによって、人間の活動を理解し、医療をサポートする複数の領域に寄与する。
私たちのデータセットはhttps://vijulshah.github.io/eyedentify/で公開されています。
関連論文リスト
- Webcam-based Pupil Diameter Prediction Benefits from Upscaling [6.298516754485939]
本研究では,バイコビックから高度超解像まで,様々なアップスケーリング手法が瞳孔径予測に与える影響について検討した。
以上の結果から,大規模データセットで訓練した瞳孔径予測モデルは,選択したアップスケーリング手法やスケールに非常に敏感であることが示唆された。
論文 参考訳(メタデータ) (2024-08-19T20:28:39Z) - Using artificial intelligence methods for the studyed visual analyzer [0.0]
本稿では,人間の目の研究に人工知能を応用するための様々な手法について述べる。
第1のデータセットは,ヒトの視野の可視化と緑内障の診断のためにコンピュータ・ペリメトリを用いて収集された。
第2のデータセットは、Tobii Pro Glasses 3デバイスをVRビデオに使用して眼球運動データを収集・分析するロシア・スイスの実験の実施の一環として得られた。
論文 参考訳(メタデータ) (2024-04-25T20:12:51Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - DeepMetricEye: Metric Depth Estimation in Periocular VR Imagery [4.940128337433944]
本稿では,U-Net 3+のディープラーニングバックボーンをベースとした軽量なフレームワークを提案する。
本手法は,3次元眼球周囲領域を再構成し,関連する光刺激計算プロトコルと医療ガイドラインの計量基準を提供する。
被験者36名を対象に, 眼球全球精度評価実験, 瞳孔径測定において有意な有効性を示した。
論文 参考訳(メタデータ) (2023-11-13T10:55:05Z) - Periocular biometrics: databases, algorithms and directions [69.35569554213679]
近視バイオメトリックスは、制御されていない条件下での虹彩や顔のシステムの性能に関する懸念から、独立したモダリティとして確立されている。
本稿では, 近視バイオメトリックス研究における最先端技術について概説する。
論文 参考訳(メタデータ) (2023-07-26T11:14:36Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - Monocular Depth Estimation Using Cues Inspired by Biological Vision
Systems [22.539300644593936]
単眼深度推定(MDE)は、シーンのRGB画像を同じカメラビューから画素幅の深度マップに変換することを目的としている。
MDEタスクの一部は、画像内のどの視覚的手がかりを深度推定に使用できるか、どのように使うかを学ぶことである。
モデルに視覚的キュー情報を明示的に注入することは深度推定に有用であることを示す。
論文 参考訳(メタデータ) (2022-04-21T19:42:36Z) - Analyzing General-Purpose Deep-Learning Detection and Segmentation
Models with Images from a Lidar as a Camera Sensor [0.06554326244334865]
本研究は,高度ライダーセンサのイメージライクな出力処理のための汎用DL認識アルゴリズムの可能性について検討する。
3次元の点クラウドデータを処理するのではなく、私たちの知る限りでは、360textの視野を持つ低解像度の画像にフォーカスする最初の試みである。
適切な事前処理を行うことで、汎用DLモデルはこれらの画像を処理し、環境条件下での使用への扉を開くことができることを示す。
論文 参考訳(メタデータ) (2022-03-08T13:14:43Z) - Pistol: Pupil Invisible Supportive Tool to extract Pupil, Iris, Eye
Opening, Eye Movements, Pupil and Iris Gaze Vector, and 2D as well as 3D Gaze [12.314175125417098]
オフラインモードでは, 瞳孔, 虹彩楕円, 眼球開口, 瞳孔ベクトル, 虹彩ベクトル, 眼球運動型, 瞳孔速度, マーカー検出, マーカー距離, 瞳孔中心, 虹彩中心, 瞳孔ベクトル, 虹彩ベクトルなど, 眼球から複数の特徴を抽出する。
視線信号は、それぞれの目と各特徴に対して2Dで計算され、また、各特徴に対しても2Dで計算される。
論文 参考訳(メタデータ) (2022-01-18T07:54:55Z) - MTCD: Cataract Detection via Near Infrared Eye Images [69.62768493464053]
白内障は一般的な眼疾患であり、盲目や視力障害の主な原因の1つである。
近赤外画像を用いた白内障検出のための新しいアルゴリズムを提案する。
深層学習に基づくアイセグメンテーションとマルチタスクネットワーク分類ネットワークについて述べる。
論文 参考訳(メタデータ) (2021-10-06T08:10:28Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z) - Optimal Transfer Learning Model for Binary Classification of Funduscopic
Images through Simple Heuristics [0.8370915747360484]
深層学習ニューラルネットワークを用いて、眼内画像の視覚的表現を診断する。
本稿では, 病原体が健康であるか, 病原体なのかを, 低コストで推定する, 病原体分類の統一モデルを提案する。
論文 参考訳(メタデータ) (2020-02-11T03:49:14Z) - 1-D Convlutional Neural Networks for the Analysis of Pupil Size
Variations in Scotopic Conditions [79.71065005161566]
1次元畳み込みニューラルネットワークモデルは、短距離配列の分類のために訓練されている。
モデルは、ホールドアウトテストセット上で、高い平均精度で予測を提供する。
論文 参考訳(メタデータ) (2020-02-06T17:25:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。