論文の概要: User Identification via Free Roaming Eye Tracking Data
- arxiv url: http://arxiv.org/abs/2403.09415v1
- Date: Thu, 14 Mar 2024 14:04:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-15 20:17:36.902329
- Title: User Identification via Free Roaming Eye Tracking Data
- Title(参考訳): 自由回転眼球追跡データによるユーザ識別
- Authors: Rishabh Vallabh Varsha Haria, Amin El Abed, Sebastian Maneth,
- Abstract要約: フリーローミング(FR)とターゲットローミング(TR)の新しいデータセットを提案する。
41人の参加者が大学キャンパス(FR)を歩き回るか、図書館(TR)内の特定の部屋を探すよう依頼される。
ウェアラブルアイトラッカーを用いた眼球運動記録(Pupil Labs Neon at 200Hz)
- 参考スコア(独自算出の注目度): 1.1060425537315088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new dataset of "free roaming" (FR) and "targeted roaming" (TR): a pool of 41 participants is asked to walk around a university campus (FR) or is asked to find a particular room within a library (TR). Eye movements are recorded using a commodity wearable eye tracker (Pupil Labs Neon at 200Hz). On this dataset we investigate the accuracy of user identification using a previously known machine learning pipeline where a Radial Basis Function Network (RBFN) is used as classifier. Our highest accuracies are 87.3% for FR and 89.4% for TR. This should be compared to 95.3% which is the (corresponding) highest accuracy we are aware of (achieved in a laboratory setting using the "RAN" stimulus of the BioEye 2015 competition dataset). To the best of our knowledge, our results are the first that study user identification in a non laboratory setting; such settings are often more feasible than laboratory settings and may include further advantages. The minimum duration of each recording is 263s for FR and 154s for TR. Our best accuracies are obtained when restricting to 120s and 140s for FR and TR respectively, always cut from the end of the trajectories (both for the training and testing sessions). If we cut the same length from the beginning, then accuracies are 12.2% lower for FR and around 6.4% lower for TR. On the full trajectories accuracies are lower by 5% and 52% for FR and TR. We also investigate the impact of including higher order velocity derivatives (such as acceleration, jerk, or jounce).
- Abstract(参考訳): 41人の参加者が大学キャンパス(FR)を歩き回るか、図書館(TR)内の特定の部屋を探すよう依頼される。
眼球運動は、コモディティウェアラブルアイトラッカー(Pupil Labs Neon at 200Hz)を用いて記録される。
本データセットでは,Radial Basis Function Network (RBFN) を分類器として使用する機械学習パイプラインを用いて,ユーザ識別の精度を検討した。
最も高いアキュラシーはFRが87.3%、TRが89.4%である。
これは、私たちが知っている(対応する)最高精度である95.3%と比較されるべきである(BioEye 2015コンペティションデータセットの「RAN」刺激を用いて実験室で達成された)。
我々の知る限りでは、実験結果が実験室以外の環境でのユーザ識別を研究する最初のものである。
各記録の最低持続時間はFRが263秒、TRが154秒である。
FR と TR でそれぞれ 120s と 140s に制限された場合には,常に軌道の終端(トレーニングセッションとテストセッションの両方)から切り離される。
開始時から同じ長さを切ると、FRでは12.2%、TRでは6.4%低下する。
フルトラジェクトリのアキュラシーは、FRおよびTRでは5%以下、52%以下である。
また, 加速度, ジャーク, ジャスンなどの高次速度微分を含む場合の影響についても検討する。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Predicting Overtakes in Trucks Using CAN Data [51.28632782308621]
CANデータからトラックの積載量の検出について検討する。
私たちの分析では、オーバーテイクイベントの最大10秒前をカバーしています。
我々は、オーバーテイク・トリガーに近づくと、オーバーテイク・クラスの予測スコアが増加する傾向にあることを観察する。
論文 参考訳(メタデータ) (2024-04-08T17:58:22Z) - FLASH-RL: Federated Learning Addressing System and Static Heterogeneity
using Reinforcement Learning [1.1650821883155187]
フェデレートラーニング(FL)は、有望な機械学習パラダイムとして登場した。
FLでは、各トレーニングラウンドでクライアントのサブセットを選択するのが一般的です。
FLASH-RLはDouble Deep QLearning(DDQL)を利用してFLのシステムおよび静的不均一性に対処するフレームワークである。
論文 参考訳(メタデータ) (2023-11-12T18:21:00Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - Exploring the Value of Pre-trained Language Models for Clinical Named
Entity Recognition [6.917786124918387]
我々は、スクラッチからトレーニングされたTransformerモデルと、細調整されたBERTベースのLLMを比較した。
文脈学習を促進するために,追加のCRF層がそのようなモデルに与える影響を検討する。
論文 参考訳(メタデータ) (2022-10-23T16:27:31Z) - LGD: Label-guided Self-distillation for Object Detection [59.9972914042281]
我々はLGD(Label-Guided Self-Distillation)と呼ばれる汎用物体検出のための最初の自己蒸留フレームワークを提案する。
本フレームワークは, 学習知識を得るために, スパースラベル-外観符号化, オブジェクト間関係適応, オブジェクト内知識マッピングを含む。
従来の教師ベースのFGFIと比較すると、LGDは予習された教師を必要とせず、本質的な学生学習よりも51%低い訓練コストで性能が向上する。
論文 参考訳(メタデータ) (2021-09-23T16:55:01Z) - LRTuner: A Learning Rate Tuner for Deep Neural Networks [10.913790890826785]
学習率のスケジュールの選択は、計算コストがミニマに近づくこと、実際にミニマにどれだけ近づいたか、そして最も重要なのは、ローカルなミニマ(ワイド/ナロー)が到達したかを決定する。
現在のシステムは、手動チューニングされた学習率スケジュールを採用しており、各ネットワークとデータセットに対して面倒な調整がなされている。
LRTunerは,学習が進むにつれて学習率のスケジュールを調整できる手法である。
論文 参考訳(メタデータ) (2021-05-30T13:06:26Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - RIFLE: Backpropagation in Depth for Deep Transfer Learning through
Re-Initializing the Fully-connected LayEr [60.07531696857743]
事前訓練されたモデルを用いたディープ畳み込みニューラルネットワーク(CNN)の微調整は、より大きなデータセットから学習した知識をターゲットタスクに転送するのに役立つ。
転送学習環境におけるバックプロパゲーションを深める戦略であるRIFLEを提案する。
RIFLEは、深いCNN層の重み付けに意味のあるアップデートをもたらし、低レベルの機能学習を改善する。
論文 参考訳(メタデータ) (2020-07-07T11:27:43Z) - Classifying CMB time-ordered data through deep neural networks [0.0]
CMB実験の検出器を分類するための教師付き機械学習モデルを提案する。
このモデルは深層畳み込みニューラルネットワークに対応する。
私たちのモデルは現在のパイプラインの約10倍の速度で、リアルタイム実装に適しています。
論文 参考訳(メタデータ) (2020-04-13T22:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。