論文の概要: Eye Know You: Metric Learning for End-to-end Biometric Authentication
Using Eye Movements from a Longitudinal Dataset
- arxiv url: http://arxiv.org/abs/2104.10489v1
- Date: Wed, 21 Apr 2021 12:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 14:14:03.938199
- Title: Eye Know You: Metric Learning for End-to-end Biometric Authentication
Using Eye Movements from a Longitudinal Dataset
- Title(参考訳): Eye Know you: Metric Learning for End-to-end Biometric Authentication using Eye Movements from a Longitudinal Dataset (特集:バイオサイバネティックス)
- Authors: Dillon Lohr, Henry Griffith, and Oleg V Komogortsev
- Abstract要約: 本稿では,ユーザの眼球運動を認証するための畳み込みニューラルネットワークを提案する。
ネットワークは、確立されたメトリック学習損失関数、多相性損失で訓練される。
目の動きは、3年後のテンプレートの老化に対して非常に弾力性があります。
- 参考スコア(独自算出の注目度): 4.511561231517167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While numerous studies have explored eye movement biometrics since the
modality's inception in 2004, the permanence of eye movements remains largely
unexplored as most studies utilize datasets collected within a short time
frame. This paper presents a convolutional neural network for authenticating
users using their eye movements. The network is trained with an established
metric learning loss function, multi-similarity loss, which seeks to form a
well-clustered embedding space and directly enables the enrollment and
authentication of out-of-sample users. Performance measures are computed on
GazeBase, a task-diverse and publicly-available dataset collected over a
37-month period. This study includes an exhaustive analysis of the effects of
training on various tasks and downsampling from 1000 Hz to several lower
sampling rates. Our results reveal that reasonable authentication accuracy may
be achieved even during a low-cognitive-load task or at low sampling rates.
Moreover, we find that eye movements are quite resilient against template aging
after 3 years.
- Abstract(参考訳): 2004年のモダリティの開始以来、多くの研究が眼球運動の生体計測を研究してきたが、ほとんどの研究は短いフレームで収集されたデータセットを使用するため、眼球運動の永続性はほとんど探索されていない。
本稿では,ユーザの眼球運動を認証するための畳み込みニューラルネットワークを提案する。
ネットワークは、確立されたメートル法学習損失関数、多相性損失(multi-similarity loss)で訓練されており、これは、十分にクラスタ化された埋め込み空間を形成し、サンプル外ユーザの登録と認証を直接可能にする。
パフォーマンス指標は、37ヶ月の期間に収集されたタスク分散および公開利用可能なデータセットであるgazagebaseで計算される。
本研究は,各種課題に対するトレーニングの効果と,1000Hzからいくつかの低いサンプリングレートへのダウンサンプリングの徹底的な分析を含む。
この結果から,低認識負荷タスクや低サンプリングレートにおいても,適切な認証精度が得られうることがわかった。
さらに,眼球運動は3年後のテンプレート老化に対して非常に回復力があることがわかった。
関連論文リスト
- EyeTrAES: Fine-grained, Low-Latency Eye Tracking via Adaptive Event Slicing [2.9795443606634917]
EyeTrAESは、自然眼球運動の高忠実度追跡のためのニューロモルフィックイベントカメラを用いた新しいアプローチである。
その結果,EyeTrAESの瞳孔追跡精度は6+%向上し,IoU=92%,IoU=32%向上した。
頑健なユーザ認証のために,短期瞳孔運動学の特徴ベクトルを用いて,ユーザ当たりの軽量なランダムフォレスト分類器を訓練する。
論文 参考訳(メタデータ) (2024-09-27T15:06:05Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - When Measures are Unreliable: Imperceptible Adversarial Perturbations
toward Top-$k$ Multi-Label Learning [83.8758881342346]
新しい損失関数は、視覚的および測定的不受容性を両立できる敵の摂動を生成するために考案された。
大規模ベンチマークデータセットを用いた実験により,提案手法が最上位の$kのマルチラベルシステムを攻撃する際の優位性を実証した。
論文 参考訳(メタデータ) (2023-07-27T13:18:47Z) - NEVIS'22: A Stream of 100 Tasks Sampled from 30 Years of Computer Vision
Research [96.53307645791179]
我々は,100以上の視覚的分類タスクのストリームからなるベンチマークであるNever-Ending VIsual-classification Stream (NEVIS'22)を紹介する。
分類に制限されているにもかかわらず、OCR、テクスチャ分析、シーン認識など、様々なタスクが生成される。
NEVIS'22は、タスクの規模と多様性のために、現在のシーケンシャルな学習アプローチに対して前例のない課題を提起している。
論文 参考訳(メタデータ) (2022-11-15T18:57:46Z) - Measuring Human Perception to Improve Open Set Recognition [4.124573231232705]
オブジェクトが特定の視覚タスクに属しているか、属していないかを認識できる能力は、すべてのオープンセット認識アルゴリズムより優れている。
被験者による測定された反応時間は、クラスサンプルが別のクラスと混同される傾向にあるかどうかについての洞察を与えることができる。
新たな精神物理学的損失関数は、異なる画像に対する可変反応時間を示すディープネットワークにおける人間の行動と整合性を強制する。
論文 参考訳(メタデータ) (2022-09-08T01:19:36Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - CLRGaze: Contrastive Learning of Representations for Eye Movement
Signals [0.0]
眼球運動の特徴ベクトルを自己指導的に学習する。
我々は、対照的な学習アプローチを採用し、深層ニューラルネットワークが顕著な視線パターンと粒度のパターンを識別することを奨励する一連のデータ変換を提案する。
論文 参考訳(メタデータ) (2020-10-25T06:12:06Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - 3D Human Pose Estimation using Spatio-Temporal Networks with Explicit
Occlusion Training [40.933783830017035]
近年の大きな進歩にもかかわらず、モノラルなタスクから3Dのポーズを推定することは依然として難しい課題である。
頑健な3次元ポーズ推定のための時間的ビデオネットワークを提案する。
本研究では,各フレームに2次元関節やキーポイントの予測,および3次元関節やキーポイントを推定するために,多段階の時間的畳み込みネットワーク(TCN)を適用した。
論文 参考訳(メタデータ) (2020-04-07T09:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。