論文の概要: Ocular Authentication: Fusion of Gaze and Periocular Modalities
- arxiv url: http://arxiv.org/abs/2505.17343v2
- Date: Mon, 26 May 2025 06:34:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 14:32:55.653064
- Title: Ocular Authentication: Fusion of Gaze and Periocular Modalities
- Title(参考訳): 眼球認証 : 視線と眼球運動の融合
- Authors: Dillon Lohr, Michael J. Proulx, Mehedi Hasan Raju, Oleg V. Komogortsev,
- Abstract要約: 本稿では,2つの眼中心型認証モダリティ(眼球運動)と周辺視像(眼球運動)を校正不要な認証システムで融合させる可能性について検討する。
9202人の被験者からなる大規模な社内データセットを用いて、消費者向けバーチャルリアリティー(VR)デバイスと同等の視線追跡(ET)信号品質を有するマルチモーダル認証システムを提案し、評価する。
- 参考スコア(独自算出の注目度): 10.34485500647007
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper investigates the feasibility of fusing two eye-centric authentication modalities-eye movements and periocular images-within a calibration-free authentication system. While each modality has independently shown promise for user authentication, their combination within a unified gaze-estimation pipeline has not been thoroughly explored at scale. In this report, we propose a multimodal authentication system and evaluate it using a large-scale in-house dataset comprising 9202 subjects with an eye tracking (ET) signal quality equivalent to a consumer-facing virtual reality (VR) device. Our results show that the multimodal approach consistently outperforms both unimodal systems across all scenarios, surpassing the FIDO benchmark. The integration of a state-of-the-art machine learning architecture contributed significantly to the overall authentication performance at scale, driven by the model's ability to capture authentication representations and the complementary discriminative characteristics of the fused modalities.
- Abstract(参考訳): 本稿では,2つの眼中心型認証モダリティ(眼球運動)と周辺視像(眼球運動)を校正不要な認証システムで融合させる可能性について検討する。
それぞれのモダリティは、ユーザ認証の約束を独立に示しているが、統一された視線推定パイプラインにおけるそれらの組み合わせは、大規模に完全には検討されていない。
本稿では,消費者向けバーチャルリアリティ(VR)デバイスに匹敵する,視線追跡(ET)信号品質を持つ9202人の被験者からなる大規模社内データセットを用いて,マルチモーダル認証システムを提案し,評価する。
本結果から,マルチモーダルアプローチは,FIDOベンチマークを上回り,すべてのシナリオで一様系を一貫して上回っていることがわかった。
最先端の機械学習アーキテクチャの統合は、モデルが認証表現をキャプチャする能力と、融合したモダリティの相補的な識別特性によって、大規模な認証性能に大きく寄与した。
関連論文リスト
- Multi-modal biometric authentication: Leveraging shared layer architectures for enhanced security [0.0]
本稿では, 顔, 声, 署名データを統合し, セキュリティ対策を強化する新しい生体認証システムを提案する。
我々のモデルアーキテクチャは、包括的な特徴抽出のためのモダリティ固有の拡張とともに、二重共有層を組み込んでいる。
提案手法は,認証精度とロバスト性を大幅に向上させ,高度にセキュアなID認証ソリューションを実現する。
論文 参考訳(メタデータ) (2024-11-04T14:27:10Z) - Straight Through Gumbel Softmax Estimator based Bimodal Neural Architecture Search for Audio-Visual Deepfake Detection [6.367999777464464]
マルチモーダルディープフェイク検出器は 従来の融合法に依存している 多数決ルールや アンサンブル投票など
本稿では,マルチモーダル融合モデルアーキテクチャを検索するための包括的アプローチを提供する,Straight-through Gumbel-Softmaxフレームワークを提案する。
FakeAVCelebとSWAN-DFデータセットの実験では、最小のモデルパラメータでAUCの94.4%が達成された。
論文 参考訳(メタデータ) (2024-06-19T09:26:22Z) - Enhancing person re-identification via Uncertainty Feature Fusion Method and Auto-weighted Measure Combination [1.183049138259841]
人物再識別(Re-ID)は、監視システムにおいて、異なるカメラビューで同一人物を特定することを含む、困難なタスクである。
本稿では,不確定特徴融合法(UFFM)と自動重み付け器(AMC)によるReIDモデルの能力を向上する新しい手法を提案する。
本手法は,人物の再識別データセットで評価した場合のランク@1精度と平均精度(mAP)を大幅に改善する。
論文 参考訳(メタデータ) (2024-05-02T09:09:48Z) - Joint Multimodal Transformer for Emotion Recognition in the Wild [49.735299182004404]
マルチモーダル感情認識(MMER)システムは、通常、単調なシステムよりも優れている。
本稿では,キーベースのクロスアテンションと融合するために,ジョイントマルチモーダルトランス (JMT) を利用するMMER法を提案する。
論文 参考訳(メタデータ) (2024-03-15T17:23:38Z) - ViT Unified: Joint Fingerprint Recognition and Presentation Attack
Detection [36.05807963935458]
我々は、視覚変換器のアーキテクチャを、関節スプーフ検出とマッチングに活用する。
我々は、シーケンシャルシステムと統一アーキテクチャの両方に対して、最先端のSOTA(State-of-the-art)モデルによる競合結果を報告する。
We demonstrate the capabilities of our unified model to achieve a average integrated matching (IM) accuracy of 98.87% across LivDet 2013 and 2015 CrossMatch sensor。
論文 参考訳(メタデータ) (2023-05-12T16:51:14Z) - Trusted Multi-View Classification with Dynamic Evidential Fusion [73.35990456162745]
信頼型マルチビュー分類(TMC)と呼ばれる新しいマルチビュー分類アルゴリズムを提案する。
TMCは、様々な視点をエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
理論的および実験的結果は、精度、堅牢性、信頼性において提案されたモデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-04-25T03:48:49Z) - Trusted Multi-View Classification [76.73585034192894]
本稿では,信頼された多視点分類と呼ばれる新しい多視点分類手法を提案する。
さまざまなビューをエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
提案アルゴリズムは,分類信頼性とロバスト性の両方を促進するために,複数のビューを併用する。
論文 参考訳(メタデータ) (2021-02-03T13:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。