論文の概要: FH-SSTNet: Forehead Creases based User Verification using Spatio-Spatial Temporal Network
- arxiv url: http://arxiv.org/abs/2403.16202v1
- Date: Sun, 24 Mar 2024 15:51:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 17:06:13.239830
- Title: FH-SSTNet: Forehead Creases based User Verification using Spatio-Spatial Temporal Network
- Title(参考訳): FH-SSTNet:spatio-Spatial Temporal Networkを用いたフォアヘッド生成に基づくユーザ検証
- Authors: Geetanjali Sharma, Gaurav Jaswal, Aditya Nigam, Raghavendra Ramachandra,
- Abstract要約: 我々は、FH-SSTNet(Forehead-Spatial Temporal Network)と呼ばれる新しいCNNモデルを導入する。
我々は,ネットワークの頭上でArclossを用いてモデルの識別能力を向上する。
その結果,FH-SSTNetのユーザ認証性能に優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 7.388428517938331
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biometric authentication, which utilizes contactless features, such as forehead patterns, has become increasingly important for identity verification and access management. The proposed method is based on learning a 3D spatio-spatial temporal convolution to create detailed pictures of forehead patterns. We introduce a new CNN model called the Forehead Spatio-Spatial Temporal Network (FH-SSTNet), which utilizes a 3D CNN architecture with triplet loss to capture distinguishing features. We enhance the model's discrimination capability using Arcloss in the network's head. Experimentation on the Forehead Creases version 1 (FH-V1) dataset, containing 247 unique subjects, demonstrates the superior performance of FH-SSTNet compared to existing methods and pre-trained CNNs like ResNet50, especially for forehead-based user verification. The results demonstrate the superior performance of FH-SSTNet for forehead-based user verification, confirming its effectiveness in identity authentication.
- Abstract(参考訳): フォアヘッドパターンなどの非接触機能を利用する生体認証は、識別認証やアクセス管理においてますます重要になっている。
提案手法は,3次元空間空間的時間的畳み込みを学習し,頭部パターンの詳細な画像を作成する。
本稿では,3次元CNNアーキテクチャを用いて特徴の識別を行う,フォアヘッド時空間ネットワーク(FH-SSTNet)と呼ばれる新しいCNNモデルを提案する。
我々は,ネットワークの頭上でArclossを用いてモデルの識別能力を向上する。
Forehead Creasesバージョン1(FH-V1)データセットの実験では、FH-SSTNetが既存のメソッドやResNet50のようなトレーニング済みCNN、特にフォアヘッドベースのユーザ検証よりも優れていることが示されている。
その結果,FH-SSTNetのユーザ認証性能が向上し,識別認証の有効性が確認された。
関連論文リスト
- DiffFAE: Advancing High-fidelity One-shot Facial Appearance Editing with Space-sensitive Customization and Semantic Preservation [84.0586749616249]
本稿では,高忠実度顔画像編集に適した1段階かつ高効率な拡散ベースフレームワークDiffFAEを提案する。
高忠実度クエリ属性転送には、空間感性物理カスタマイズ(SPC)を採用し、忠実度と一般化能力を保証している。
ソース属性を保存するために、Regional-responsive Semantic Composition (RSC)を導入する。
このモジュールは、切り離されたソースを無視する特徴を学習するためにガイドされ、髪、服、背景などの非顔的属性からアーティファクトを保存し緩和する。
論文 参考訳(メタデータ) (2024-03-26T12:53:10Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - Keypoint Message Passing for Video-based Person Re-Identification [106.41022426556776]
ビデオベースの人物再識別(re-ID)は、異なるカメラで捉えた人々のビデオスニペットをマッチングすることを目的とした、視覚監視システムにおいて重要な技術である。
既存の手法は主に畳み込みニューラルネットワーク(CNN)に基づいており、そのビルディングブロックは近隣のピクセルを一度に処理するか、あるいは3D畳み込みが時間情報のモデル化に使用される場合、人の動きによって生じるミスアライメントの問題に悩まされる。
本稿では,人間指向グラフ法を用いて,通常の畳み込みの限界を克服することを提案する。具体的には,人手指のキーポイントに位置する特徴を抽出し,時空間グラフとして接続する。
論文 参考訳(メタデータ) (2021-11-16T08:01:16Z) - AttDLNet: Attention-based DL Network for 3D LiDAR Place Recognition [0.6352264764099531]
本稿では,AttDLNetという3次元LiDARに基づくディープラーニングネットワークを提案する。
注意機構を利用して、長距離コンテキストと機能間関係に選択的にフォーカスする。
その結果、エンコーダネットワークの機能は、すでに非常に説明力があるが、ネットワークに注意を加えることで、パフォーマンスがさらに向上していることがわかった。
論文 参考訳(メタデータ) (2021-06-17T16:34:37Z) - Few-Data Guided Learning Upon End-to-End Point Cloud Network for 3D Face
Recognition [10.880181451789262]
ポイントクラウドベースの3D顔認識のためのエンドツーエンドのディープラーニングネットワークであるSur3dNet-Faceを提案する。
Rank-1 Recognition Rate (RR1) は、FRGC v2.0データセットで98.85%、Bosphorusデータセットで99.33%である。
論文 参考訳(メタデータ) (2021-03-31T09:26:14Z) - An Efficient Multitask Neural Network for Face Alignment, Head Pose
Estimation and Face Tracking [9.39854778804018]
効率的なマルチタスク顔アライメント、顔追跡、頭部ポーズ推定ネットワーク(ATPN)を提案します。
ATPNは従来の最先端手法に比べて性能が向上し、パラメータやFLOPSは少ない。
論文 参考訳(メタデータ) (2021-03-13T04:41:15Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z) - TimeConvNets: A Deep Time Windowed Convolution Neural Network Design for
Real-time Video Facial Expression Recognition [93.0013343535411]
本研究では、リアルタイムな映像表情認識を目的とした、新しい時間窓付き畳み込みニューラルネットワーク設計(TimeConvNets)について検討する。
我々は,TimeConvNetsが表情の過度なニュアンスを捕捉し,低い推論時間を維持しながら分類精度を高めることができることを示した。
論文 参考訳(メタデータ) (2020-03-03T20:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。