論文の概要: Exploring Transformers for Behavioural Biometrics: A Case Study in Gait
Recognition
- arxiv url: http://arxiv.org/abs/2206.01441v1
- Date: Fri, 3 Jun 2022 08:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 15:28:42.447479
- Title: Exploring Transformers for Behavioural Biometrics: A Case Study in Gait
Recognition
- Title(参考訳): 行動バイオメトリックスのための変圧器探索 : 歩行認識の事例研究
- Authors: Paula Delgado-Santos, Ruben Tolosana, Richard Guest, Farzin Deravi,
Ruben Vera-Rodriguez
- Abstract要約: 本稿ではトランスフォーマーに基づく新しい歩行生体認証システムについて検討し,提案する。
実験フレームワークでは、最先端アーキテクチャ(Vanilla、Informer、Autoformer、Block-Recurrent Transformer、THAT)が検討されている。
代表的な2つの公開データベースwuGAITとOU-ISIRを用いて実験を行った。
- 参考スコア(独自算出の注目度): 0.7874708385247353
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Biometrics on mobile devices has attracted a lot of attention in recent years
as it is considered a user-friendly authentication method. This interest has
also been motivated by the success of Deep Learning (DL). Architectures based
on Convolutional Neural Networks (CNNs) and Recurrent Neural Networks (RNNs)
have been established to be convenient for the task, improving the performance
and robustness in comparison to traditional machine learning techniques.
However, some aspects must still be revisited and improved. To the best of our
knowledge, this is the first article that intends to explore and propose novel
gait biometric recognition systems based on Transformers, which currently
obtain state-of-the-art performance in many applications. Several
state-of-the-art architectures (Vanilla, Informer, Autoformer, Block-Recurrent
Transformer, and THAT) are considered in the experimental framework. In
addition, new configurations of the Transformers are proposed to further
increase the performance. Experiments are carried out using the two popular
public databases whuGAIT and OU-ISIR. The results achieved prove the high
ability of the proposed Transformer, outperforming state-of-the-art CNN and RNN
architectures.
- Abstract(参考訳): モバイルデバイス上の生体認証は,近年,ユーザフレンドリーな認証手法として注目されている。
この関心は、Deep Learning (DL)の成功にも動機づけられている。
畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)に基づくアーキテクチャは、従来の機械学習技術と比較してパフォーマンスと堅牢性を向上し、タスクに便利なように確立されている。
しかし、いくつかの側面は再検討され、改善されなければならない。
私たちの知る限りでは、本稿はトランスフォーマーに基づく新しい歩行生体認証システムを探求し、提案する最初の記事であり、現在多くのアプリケーションで最先端のパフォーマンスを得ている。
いくつかの最先端アーキテクチャ(vanilla、informer、autoformer、block-recurrent transformerなど)は、実験フレームワークで検討されている。
さらに、さらなる性能向上のためにトランスフォーマーの新しい構成が提案されている。
代表的な2つの公開データベースwuGAITとOU-ISIRを用いて実験を行った。
その結果、提案したTransformerの高機能性を証明し、最先端のCNNおよびRNNアーキテクチャより優れていた。
関連論文リスト
- Volume-Preserving Transformers for Learning Time Series Data with Structure [0.0]
我々はトランスフォーマーにインスパイアされたニューラルネットワークを開発し、それを使って力学系を学習する。
我々は,アテンション層の活性化関数を構造保存特性を持つ変圧器に置き換える。
これは、ニューラルネットワークを剛体軌道の学習に応用する際の大きな利点である。
論文 参考訳(メタデータ) (2023-12-18T13:09:55Z) - A Survey of Techniques for Optimizing Transformer Inference [3.6258657276072253]
近年、トランスフォーマーニューラルネットワークの性能と応用が飛躍的に上昇している。
ChatGPTのようなトランスフォーマーベースのネットワークは、一般的な男性の生活に影響を与えている。
研究者は、あらゆるレベルの抽象化でトランスフォーマー推論を最適化する手法を提案している。
論文 参考訳(メタデータ) (2023-07-16T08:50:50Z) - Exploring the Performance and Efficiency of Transformer Models for NLP
on Mobile Devices [3.809702129519641]
新しいディープニューラルネットワーク(DNN)アーキテクチャとアプローチが数年毎に登場し、この分野の進歩が加速している。
トランスフォーマーは、AIタスク全体で新しいレベルの精度を達成した比較的新しいモデルファミリである。
この作業は、Transformersのオンデバイス実行の現在の状態を調べて、このギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2023-06-20T10:15:01Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - AFR-Net: Attention-Driven Fingerprint Recognition Network [47.87570819350573]
指紋認識を含む生体認証における視覚変換器(ViT)の使用に関する初期研究を改善する。
ネットワーク内の中間特徴マップから抽出した局所的な埋め込みを用いて,グローバルな埋め込みを低確かさで洗練する手法を提案する。
この戦略は、既存のディープラーニングネットワーク(アテンションベース、CNNベース、あるいはその両方を含む)のラッパーとして適用することで、パフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2022-11-25T05:10:39Z) - Demystify Transformers & Convolutions in Modern Image Deep Networks [82.32018252867277]
本稿では,一般のコンボリューションとアテンション演算子の真の利益を,詳細な研究により同定することを目的とする。
注意や畳み込みのようなこれらの特徴変換モジュールの主な違いは、それらの空間的特徴集約アプローチにある。
各種課題の実験と帰納的バイアスの解析により,ネットワークレベルとブロックレベルの高度な設計により,性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-10T18:59:43Z) - Mobile Keystroke Biometrics Using Transformers [11.562974686156196]
本稿では,自由文シナリオにおけるキーストロークバイオメトリックスシステムの改良に焦点を当てる。
従来の機械学習手法よりも優れたディープラーニング手法が文献で提案されている。
我々の知る限りでは、トランスフォーマーに基づくキーストローク生体計測システムを提案する最初の研究である。
論文 参考訳(メタデータ) (2022-07-15T16:50:11Z) - Vision Transformer with Convolutions Architecture Search [72.70461709267497]
本稿では,畳み込み型アーキテクチャサーチ(VTCAS)を用いたアーキテクチャ探索手法を提案する。
VTCASによって探索された高性能バックボーンネットワークは、畳み込みニューラルネットワークの望ましい特徴をトランスフォーマーアーキテクチャに導入する。
これは、特に低照度屋内シーンにおいて、物体認識のためのニューラルネットワークの堅牢性を高める。
論文 参考訳(メタデータ) (2022-03-20T02:59:51Z) - Rich CNN-Transformer Feature Aggregation Networks for Super-Resolution [50.10987776141901]
近年の視覚変換器と自己注意は,様々なコンピュータビジョンタスクにおいて有望な成果を上げている。
我々は,CNNの局所的特徴とトランスフォーマーが捉えた長距離依存性を活用する,超解像(SR)タスクのための効果的なハイブリッドアーキテクチャを提案する。
提案手法は,多数のベンチマークデータセットから最先端のSR結果を得る。
論文 参考訳(メタデータ) (2022-03-15T06:52:25Z) - Improving Sample Efficiency of Value Based Models Using Attention and
Vision Transformers [52.30336730712544]
性能を犠牲にすることなくサンプル効率を向上させることを目的とした深層強化学習アーキテクチャを提案する。
状態表現の特徴マップ上の自己注意機構を変換器を用いて学習する視覚的注意モデルを提案する。
我々は,このアーキテクチャがいくつかのAtari環境におけるサンプルの複雑さを向上すると同時に,いくつかのゲームにおいて優れたパフォーマンスを実現することを実証的に実証した。
論文 参考訳(メタデータ) (2022-02-01T19:03:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。