論文の概要: Finger Multimodal Feature Fusion and Recognition Based on Channel
Spatial Attention
- arxiv url: http://arxiv.org/abs/2209.02368v1
- Date: Tue, 6 Sep 2022 10:48:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 14:13:44.014435
- Title: Finger Multimodal Feature Fusion and Recognition Based on Channel
Spatial Attention
- Title(参考訳): チャネル空間的注意に基づくフィンガーマルチモーダル特徴の融合と認識
- Authors: Jian Guo, Jiaxiang Tu, Hengyi Ren, Chong Han, Lijuan Sun
- Abstract要約: 指紋と指の静脈に基づく多モーダルバイオメトリック・フュージョン認識アルゴリズムを提案する。
指紋と指の静脈の画像のそれぞれに対して,まず,特徴を抽出するためのシンプルで効果的な畳み込みニューラルネットワーク(CNN)を提案する。
次に,指紋と指の静脈の相補的情報を完全に融合させるマルチモーダル機能融合モジュール(CSAFM,Channel Spatial Attention Fusion Module)を構築した。
- 参考スコア(独自算出の注目度): 8.741051302995755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the instability and limitations of unimodal biometric systems,
multimodal systems have attracted more and more attention from researchers.
However, how to exploit the independent and complementary information between
different modalities remains a key and challenging problem. In this paper, we
propose a multimodal biometric fusion recognition algorithm based on
fingerprints and finger veins (Fingerprint Finger Veins-Channel Spatial
Attention Fusion Module, FPV-CSAFM). Specifically, for each pair of fingerprint
and finger vein images, we first propose a simple and effective Convolutional
Neural Network (CNN) to extract features. Then, we build a multimodal feature
fusion module (Channel Spatial Attention Fusion Module, CSAFM) to fully fuse
the complementary information between fingerprints and finger veins. Different
from existing fusion strategies, our fusion method can dynamically adjust the
fusion weights according to the importance of different modalities in channel
and spatial dimensions, so as to better combine the information between
different modalities and improve the overall recognition performance. To
evaluate the performance of our method, we conduct a series of experiments on
multiple public datasets. Experimental results show that the proposed FPV-CSAFM
achieves excellent recognition performance on three multimodal datasets based
on fingerprints and finger veins.
- Abstract(参考訳): ユニモーダルバイオメトリックシステムの不安定性と限界のために、マルチモーダルシステムは研究者の注目を集めている。
しかし、異なるモダリティ間で独立かつ補完的な情報をどう活用するかは、依然として重要かつ困難な問題である。
本稿では,指紋と指静脈(フィンガープリントフィンガー静脈-チャネル空間注意融合モジュール,fpv-csafm)に基づくマルチモーダル生体認証アルゴリズムを提案する。
具体的には、指紋と指の静脈の画像のそれぞれに対して、まず特徴を抽出するためのシンプルで効果的な畳み込みニューラルネットワーク(CNN)を提案する。
次に,指紋と指の静脈の相補的情報を完全に融合させるマルチモーダル機能融合モジュール(CSAFM,Channel Spatial Attention Fusion Module)を構築した。
既存の核融合戦略と異なり, チャネル次元と空間次元の異なるモードの重要性に応じて, 融合重量を動的に調整し, 異なるモード間の情報をよりうまく組み合わせ, 全体的な認識性能を向上させる。
提案手法の性能を評価するため,複数の公開データセットに対して一連の実験を行った。
実験の結果,FPV-CSAFMは指紋と指の静脈に基づく3つのマルチモーダルデータセットの認識性能に優れていた。
関連論文リスト
- Multimodality Helps Few-Shot 3D Point Cloud Semantic Segmentation [61.91492500828508]
FS-PCS (Few-shot 3D point cloud segmentation) は、最小のサポートサンプルで新しいカテゴリを分割するモデルを一般化することを目的としている。
本稿では,テキストラベルと潜在的に利用可能な2次元画像モダリティを利用して,コストフリーのマルチモーダルFS-PCSセットアップを提案する。
トレーニングバイアスを軽減するため,テスト時間適応型クロスモーダルセグ(TACC)技術を提案する。
論文 参考訳(メタデータ) (2024-10-29T19:28:41Z) - AMFD: Distillation via Adaptive Multimodal Fusion for Multispectral Pedestrian Detection [23.91870504363899]
マルチスペクトル検出におけるダブルストリームネットワークは、マルチモーダルデータに2つの異なる特徴抽出枝を用いる。
これにより、組み込みデバイスにおける多スペクトル歩行者検出が自律システムに広く採用されるのを妨げている。
本稿では,教師ネットワークの本来のモーダル特徴を完全に活用できる適応型モーダル核融合蒸留(AMFD)フレームワークについて紹介する。
論文 参考訳(メタデータ) (2024-05-21T17:17:17Z) - Fusion-Mamba for Cross-modality Object Detection [63.56296480951342]
異なるモダリティから情報を融合するクロスモダリティは、オブジェクト検出性能を効果的に向上させる。
We design a Fusion-Mamba block (FMB) to map cross-modal features into a hidden state space for interaction。
提案手法は,m3FD$が5.9%,FLIRデータセットが4.9%,m3FD$が5.9%である。
論文 参考訳(メタデータ) (2024-04-14T05:28:46Z) - Joint Multimodal Transformer for Emotion Recognition in the Wild [49.735299182004404]
マルチモーダル感情認識(MMER)システムは、通常、単調なシステムよりも優れている。
本稿では,キーベースのクロスアテンションと融合するために,ジョイントマルチモーダルトランス (JMT) を利用するMMER法を提案する。
論文 参考訳(メタデータ) (2024-03-15T17:23:38Z) - DiffVein: A Unified Diffusion Network for Finger Vein Segmentation and
Authentication [50.017055360261665]
DiffVeinは、静脈分割と認証タスクを同時に処理する統合拡散モデルベースのフレームワークである。
これら2つのブランチ間の機能相互作用を改善するために,2つの特別なモジュールを導入する。
このようにして、我々のフレームワークは拡散とセグメンテーションの埋め込みの間の動的相互作用を可能にする。
論文 参考訳(メタデータ) (2024-02-03T06:49:42Z) - Just Noticeable Visual Redundancy Forecasting: A Deep Multimodal-driven
Approach [11.600496805298778]
JND(Just noticeable difference)とは、人間の目が知覚できない最大の視覚変化を指す用語である。
本稿では,JNDモデリングをエンドツーエンドのマルチモーダル,すなわちhmJND-Netの観点から検討する。
論文 参考訳(メタデータ) (2023-03-18T09:36:59Z) - Multimodal Object Detection via Bayesian Fusion [59.31437166291557]
我々は、RGBとサーマルカメラでマルチモーダルオブジェクト検出を研究します。後者は照明不良下ではるかに強力なオブジェクトシグネチャを提供することができます。
我々の重要な貢献は、異なるモードのボックス検出を融合する非学習遅延融合法である。
このアプローチは、整列(KAIST)と非整列(FLIR)のマルチモーダルセンサーデータを含むベンチマークに適用されます。
論文 参考訳(メタデータ) (2021-04-07T04:03:20Z) - MSAF: Multimodal Split Attention Fusion [6.460517449962825]
我々は,すべてのモダリティにまたがるより帰属的な特徴を強調する新しいマルチモーダル融合モジュールを提案する。
提案手法は,各タスクにおける競合的な結果を達成し,アプリケーション固有のネットワークやマルチモーダル融合ベンチマークより優れている。
論文 参考訳(メタデータ) (2020-12-13T22:42:41Z) - Deep Multimodal Fusion by Channel Exchanging [87.40768169300898]
本稿では,異なるモードのサブネットワーク間で動的にチャネルを交換するパラメータフリーマルチモーダル融合フレームワークを提案する。
このような交換プロセスの有効性は、畳み込みフィルタを共有してもBN層をモダリティで分離しておくことで保証される。
論文 参考訳(メタデータ) (2020-11-10T09:53:20Z) - Multi-modal Fusion for Single-Stage Continuous Gesture Recognition [45.19890687786009]
テンポラル・マルチモーダル・フュージョン(TMMF)と呼ばれる単一段階連続ジェスチャー認識フレームワークを導入する。
TMMFは、単一のモデルでビデオ内の複数のジェスチャーを検出し、分類することができる。
このアプローチは、前処理のセグメンテーションステップを必要とせずに、ジェスチャーと非ジェスチャーの自然な遷移を学習する。
論文 参考訳(メタデータ) (2020-11-10T07:09:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。