論文の概要: Convolutional Neural Network with Convolutional Block Attention Module
for Finger Vein Recognition
- arxiv url: http://arxiv.org/abs/2202.06673v1
- Date: Mon, 14 Feb 2022 12:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 22:29:56.805514
- Title: Convolutional Neural Network with Convolutional Block Attention Module
for Finger Vein Recognition
- Title(参考訳): 指静脈認識のための畳み込みブロック注意モジュールを用いた畳み込みニューラルネットワーク
- Authors: Zhongxia Zhang and Mingwen Wang
- Abstract要約: 指静脈認識のための畳み込みブロックアテンションモジュール(CBAM)を用いた軽量畳み込みニューラルネットワークを提案する。
実験は2つの公開データベース上で実施され,本手法がマルチモーダル・フィンガー認識において安定かつ高精度で頑健な性能を実現することを示す。
- 参考スコア(独自算出の注目度): 4.035753155957698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks have become a popular research in the field of
finger vein recognition because of their powerful image feature representation.
However, most researchers focus on improving the performance of the network by
increasing the CNN depth and width, which often requires high computational
effort. Moreover, we can notice that not only the importance of pixels in
different channels is different, but also the importance of pixels in different
positions of the same channel is different. To reduce the computational effort
and to take into account the different importance of pixels, we propose a
lightweight convolutional neural network with a convolutional block attention
module (CBAM) for finger vein recognition, which can achieve a more accurate
capture of visual structures through an attention mechanism. First, image
sequences are fed into a lightweight convolutional neural network we designed
to improve visual features. Afterwards, it learns to assign feature weights in
an adaptive manner with the help of a convolutional block attention module. The
experiments are carried out on two publicly available databases and the results
demonstrate that the proposed method achieves a stable, highly accurate, and
robust performance in multimodal finger recognition.
- Abstract(参考訳): 畳み込みニューラルネットワークは、その強力な画像特徴表現のため、指静脈認識の分野で広く研究されている。
しかし、ほとんどの研究者はCNNの深さと幅を大きくすることでネットワークの性能を向上させることに重点を置いている。
さらに、異なるチャネルにおける画素の重要性が異なるだけでなく、同じチャネルにおける異なる位置における画素の重要性が異なることに気づく。
そこで本研究では,指静脈認識のための畳み込みブロックアテンションモジュール(CBAM)を備えた軽量畳み込みニューラルネットワークを提案する。
まず、画像シーケンスは、視覚機能を改善するために設計された軽量畳み込みニューラルネットワークに供給されます。
その後、畳み込みブロックアテンションモジュールの助けを借りて、特徴重みを適応的に割り当てることを学ぶ。
実験は2つの公開データベース上で実施され,本手法がマルチモーダル指認識において安定かつ高精度で頑健な性能を実現することを示す。
関連論文リスト
- Unleashing the Power of Depth and Pose Estimation Neural Networks by
Designing Compatible Endoscopic Images [12.412060445862842]
内視鏡画像の特性を詳細に解析し、画像とニューラルネットワークの互換性を改善する。
まず,完全な画像情報の代わりに部分的な画像情報を入力するMask Image Modelling (MIM) モジュールを導入する。
第2に、画像とニューラルネットワークの互換性を明確に向上させるために、内視鏡画像を強化する軽量ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-14T02:19:38Z) - Rethinking Unsupervised Neural Superpixel Segmentation [6.123324869194195]
CNNによるスーパーピクセルセグメンテーションのための教師なし学習が研究されている。
このようなネットワークの有効性を改善するために,3つの重要な要素を提案する。
BSDS500データセットを実験した結果,提案手法の意義を示す証拠が得られた。
論文 参考訳(メタデータ) (2022-06-21T09:30:26Z) - Understanding the Influence of Receptive Field and Network Complexity in
Neural-Network-Guided TEM Image Analysis [0.0]
透過電子顕微鏡(TEM)画像において,ニューラルネットワークのアーキテクチャ選択がニューラルネットワークセグメントに与える影響を系統的に検討した。
背景からナノ粒子を区別するために振幅コントラストに依存した低分解能TEM画像の場合、受容場はセグメンテーション性能に有意な影響を与えない。
一方、ナノ粒子を識別するために振幅と位相コントラストの組合せに依存する高分解能TEM画像では、受容場が性能向上の鍵となるパラメータである。
論文 参考訳(メタデータ) (2022-04-08T18:45:15Z) - Vision Transformer with Convolutions Architecture Search [72.70461709267497]
本稿では,畳み込み型アーキテクチャサーチ(VTCAS)を用いたアーキテクチャ探索手法を提案する。
VTCASによって探索された高性能バックボーンネットワークは、畳み込みニューラルネットワークの望ましい特徴をトランスフォーマーアーキテクチャに導入する。
これは、特に低照度屋内シーンにおいて、物体認識のためのニューラルネットワークの堅牢性を高める。
論文 参考訳(メタデータ) (2022-03-20T02:59:51Z) - Visual Attention Network [90.0753726786985]
本稿では,自己アテンションにおける自己適応性および長距離相関を実現するために,新しいカーネルアテンション(LKA)モジュールを提案する。
また、LKAに基づく新しいニューラルネットワーク、すなわちVisual Attention Network (VAN)を導入する。
VANは、最先端のビジョントランスフォーマーと畳み込みニューラルネットワークを、広範な実験において大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-02-20T06:35:18Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Cross-modal Attention for MRI and Ultrasound Volume Registration [10.725645523967904]
我々は,クロスモーダル画像登録のための自己認識機構を開発した。
提案するクロスモーダルアテンションブロックは,各特徴量と対応する特徴量とを効果的にマッピングする。
実験の結果,クロスモーダルアテンションブロックを組み込んだCNNネットワークが,CNNネットワークの10倍の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2021-07-09T17:04:02Z) - Deep Features for training Support Vector Machine [16.795405355504077]
本稿では,訓練済みcnnから抽出した特徴に基づく汎用コンピュータビジョンシステムを開発した。
複数の学習特徴を単一の構造に組み合わせ、異なる画像分類タスクに取り組んでいます。
論文 参考訳(メタデータ) (2021-04-08T03:13:09Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Channel-Level Variable Quantization Network for Deep Image Compression [50.3174629451739]
チャネルレベルの可変量子化ネットワークを提案し、重要なチャネルに対してより多くの畳み込みを動的に割り当て、無視可能なチャネルに対して退避する。
提案手法は優れた性能を実現し,より優れた視覚的再構成を実現する。
論文 参考訳(メタデータ) (2020-07-15T07:20:39Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。