論文の概要: Internal Structure Attention Network for Fingerprint Presentation Attack
Detection from Optical Coherence Tomography
- arxiv url: http://arxiv.org/abs/2303.11034v1
- Date: Mon, 20 Mar 2023 11:36:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 15:44:43.635282
- Title: Internal Structure Attention Network for Fingerprint Presentation Attack
Detection from Optical Coherence Tomography
- Title(参考訳): 光コヒーレンストモグラフィによる指紋提示アタック検出のための内部構造注意ネットワーク
- Authors: Haohao Sun, Yilong Zhang, Peng Chen, Haixia Wang, Ronghua Liang
- Abstract要約: 本稿では,ネットワークトレーニングの指導に事前知識を適用した,教師付き学習に基づく新しいPAD手法ISAPADを提案する。
提案したデュアルブランチアーキテクチャは,OCT画像からグローバルな特徴を学習するだけでなく,階層構造にも注目する。
単純で効果的なISAMにより、提案ネットワークは、ノイズの多いOCTボリュームデータから、ボナフィドに属する層状セグメンテーション特徴を得ることができる。
- 参考スコア(独自算出の注目度): 7.241363249424351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a non-invasive optical imaging technique, optical coherence tomography
(OCT) has proven promising for automatic fingerprint recognition system (AFRS)
applications. Diverse approaches have been proposed for OCT-based fingerprint
presentation attack detection (PAD). However, considering the complexity and
variety of PA samples, it is extremely challenging to increase the
generalization ability with the limited PA dataset. To solve the challenge,
this paper presents a novel supervised learning-based PAD method, denoted as
ISAPAD, which applies prior knowledge to guide network training and enhance the
generalization ability. The proposed dual-branch architecture can not only
learns global features from the OCT image, but also concentrate on layered
structure feature which comes from the internal structure attention module
(ISAM). The simple yet effective ISAM enables the proposed network to obtain
layered segmentation features belonging only to Bonafide from noisy OCT volume
data directly. Combined with effective training strategies and PAD score
generation rules, ISAPAD obtains optimal PAD performance in limited training
data. Domain generalization experiments and visualization analysis validate the
effectiveness of the proposed method for OCT PAD.
- Abstract(参考訳): 非侵襲的な光学イメージング技術として、光学コヒーレンス断層撮影(OCT)は自動指紋認識システム(AFRS)の応用に有望であることが証明されている。
OCTを用いた指紋提示攻撃検出(PAD)には,様々なアプローチが提案されている。
しかし, PAサンプルの複雑さと多様性を考慮すると, PAデータセットを限定して一般化能力を高めることは極めて困難である。
そこで本研究では,ネットワークトレーニングの指導と一般化能力の向上に事前知識を適用した,教師付き学習に基づく新しいPAD手法ISAPADを提案する。
提案するデュアルブランチアーキテクチャは,OCT画像からグローバルな特徴を学習するだけでなく,内部構造注意モジュール(ISAM)から得られる階層構造機能にも注目する。
単純かつ効果的なisamにより,提案するネットワークはノイズの多いoctボリュームデータから,ボナフィドのみに属する層状セグメンテーション特徴を直接得ることができる。
効果的なトレーニング戦略とPADスコア生成規則を組み合わせることで、ISAPADは限られたトレーニングデータにおいて最適なPAD性能を得ることができる。
領域一般化実験と可視化解析により提案手法の有効性が検証された。
関連論文リスト
- Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Physics Inspired Hybrid Attention for SAR Target Recognition [61.01086031364307]
本稿では,物理にヒントを得たハイブリットアテンション(PIHA)機構と,この問題に対処するためのOFA評価プロトコルを提案する。
PIHAは、物理的情報の高レベルなセマンティクスを活用して、ターゲットの局所的なセマンティクスを認識した特徴群を活性化し、誘導する。
提案手法は,ASCパラメータが同じ12のテストシナリオにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-27T14:39:41Z) - Efficient Pyramid Channel Attention Network for Pathological Myopia
Recognition [5.999039860287413]
病理性近視(PM)は、世界中の視力障害の先進的な眼疾患である。
既存のディープニューラルネットワークは複雑なアーキテクチャの設計に重点を置いているが、PM以前の病理分布を探索することはめったにない。
本報告では, ピラミッドプール法と多スケールコンテキスト融合法により, PM前臨床病理の可能性を十分に活用できる効率的なピラミッドチャネルアテンション (EPCA) モジュールを提案する。
我々は,EPCAモジュールのシーケンスを積み重ねることで,基礎画像に基づく自動PM認識のためのEPCA-Netを構築した。
論文 参考訳(メタデータ) (2023-09-17T07:52:07Z) - Impact of a DCT-driven Loss in Attention-based Knowledge-Distillation
for Scene Recognition [64.29650787243443]
本稿では, アクティベーションマップの2次元周波数変換を転送前に提案し, 解析する。
この戦略は、シーン認識などのタスクにおける知識伝達可能性を高める。
我々は、この論文で使われているトレーニングおよび評価フレームワークを、http://www.vpu.eps.uam.es/publications/DCTBasedKDForSceneRecognitionで公開しています。
論文 参考訳(メタデータ) (2022-05-04T11:05:18Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Taming Self-Supervised Learning for Presentation Attack Detection:
De-Folding and De-Mixing [42.733666815035534]
各種提示攻撃装置(PAI)を用いた提示攻撃に対して生体認証システムは脆弱である
DF-DMと呼ばれる自己教師型学習手法を提案する。
DF-DMは、PDDのタスク固有の表現を導出するために、De-FoldingとDe-Mixingと結合したグローバルローカルビューに基づいている。
論文 参考訳(メタデータ) (2021-09-09T08:38:17Z) - MPG-Net: Multi-Prediction Guided Network for Segmentation of Retinal
Layers in OCT Images [11.370735571629602]
OCT画像の自動網膜層分割のための新しいマルチプレディション誘導アテンションネットワーク(MPG-Net)を提案する。
MPG-Netは、信頼性の高い自動セグメンテーションのためのU字形完全畳み込みネットワーク(FCN)の識別力を強化する2つの主要なステップから構成される。
論文 参考訳(メタデータ) (2020-09-28T21:22:22Z) - A Macro-Micro Weakly-supervised Framework for AS-OCT Tissue Segmentation [33.684182783291064]
アジア人では, 一次角閉鎖緑内障(PACG)が非可逆性失明の原因となっている。
提案するフレームワークは,相互に信頼性の高いガイダンスを提供する2つのモデルで構成されている。
公開されているAGEデータセットの実験では、提案されたフレームワークが最先端の半弱教師付き手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-07-20T11:26:32Z) - Unsupervised Instance Segmentation in Microscopy Images via Panoptic
Domain Adaptation and Task Re-weighting [86.33696045574692]
病理組織像における教師なし核分割のためのCycle Consistency Panoptic Domain Adaptive Mask R-CNN(CyC-PDAM)アーキテクチャを提案する。
まず,合成画像中の補助的な生成物を除去するための核塗布機構を提案する。
第二に、ドメイン識別器を持つセマンティックブランチは、パンプトレベルのドメイン適応を実現するように設計されている。
論文 参考訳(メタデータ) (2020-05-05T11:08:26Z) - Cross-domain Face Presentation Attack Detection via Multi-domain
Disentangled Representation Learning [109.42987031347582]
顔提示攻撃検出(PAD)は,顔認識システムにおいて緊急に解決すべき課題である。
クロスドメイン顔PADのための効率的な非交叉表現学習を提案する。
我々のアプローチは、不整合表現学習(DR-Net)とマルチドメイン学習(MD-Net)からなる。
論文 参考訳(メタデータ) (2020-04-04T15:45:14Z) - Multi-Scale Neural network for EEG Representation Learning in BCI [2.105172041656126]
本稿では,複数の周波数/時間範囲における特徴表現を探索する深層多スケールニューラルネットワークを提案する。
スペクトル時間情報を用いた脳波信号の表現により,提案手法を多種多様なパラダイムに応用することができる。
論文 参考訳(メタデータ) (2020-03-02T04:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。