論文の概要: Using CNNs to Identify the Origin of Finger Vein Image
- arxiv url: http://arxiv.org/abs/2103.01632v1
- Date: Tue, 2 Mar 2021 10:43:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:26:08.867795
- Title: Using CNNs to Identify the Origin of Finger Vein Image
- Title(参考訳): CNNを使って指静脈画像の起源を特定する
- Authors: Babak Maser, Andreas Uhl
- Abstract要約: 深層学習手法を用いて指静脈(FV)センサモデル同定タスクについて検討する。
幅広いCNNファミリーモデルをカバーするCNNアーキテクチャを5つ採用している。
センサ識別に優れたAUC-ROCスコア1.0、ROIサンプル0.9997が達成されている。
- 参考スコア(独自算出の注目度): 6.954694117813895
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We study the finger vein (FV) sensor model identification task using a deep
learning approach. So far, for this biometric modality, only correlation-based
PRNU and texture descriptor-based methods have been applied. We employ five
prominent CNN architectures covering a wide range of CNN family models,
including VGG16, ResNet, and the Xception model. In addition, a novel
architecture termed FV2021 is proposed in this work, which excels by its
compactness and a low number of parameters to be trained. Original samples, as
well as the region of interest data from eight publicly accessible FV datasets,
are used in experimentation. An excellent sensor identification AUC-ROC score
of 1.0 for patches of uncropped samples and 0.9997 for ROI samples have been
achieved. The comparison with former methods shows that the CNN-based approach
is superior and improved the results.
- Abstract(参考訳): 深層学習手法を用いて指静脈(FV)センサモデル同定タスクについて検討する。
これまでのバイオメトリック・モダリティでは,相関に基づくPRNUとテクスチャ記述子に基づく手法のみが適用されている。
我々は、VGG16、ResNet、Xceptionモデルなど、幅広いCNNファミリーモデルをカバーするCNNアーキテクチャを5つ採用している。
さらに、FV2021と呼ばれる新しいアーキテクチャが提案され、そのコンパクトさと訓練すべきパラメータの数が少ないことに長けている。
8つの公的なFVデータセットからの関心データだけでなく、元のサンプルも実験に使用されている。
センサ識別に優れたAUC-ROCスコア1.0、ROIサンプル0.9997が達成されている。
以前の方法と比較して、CNNベースのアプローチが優れていることを示し、結果を改善しました。
関連論文リスト
- Deep-Learning Framework for Optimal Selection of Soil Sampling Sites [0.0]
この研究は、画像処理におけるディープラーニングの最近の進歩を活用して、フィールドの重要な特性を示す最適な位置を見つける。
本フレームワークは,自己保持機構をバックボーンとするエンコーダデコーダアーキテクチャで構築されている。
このモデルはテストデータセットにおいて、平均精度99.52%、IoU平均インターセクション57.35%、Dice Coefficient平均71.47%という驚くべき結果を得た。
論文 参考訳(メタデータ) (2023-09-02T16:19:21Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - A Hybrid CNN-LSTM model for Video Deepfake Detection by Leveraging
Optical Flow Features [0.0]
ディープフェイク(Deepfakes)は、デジタルメディアの合成で、超リアルなフェイクビデオを作り、観客を騙す。
本稿では,光学フローに基づく特徴抽出手法を用いて時間的特徴を抽出し,分類のためのハイブリッドモデルに供給する。
このハイブリッドモデルは、DFDC、FF++、Celeb-DFといったオープンソースのデータセットに効果的なパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-07-28T09:38:09Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - A Novel Hand Gesture Detection and Recognition system based on
ensemble-based Convolutional Neural Network [3.5665681694253903]
コンピュータビジョンとパターン認識コミュニティでは,手の部分検出が課題となっている。
畳み込みニューラルネットワーク(CNN)アーキテクチャのようなディープラーニングアルゴリズムは、分類タスクにおいて非常に一般的な選択肢となっている。
本稿では,CNNに基づくアプローチのアンサンブルを用いて,予測時の高分散や過度な問題,予測誤差などの問題を克服する。
論文 参考訳(メタデータ) (2022-02-25T06:46:58Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - An Interaction-based Convolutional Neural Network (ICNN) Towards Better
Understanding of COVID-19 X-ray Images [0.0]
本稿では,局所情報の関連性を仮定しない対話型畳み込みニューラルネットワーク(ICNN)を提案する。
提案手法は、新型コロナウイルスのチェストX線画像を分類した実世界のデータセット上で、99.8%の最先端予測性能を実現する。
論文 参考訳(メタデータ) (2021-06-13T04:41:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。