論文の概要: Transformer based Fingerprint Feature Extraction
- arxiv url: http://arxiv.org/abs/2209.03846v1
- Date: Thu, 8 Sep 2022 14:35:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:05:44.982830
- Title: Transformer based Fingerprint Feature Extraction
- Title(参考訳): トランスを用いた指紋特徴抽出
- Authors: Saraansh Tandon, Anoop Namboodiri
- Abstract要約: 指紋特徴抽出は、グローバルまたはローカル表現を使用して解決されるタスクである。
両手法を併用して指紋表現を抽出することは意味的に有用であるが、非常に非効率である。
コンボリューション変換器を内蔵したミツイア抽出器によるアプローチは,時間とメモリ効率のよいソリューションを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fingerprint feature extraction is a task that is solved using either a global
or a local representation. State-of-the-art global approaches use heavy deep
learning models to process the full fingerprint image at once, which makes the
corresponding approach memory intensive. On the other hand, local approaches
involve minutiae based patch extraction, multiple feature extraction steps and
an expensive matching stage, which make the corresponding approach time
intensive. However, both these approaches provide useful and sometimes
exclusive insights for solving the problem. Using both approaches together for
extracting fingerprint representations is semantically useful but quite
inefficient. Our convolutional transformer based approach with an in-built
minutiae extractor provides a time and memory efficient solution to extract a
global as well as a local representation of the fingerprint. The use of these
representations along with a smart matching process gives us state-of-the-art
performance across multiple databases. The project page can be found at
https://saraansh1999.github.io/global-plus-local-fp-transformer.
- Abstract(参考訳): 指紋特徴抽出は、グローバルまたはローカル表現を使用して解決されるタスクである。
最先端のグローバルアプローチでは、大量のディープラーニングモデルを使用して、全指紋画像を一度に処理する。
一方,局所的なアプローチでは,minutiaeベースのパッチ抽出,複数の特徴抽出ステップ,高価なマッチングステージが関与し,対応するアプローチ時間が集中的になる。
しかし、どちらのアプローチも、問題解決に有用で時には排他的な洞察を提供する。
両手法を併用して指紋表現を抽出することは意味的に有用であるが、非常に非効率である。
in- built minutiae 抽出器を用いた畳み込み変圧器によるアプローチは,グローバルかつ局所的な指紋表現を抽出できる時間とメモリの効率的なソリューションを提供する。
これらの表現とスマートマッチングプロセスを使用することで、複数のデータベースで最先端のパフォーマンスを実現できます。
プロジェクトのページはhttps://saraansh1999.github.io/global-plus-local-fp-transformerにある。
関連論文リスト
- CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - PlaceFormer: Transformer-based Visual Place Recognition using Multi-Scale Patch Selection and Fusion [2.3020018305241337]
PlaceFormerは、視覚的位置認識のためのトランスフォーマーベースのアプローチである。
PlaceFormerは、トランスフォーマーからのパッチトークンを使用して、グローバルなイメージ記述子を生成する。
イメージ内のタスク関連領域に対応するパッチを選択する。
論文 参考訳(メタデータ) (2024-01-23T20:28:06Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - TruFor: Leveraging all-round clues for trustworthy image forgery
detection and localization [17.270110456445806]
TruForは、さまざまなイメージ操作方法に適用可能な、法医学的なフレームワークである。
変換器をベースとした融合アーキテクチャにより,高レベルのトレースと低レベルのトレースの両方を抽出する。
当社の手法は,安価なフェイクとディープフェイク操作の両方を確実に検出し,ローカライズすることができる。
論文 参考訳(メタデータ) (2022-12-21T11:49:43Z) - Towards Effective Image Manipulation Detection with Proposal Contrastive
Learning [61.5469708038966]
本稿では,効果的な画像操作検出のためのコントラスト学習(PCL)を提案する。
我々のPCLは、RGBとノイズビューから2種類のグローバル特徴を抽出し、2ストリームアーキテクチャで構成されている。
我々のPCLは、実際にラベル付けされていないデータに容易に適用でき、手作業によるラベル付けコストを削減し、より一般化可能な機能を促進することができる。
論文 参考訳(メタデータ) (2022-10-16T13:30:13Z) - Learning an Ensemble of Deep Fingerprint Representations [40.90173373640335]
ディープニューラルネットワーク(DNN)は、指紋から一定の長さの表現を学習する上で、驚くべき可能性を示しています。
指紋に含まれるすべての識別情報を包括的にカプセル化する普遍的な表現は存在しない。
入力画像の異なる変換に基づいてDeepPrintの複数のインスタンスをトレーニングし、指紋埋め込みのアンサンブルを生成する。
また,これらの複数の表現を単一の埋め込みに蒸留する特徴融合手法を提案する。
論文 参考訳(メタデータ) (2022-09-02T15:08:33Z) - Sparse Spatial Transformers for Few-Shot Learning [6.271261279657655]
限られたデータから学ぶことは、データの不足によってトレーニングされたモデルの一般化が不十分になるため、難しい。
スパース空間トランスと呼ばれる新しいトランスを用いたニューラルネットワークアーキテクチャを提案する。
本手法はタスク関連機能を見つけ,タスク関連機能を抑制する。
論文 参考訳(メタデータ) (2021-09-27T10:36:32Z) - Boosting Few-shot Semantic Segmentation with Transformers [81.43459055197435]
TRansformer-based Few-shot Semantic segmentation Method (TRFS)
我々のモデルは,グローバル・エンハンスメント・モジュール(GEM)とローカル・エンハンスメント・モジュール(LEM)の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2021-08-04T20:09:21Z) - Cross-Descriptor Visual Localization and Mapping [81.16435356103133]
視覚のローカライゼーションとマッピングは、Mixed Realityとロボティクスシステムの大部分を支える重要な技術である。
特徴表現の連続的な更新を必要とする局所化とマッピングのための3つの新しいシナリオを提案する。
我々のデータ駆動型アプローチは特徴記述子型に非依存であり、計算要求が低く、記述アルゴリズムの数と線形にスケールする。
論文 参考訳(メタデータ) (2020-12-02T18:19:51Z) - A cellular automata approach to local patterns for texture recognition [3.42658286826597]
本稿では, セルオートマトンによる複雑な物体の表現力と, テクスチャ解析における局所記述子の既知の有効性を組み合わせたテクスチャ記述法を提案する。
我々の提案は、特に現実世界の問題において、他の古典的、最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-07-15T03:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。