論文の概要: Resist : Reconstruction of irises from templates
- arxiv url: http://arxiv.org/abs/2007.15850v2
- Date: Tue, 13 Apr 2021 05:19:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 07:05:33.243047
- Title: Resist : Reconstruction of irises from templates
- Title(参考訳): resist : テンプレートからの虹彩の再構成
- Authors: Sohaib Ahmad, Christopher Geiger, Benjamin Fuller
- Abstract要約: 虹彩認識システムは虹彩画像を特徴ベクトルに変換する。
アイリスの将来の読み出しはテンプレートベクターに変換され比較され、個人の身元が決定または検証される。
様々な虹彩認識システムにまたがってテンプレートを逆変換する方法を示す。
すなわち,テンプレートを,対応する認識システムで同一のアイリスと見なされるリアルなアイリス画像に変換する方法を示す。
- 参考スコア(独自算出の注目度): 2.1874132949602654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Iris recognition systems transform an iris image into a feature vector. The
seminal pipeline segments an image into iris and non-iris pixels, normalizes
this region into a fixed-dimension rectangle, and extracts features which are
stored and called a template (Daugman, 2009). This template is stored on a
system. A future reading of an iris can be transformed and compared against
template vectors to determine or verify the identity of an individual. As
templates are often stored together, they are a valuable target to an attacker.
We show how to invert templates across a variety of iris recognition systems.
That is, we show how to transform templates into realistic looking iris images
that are also deemed as the same iris by the corresponding recognition system.
Our inversion is based on a convolutional neural network architecture we call
RESIST (REconStructing IriSes from Templates). We apply RESIST to a traditional
Gabor filter pipeline, to a DenseNet (Huang et al., CVPR 2017) feature
extractor, and to a DenseNet architecture that works without normalization.
Both DenseNet feature extractors are based on the recent ThirdEye recognition
system (Ahmad and Fuller, BTAS 2019). When training and testing using the
ND-0405 dataset, reconstructed images demonstrate a rank-1 accuracy of 100%,
76%, and 96% respectively for the three pipelines. The core of our approach is
similar to an autoencoder. However, standalone training the core produced low
accuracy. The final architecture integrates into an generative adversarial
network (Goodfellow et al., NeurIPS, 2014) producing higher accuracy.
- Abstract(参考訳): アイリス認識システムは、アイリス画像を特徴ベクトルに変換する。
セナルパイプラインはイメージを虹彩および非虹彩画素に分割し、この領域を固定次元矩形に正規化し、保存された特徴を抽出してテンプレートと呼ぶ(daugman, 2009)。
このテンプレートはシステムに格納されます。
irisの将来の読み出しは、テンプレートベクトルと変換して、個人のアイデンティティを決定または検証することができる。
テンプレートはしばしば一緒に保存されるので、攻撃者にとって価値のあるターゲットである。
様々な虹彩認識システムに対してテンプレートを逆変換する方法を示す。
すなわち、テンプレートを、対応する認識システムによって同じ虹彩と見なされる写実的な虹彩画像に変換する方法を示す。
私たちのインバージョンは、RESIST(ReconStructing IriSes from Templates)と呼ばれる畳み込みニューラルネットワークアーキテクチャに基づいています。
本稿では,従来のGaborフィルタパイプライン,DenseNet(Huang et al.,CVPR 2017)機能抽出器,正規化なしで動作するDenseNetアーキテクチャに適用する。
DenseNetの特徴抽出器は、最近のThirdEye認識システム(Ahmad and Fuller, BTAS 2019)に基づいている。
nd-0405データセットを使用してトレーニングとテストを行うと、再構成された画像は、3つのパイプラインでそれぞれ100%、76%、96%の精度を示す。
このアプローチのコアはオートエンコーダに似ています。
しかし、コアの独立したトレーニングは精度が低かった。
最終アーキテクチャは生成的敵ネットワーク(Goodfellow et al., NeurIPS, 2014)に統合され、精度が高い。
関連論文リスト
- R$^2$-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction [53.19869886963333]
3次元ガウススプラッティング(3DGS)は画像のレンダリングと表面再構成において有望な結果を示した。
本稿では,Sparse-viewトモグラフィ再構成のための3DGSベースのフレームワークであるR2$-Gaussianを紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:39:02Z) - $R^{2}$Former: Unified $R$etrieval and $R$eranking Transformer for Place
Recognition [92.56937383283397]
検索と再ランクの両方を扱う統合された場所認識フレームワークを提案する。
提案モジュールは特徴相関,注目値,xy座標を考慮に入れている。
R2$Formerは、主要なVPRデータセットの最先端メソッドを著しく上回る。
論文 参考訳(メタデータ) (2023-04-06T23:19:32Z) - Prediction of Geometric Transformation on Cardiac MRI via Convolutional
Neural Network [13.01021780124613]
画像に適用される幾何学的変換を認識するために,ConvNetsを訓練して医用画像の特徴を学習することを提案する。
幾何学的変換を容易に予測できる簡単な自己教師型タスクを提案する。
論文 参考訳(メタデータ) (2022-11-12T11:29:14Z) - Re2G: Retrieve, Rerank, Generate [14.848179433828252]
ニューラル初期検索とBARTに基づくシーケンス・ツー・シーケンス生成を併用したRe2Gを提案する。
エンド・ツー・エンドをトレーニングするために,本システムでは,対象シーケンスの出力に対して,基礎的真理のみを用いて,知識蒸留の新たなバリエーションを導入し,初期検索,再ランカ,生成を訓練する。
KILTのリーダーボード上では、ゼロショットスロットフィリング、質問応答、ファクトチェック、ダイアログの4つのタスクにおいて、従来の最先端よりも9%から34%向上した。
論文 参考訳(メタデータ) (2022-07-13T15:51:40Z) - VoGE: A Differentiable Volume Renderer using Gaussian Ellipsoids for
Analysis-by-Synthesis [62.47221232706105]
本稿では,ガウス再構成カーネルをボリュームプリミティブとして利用するVoGEを提案する。
本稿では,VoGEを用いて効率よくレンダリングを行うために,体積密度集約と粗大な描画戦略に関する近似クローズフォーム解を提案する。
VoGEは、オブジェクトポーズ推定、形状/テクスチャフィッティング、推論など、様々な視覚タスクに適用された場合、SoTAより優れている。
論文 参考訳(メタデータ) (2022-05-30T19:52:11Z) - TransformNet: Self-supervised representation learning through predicting
geometric transformations [0.8098097078441623]
入力データに適用された幾何変換の認識のための教師なし意味特徴学習手法について述べる。
我々のアプローチの基本概念は、画像中の物体を知らない人が、それらに適用された幾何学的変換を定量的に予測できないことである。
論文 参考訳(メタデータ) (2022-02-08T22:41:01Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - HAT: Hierarchical Aggregation Transformers for Person Re-identification [87.02828084991062]
我々は,CNNとトランスフォーマーの両方の利点を,高性能な画像ベース人物Re-IDに適用する。
作業は、画像ベースのRe-IDのためのCNNとTransformerの両方の利点を初めて活用する。
論文 参考訳(メタデータ) (2021-07-13T09:34:54Z) - Visual Saliency Transformer [127.33678448761599]
RGBとRGB-Dの液状物体検出(SOD)のための、純粋な変圧器であるVST(Visual Saliency Transformer)に基づく新しい統一モデルを開発しました。
イメージパッチを入力として取り、トランスフォーマーを利用してイメージパッチ間のグローバルコンテキストを伝搬する。
実験結果から,RGBとRGB-D SODのベンチマークデータセットにおいて,本モデルが既存の最新結果を上回っていることが示された。
論文 参考訳(メタデータ) (2021-04-25T08:24:06Z) - Exploring intermediate representation for monocular vehicle pose
estimation [38.85309013717312]
1枚のRGB画像からSO(3)の車両ポーズを復元する学習ベースの新しいフレームワークを提案する。
局所的な外観から観測角度へマッピングする以前の作品とは対照的に、我々は意味のある中間幾何学的表現(IGR)を抽出して進歩的なアプローチを探求する。
このアプローチは、知覚強度をIGRに変換するディープモデルを特徴とし、カメラ座標系における物体の向きを符号化する3次元表現にマッピングする。
論文 参考訳(メタデータ) (2020-11-17T06:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。