論文の概要: Print2Volume: Generating Synthetic OCT-based 3D Fingerprint Volume from 2D Fingerprint Image
- arxiv url: http://arxiv.org/abs/2508.21371v1
- Date: Fri, 29 Aug 2025 07:26:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.944434
- Title: Print2Volume: Generating Synthetic OCT-based 3D Fingerprint Volume from 2D Fingerprint Image
- Title(参考訳): Print2Volume:2Dフィンガープリント画像から合成OCTベースの3Dフィンガープリントボリュームを生成する
- Authors: Qingran Miao, Haixia Wang, Haohao Sun, Yilong Zhang,
- Abstract要約: 本稿では,2次元指紋画像からリアルな合成3D指紋を生成するための新しいフレームワークであるPrint2Volumeを紹介する。
420,000のサンプルからなる大規模合成データセットを作成した。
合成データ上で認識モデルを事前学習し、それを小さな実世界のデータセットで微調整することにより、EER(Equal Error Rate)の顕著な低減を実現した。
- 参考スコア(独自算出の注目度): 5.697372349288325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical Coherence Tomography (OCT) enables the acquisition of high-resolution, three-dimensional fingerprint data, capturing rich subsurface structures for robust biometric recognition. However, the high cost and time-consuming nature of OCT data acquisition have led to a scarcity of large-scale public datasets, significantly hindering the development of advanced algorithms, particularly data-hungry deep learning models. To address this critical bottleneck, this paper introduces Print2Volume, a novel framework for generating realistic, synthetic OCT-based 3D fingerprints from 2D fingerprint image. Our framework operates in three sequential stages: (1) a 2D style transfer module that converts a binary fingerprint into a grayscale images mimicking the style of a Z-direction mean-projected OCT scan; (2) a 3D Structure Expansion Network that extrapolates the 2D im-age into a plausible 3D anatomical volume; and (3) an OCT Realism Refiner, based on a 3D GAN, that renders the structural volume with authentic textures, speckle noise, and other imaging characteristics. Using Print2Volume, we generated a large-scale synthetic dataset of 420,000 samples. Quantitative experiments demonstrate the high quality of our synthetic data and its significant impact on recognition performance. By pre-training a recognition model on our synthetic data and fine-tuning it on a small real-world dataset, we achieved a remarkable reduction in the Equal Error Rate (EER) from 15.62% to 2.50% on the ZJUT-EIFD benchmark, proving the effectiveness of our approach in overcoming data scarcity.
- Abstract(参考訳): 光コヒーレンス・トモグラフィ(OCT)は高分解能な3次元指紋データの取得を可能にし、強力な生体認証のための豊富な地下構造を捕捉する。
しかし、OCTデータ取得のコストと時間のかかる性質は、大規模な公開データセットの不足を招き、高度なアルゴリズム、特にデータ不足のディープラーニングモデルの開発を著しく妨げている。
この重要なボトルネックに対処するため,本研究では,2次元指紋画像からリアルなOCTベースの3D指紋を生成するための新しいフレームワークであるPrint2Volumeを紹介する。
本フレームワークは,(1)Z方向の平均投影型CTスキャンのスタイルを模倣した2次元指紋をグレースケール画像に変換する2Dスタイルのトランスファーモジュール,(2)2次元即時像を3D解剖学的ボリュームに外挿する3D構造拡張ネットワーク,(3)3D GANをベースとしたOCTリアリズムリファイナ,(3)構造容積をテクスチャ,スペックルノイズ,その他の画像特性でレンダリングする3Dリアリズムリファイナの3段階で動作する。
Print2Volumeを用いて,420,000のサンプルからなる大規模合成データセットを作成した。
定量的実験により, 合成データの高品質化が認識性能に与える影響を実証した。
ZJUT-EIFDベンチマークで認識モデルを事前学習し、小さな実世界のデータセットで微調整することで、EER(Equal Error Rate)が15.62%から2.50%に大幅に削減され、データの不足を克服するアプローチの有効性が証明された。
関連論文リスト
- Towards Scalable Spatial Intelligence via 2D-to-3D Data Lifting [64.64738535860351]
単一ビュー画像を包括的・スケール的・外観リアルな3D表現に変換するスケーラブルなパイプラインを提案する。
本手法は,画像の膨大な保存と空間的シーン理解への需要の増大とのギャップを埋めるものである。
画像から精度の高い3Dデータを自動的に生成することにより,データ収集コストを大幅に削減し,空間知性を向上するための新たな道を開く。
論文 参考訳(メタデータ) (2025-07-24T14:53:26Z) - Towards 3D Semantic Image Synthesis for Medical Imaging [3.1265626879839923]
本研究では,3次元領域で直接動作するメドLSDM(Latent Semantic Diffusion Model)を提案する。
Med-LSDMは2Dスライス生成に重点を置いている既存の方法とは異なり、3Dセマンティック画像合成に特化して設計されている。
提案手法は,Duke Breastデータセットの3D-FIDスコア0.0054を達成し,3Dセマンティックな医用画像合成において高い性能を示す。
論文 参考訳(メタデータ) (2025-06-30T19:18:06Z) - Learning Radiance Fields from a Single Snapshot Compressive Image [18.548244681485922]
Snapshot Compressive Imaging (SCI) 法による1つの時間圧縮画像から基礎となる3次元シーン構造を復元する。
我々は,SCINeRFのトレーニングの一環として,SCIの物理像過程を定式化するSCINeRFを提案する。
さらに,一般的な3Dガウス・スプレイティング(3DGS)フレームワークを統合し,3Dシーンの再現品質とトレーニング・レンダリング速度を改善するためのSCISplatを提案する。
論文 参考訳(メタデータ) (2024-12-27T06:40:44Z) - FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - ID-to-3D: Expressive ID-guided 3D Heads via Score Distillation Sampling [96.87575334960258]
ID-to-3D(ID-to-3D)は、不整合表現を用いたIDとテキスト誘導型3次元頭部を生成する方法である。
前例のないアイデンティティ一貫性と高品質なテクスチャと幾何生成を実現する。
論文 参考訳(メタデータ) (2024-05-26T13:36:45Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - RiCS: A 2D Self-Occlusion Map for Harmonizing Volumetric Objects [68.85305626324694]
カメラ空間における光マーチング (RiCS) は、3次元における前景物体の自己閉塞を2次元の自己閉塞マップに表現する新しい手法である。
表現マップは画像の質を高めるだけでなく,時間的コヒーレントな複雑な影効果をモデル化できることを示す。
論文 参考訳(メタデータ) (2022-05-14T05:35:35Z) - Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retina OCT Images [33.99874168018807]
本研究では,ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を用いた新しいフレームワークを提案し,OCTから連続した3次元網膜層表面を得る。
本フレームワークは, 層分割精度とクロスBスキャン3D連続性の両方の観点から, 最先端の2D手法よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2022-03-04T15:55:09Z) - UltraPose: Synthesizing Dense Pose with 1 Billion Points by Human-body
Decoupling 3D Model [58.70130563417079]
我々は,身体の発生を自由に制御できる,一連の分離されたパラメータを持つ新しい3次元人体モデルを導入する。
既存の手動注釈付きDensePose-COCOデータセットと比較して、合成されたUltraPoseは、アノテーションのコストと誤差を伴わずに、超高密度な画像-地上対応を持つ。
論文 参考訳(メタデータ) (2021-10-28T16:24:55Z) - Generating 3D structures from a 2D slice with GAN-based dimensionality
expansion [0.0]
GAN(Generative adversarial Network)は、3D画像データを生成するためのトレーニングが可能で、設計の最適化に役立ちます。
本稿では,1つの代表2次元画像を用いて高忠実度3次元データセットを合成できる生成逆ネットワークアーキテクチャであるSliceGANを紹介する。
論文 参考訳(メタデータ) (2021-02-10T18:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。