論文の概要: Generating Realistic Forehead-Creases for User Verification via Conditioned Piecewise Polynomial Curves
- arxiv url: http://arxiv.org/abs/2501.13889v1
- Date: Thu, 23 Jan 2025 18:01:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:58:01.544240
- Title: Generating Realistic Forehead-Creases for User Verification via Conditioned Piecewise Polynomial Curves
- Title(参考訳): 条件付き多項式曲線によるユーザ検証のための現実的額面生成
- Authors: Abhishek Tandon, Geetanjali Sharma, Gaurav Jaswal, Aditya Nigam, Raghavendra Ramachandra,
- Abstract要約: 本稿では,B-スプライン曲線とB'ezier曲線を幾何学的にモデル化した特徴固有画像生成手法を提案する。
このアプローチは、プリンシパル・クレーゼと非プロミネント・クレーゼ・パターンの両方を現実的に生成することを保証する。
提案手法は,提案した合成データセットを実世界のデータと統合することにより,フォアヘッド生成検証システムの性能を大幅に向上させる。
- 参考スコア(独自算出の注目度): 6.639785884921617
- License:
- Abstract: We propose a trait-specific image generation method that models forehead creases geometrically using B-spline and B\'ezier curves. This approach ensures the realistic generation of both principal creases and non-prominent crease patterns, effectively constructing detailed and authentic forehead-crease images. These geometrically rendered images serve as visual prompts for a diffusion-based Edge-to-Image translation model, which generates corresponding mated samples. The resulting novel synthetic identities are then used to train a forehead-crease verification network. To enhance intra-subject diversity in the generated samples, we employ two strategies: (a) perturbing the control points of B-splines under defined constraints to maintain label consistency, and (b) applying image-level augmentations to the geometric visual prompts, such as dropout and elastic transformations, specifically tailored to crease patterns. By integrating the proposed synthetic dataset with real-world data, our method significantly improves the performance of forehead-crease verification systems under a cross-database verification protocol.
- Abstract(参考訳): 本稿では,B-スプライン曲線とB'ezier曲線を幾何学的にモデル化した特徴固有画像生成手法を提案する。
このアプローチは、主クレーゼと非固有クレーゼパターンの両方を現実的に生成することを保証する。
これらの幾何学的に描画された画像は拡散に基づくエッジ・ツー・イメージ翻訳モデルの視覚的プロンプトとして機能し、対応する交配サンプルを生成する。
結果として生じる新しい合成アイデンティティは、フォアヘッド・クリーズ検証ネットワークのトレーニングに使用される。
生成したサンプルのオブジェクト内多様性を高めるために,我々は2つの戦略を採用した。
a) ラベルの整合性を維持するために定義された制約の下でB-スプラインの制御点を摂動させ、
b) 図形の視覚的プロンプト,例えばドロップアウトや弾性変換,特にクレーゼパターンに合わせて,画像レベルの拡張を施す。
提案手法は,提案した合成データセットを実世界のデータと統合することにより,データベース間検証プロトコルの下でのフォアヘッド生成検証システムの性能を大幅に向上させる。
関連論文リスト
- Synthetic Forehead-creases Biometric Generation for Reliable User Verification [6.639785884921617]
本稿では,前頭葉画像データを一意性やリアリズムといった重要な特徴を維持しつつ合成する新しい枠組みを提案する。
Fr'echet Inception Distance (FID) と構造類似度指数測定 (SSIM) を用いて、生成された額部画像の多様性と現実性を評価する。
論文 参考訳(メタデータ) (2024-08-28T10:33:00Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z) - Geometric Data Augmentations to Mitigate Distribution Shifts in Pollen
Classification from Microscopic Images [4.545340728210854]
我々は、幾何学的特徴が正確な花粉の同定に非常に重要であるというドメイン知識を活用している。
本稿では,列車におけるモデル性能とテストデータセットとの精度ギャップを著しく狭めるために,新しい2つの幾何画像拡張手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T10:35:18Z) - Diffusion-based Holistic Texture Rectification and Synthesis [26.144666226217062]
伝統的なテクスチャ合成アプローチは、原始サンプルからテクスチャを生成することに重点を置いている。
自然画像中の劣化サンプルから全体的テクスチャを合成するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-26T08:44:46Z) - Real-World Image Variation by Aligning Diffusion Inversion Chain [53.772004619296794]
生成した画像と実世界の画像の間にはドメインギャップがあり、これは実世界の画像の高品質なバリエーションを生成する上での課題である。
実世界画像のアライメントによる変化(RIVAL)と呼ばれる新しい推論パイプラインを提案する。
我々のパイプラインは、画像生成プロセスとソース画像の反転チェーンを整列させることにより、画像の変動の生成品質を向上させる。
論文 参考訳(メタデータ) (2023-05-30T04:09:47Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - FewGAN: Generating from the Joint Distribution of a Few Images [95.6635227371479]
本稿では,新しい,高品質で多様な画像を生成するための生成モデルFewGANを紹介する。
FewGANは、第1の粗いスケールで量子化を適用した階層的なパッチGANであり、その後、より微細なスケールで残った完全畳み込みGANのピラミッドが続く。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-18T07:11:28Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z) - Pixel-wise Conditioned Generative Adversarial Networks for Image
Synthesis and Completion [3.8807073304999355]
GAN(Generative Adversarial Networks)は、教師なし画像生成に成功している。
画素数が少ない場合, GANの条件付けの有効性について検討する。
本稿では,GAN目標関数に明示的なコスト項を付加し,画素単位の条件を強制するモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-04T13:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。