論文の概要: Palm-GAN: Generating Realistic Palmprint Images Using Total-Variation
Regularized GAN
- arxiv url: http://arxiv.org/abs/2003.10834v1
- Date: Sat, 21 Mar 2020 03:24:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 12:59:50.088563
- Title: Palm-GAN: Generating Realistic Palmprint Images Using Total-Variation
Regularized GAN
- Title(参考訳): Palm-GAN:全変分正規化GANを用いた実写パルムプリント画像の生成
- Authors: Shervin Minaee, Mehdi Minaei, Amirali Abdolrashidi
- Abstract要約: 本稿では,現実的なヤシプリント画像を生成することができるGAN(Generative Adversarial Network)に基づくディープラーニングフレームワークを提案する。
このフレームワークを一般的なパームプリントデータベースに適用し、非常にリアルに見え、このデータベースのサンプルとよく似た画像を生成する。
- 参考スコア(独自算出の注目度): 7.119324327867636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating realistic palmprint (more generally biometric) images has always
been an interesting and, at the same time, challenging problem. Classical
statistical models fail to generate realistic-looking palmprint images, as they
are not powerful enough to capture the complicated texture representation of
palmprint images. In this work, we present a deep learning framework based on
generative adversarial networks (GAN), which is able to generate realistic
palmprint images. To help the model learn more realistic images, we proposed to
add a suitable regularization to the loss function, which imposes the line
connectivity of generated palmprint images. This is very desirable for
palmprints, as the principal lines in palm are usually connected. We apply this
framework to a popular palmprint databases, and generate images which look very
realistic, and similar to the samples in this database. Through experimental
results, we show that the generated palmprint images look very realistic, have
a good diversity, and are able to capture different parts of the prior
distribution. We also report the Frechet Inception distance (FID) of the
proposed model, and show that our model is able to achieve really good
quantitative performance in terms of FID score.
- Abstract(参考訳): リアルなパームプリント(より一般的にバイオメトリックな)画像の生成は、常に興味深い問題であり、同時に挑戦的な問題でもある。
古典統計モデルは、パームプリント画像の複雑なテクスチャ表現を捉えるのに十分ではないため、現実的なパームプリント画像を生成することができない。
本稿では,現実のパームプリント画像を生成することができるgan(generative adversarial networks)に基づくディープラーニングフレームワークを提案する。
モデルがよりリアルなイメージを学ぶのを助けるため、我々は、生成したpalmprint画像のライン接続を強制するロス関数に適切な正規化を追加することを提案した。
これはpalmprintsにとって非常に望ましいものであり、palmの主要線は通常接続されている。
このフレームワークを一般的なパームプリントデータベースに適用し、非常にリアルに見え、このデータベースのサンプルとよく似た画像を生成する。
実験の結果,生成したpalmprint画像は非常にリアルに見え,多様性が良好で,事前分布の異なる部分をキャプチャできることがわかった。
また,提案モデルのfrechetインセプション距離 (fid) を報告し,fidスコアの観点から,本モデルが本当に優れた定量的性能を達成可能であることを示す。
関連論文リスト
- Cross-Chirality Palmprint Verification: Left is Right for the Right Palmprint [11.388567430575783]
本稿では,従来のパームプリント検証システムにおける従来の知恵に挑戦する,新しいCCPVフレームワークを提案する。
通常、左右両方のヤシプリントを保存する必要がある既存の方法とは異なり、本手法では、ヤシプリントテンプレートを1つだけ保存しながら、ヤシプリントを使用することが可能である。
論文 参考訳(メタデータ) (2024-09-19T19:10:21Z) - GenPalm: Contactless Palmprint Generation with Diffusion Models [25.738682467090335]
本稿では拡散確率モデルを用いた新しいパームプリント生成法を提案する。
我々は,複数のパームIDを合成するエンドツーエンドフレームワークを開発し,生成されたパームプリントの現実性と有用性を検証した。
論文 参考訳(メタデータ) (2024-06-01T03:33:25Z) - Coarse-to-Fine Latent Diffusion for Pose-Guided Person Image Synthesis [65.7968515029306]
PGPIS(Pose-Guided Person Image Synthesis)のためのCFLD(Coarse-to-Fine Latent Diffusion)法を提案する。
認識修正デコーダは、学習可能なクエリの集合を段階的に洗練し、粗いプロンプトとして人物画像の意味的理解を抽出するように設計されている。
論文 参考訳(メタデータ) (2024-02-28T06:07:07Z) - HandRefiner: Refining Malformed Hands in Generated Images by Diffusion-based Conditional Inpainting [72.95232302438207]
拡散モデルは現実的な画像の生成において顕著な成功を収めた。
しかし、不正確な指数や不規則な形など、正確な人間の手を生成することに苦しむ。
本稿では,HandRefinerという軽量な後処理ソリューションを提案する。
論文 参考訳(メタデータ) (2023-11-29T08:52:08Z) - Physics-Driven Spectrum-Consistent Federated Learning for Palmprint
Verification [47.35171881187345]
PSFed-Palmと呼ばれるパームプリント検証のための物理駆動型スペクトル一貫性フェデレート学習法を提案する。
提案手法は、まず、局所スペクトル画像の波長範囲に応じて、クライアントを短スペクトル群と長スペクトル群に分割する。
我々は,グローバルモデルとの整合性を確保するため,局所モデルに制約を課し,モデルドリフトを効果的に防止する。
論文 参考訳(メタデータ) (2023-08-01T11:01:17Z) - HandNeRF: Neural Radiance Fields for Animatable Interacting Hands [122.32855646927013]
神経放射場(NeRF)を用いて手の動きを正確に再現する新しい枠組みを提案する。
我々は,提案するHandNeRFのメリットを検証するための広範囲な実験を行い,その成果を報告する。
論文 参考訳(メタデータ) (2023-03-24T06:19:19Z) - Sketch-Guided Text-to-Image Diffusion Models [57.12095262189362]
本稿では,事前訓練されたテキスト-画像拡散モデルを示す普遍的なアプローチを提案する。
本手法では,タスク専用のモデルや専用エンコーダをトレーニングする必要はない。
我々は、スケッチ・ツー・イメージの翻訳タスクに特に焦点をあて、画像を生成する堅牢で表現力のある方法を明らかにする。
論文 参考訳(メタデータ) (2022-11-24T18:45:32Z) - A General Framework for Partial to Full Image Registration [11.127510588502233]
いくつかの応用(法医学的バイオメトリックス、衛星写真、屋外シーン識別など)では、比較した画像の1つが他の画像の小さな部分を表すため、古典的な画像登録システムが失敗する。
本稿では,一致すべき画像がより大きな画像の小さな部分であることを示す回転不変登録法を提案する。
論文 参考訳(メタデータ) (2022-07-13T17:44:49Z) - Efficient Palm-Line Segmentation with U-Net Context Fusion Module [1.1024591739346292]
人間の手の画像から原則的手のひら線を抽出するアルゴリズムを提案する。
本手法は,ディープラーニングネットワーク(DNN)を適用して性能向上を図る。
UNetセグメンテーションニューラルネットワークアーキテクチャに基づき、パームラインを検出するための高効率アーキテクチャを提案します。
論文 参考訳(メタデータ) (2021-02-24T08:42:52Z) - Experimental results on palmvein-based personal recognition by
multi-snapshot fusion of textural features [3.274290296343038]
本研究はパームヴェイン認識のためのテキスト特徴の複数スナップショット融合について検討し,その同定と検証を行った。
本研究の目的は、このことがヤシベイン認識に有効であることを示し、よく知られたベンチマークデータセット上で非常に高い認識率を実現することである。
論文 参考訳(メタデータ) (2020-07-13T11:34:46Z) - Swapping Autoencoder for Deep Image Manipulation [94.33114146172606]
画像操作に特化して設計されたディープモデルであるSwapping Autoencoderを提案する。
キーとなるアイデアは、2つの独立したコンポーネントで画像をエンコードし、交換された組み合わせをリアルなイメージにマップするように強制することだ。
複数のデータセットの実験により、我々のモデルはより良い結果が得られ、最近の生成モデルと比較してかなり効率が良いことが示されている。
論文 参考訳(メタデータ) (2020-07-01T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。