論文の概要: Pore-scale Image Patch Dataset and A Comparative Evaluation of Pore-scale Facial Features
- arxiv url: http://arxiv.org/abs/2512.00381v1
- Date: Sat, 29 Nov 2025 08:14:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.208398
- Title: Pore-scale Image Patch Dataset and A Comparative Evaluation of Pore-scale Facial Features
- Title(参考訳): 多孔質画像パッチデータセットと多孔質顔の特徴の比較評価
- Authors: Dong Li, HuaLiang Lin, JiaYu Li,
- Abstract要約: 顔面皮膚領域の弱テクスチャー特性は、顔の動き解析や3次元顔再構成などの応用において、局所的な記述子マッチングに重大な課題をもたらす。
ディープラーニングベースの記述子は多くのアプリケーションで従来の手書き記述子よりも優れた性能を示している。
本稿では,高品質な多孔質画像パッチデータセットであるPorePatchデータセットを提案し,合理的な評価ベンチマークを確立する。
- 参考スコア(独自算出の注目度): 6.466460498088576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The weak-texture nature of facial skin regions presents significant challenges for local descriptor matching in applications such as facial motion analysis and 3D face reconstruction. Although deep learning-based descriptors have demonstrated superior performance to traditional hand-crafted descriptors in many applications, the scarcity of pore-scale image patch datasets has hindered their further development in the facial domain. In this paper, we propose the PorePatch dataset, a high-quality pore-scale image patch dataset, and establish a rational evaluation benchmark. We introduce a Data-Model Co-Evolution (DMCE) framework to generate a progressively refined, high-quality dataset from high-resolution facial images. We then train existing SOTA models on our dataset and conduct extensive experiments. Our results show that the SOTA model achieves a FPR95 value of 1.91% on the matching task, outperforming PSIFT (22.41%) by a margin of 20.5%. However, its advantage is diminished in the 3D reconstruction task, where its overall performance is not significantly better than that of traditional descriptors. This indicates that deep learning descriptors still have limitations in addressing the challenges of facial weak-texture regions, and much work remains to be done in this field.
- Abstract(参考訳): 顔面皮膚領域の弱テクスチャー特性は、顔の動き解析や3次元顔再構成などの応用において、局所的な記述子マッチングに重大な課題をもたらす。
ディープラーニングベースの記述子は、多くのアプリケーションにおいて、従来の手書き記述子よりも優れた性能を示しているが、毛穴スケールの画像パッチデータセットの不足は、顔領域におけるさらなる発展を妨げる。
本稿では,高品質な多孔質画像パッチデータセットであるPorePatchデータセットを提案し,合理的な評価ベンチマークを確立する。
我々は、高解像度の顔画像から徐々に洗練され、高品質なデータセットを生成するために、データモデル共進化(DMCE)フレームワークを導入する。
次に、既存のSOTAモデルをデータセットでトレーニングし、広範な実験を行います。
その結果,SOTAモデルはFPR95値1.91%をマッチングタスクで達成し,PSIFT(22.41%)のマージンを20.5%上回った。
しかし,従来のディスクリプタに比べて全体的な性能はそれほど良くない3次元再構成作業において,その優位性は低下している。
これは、深層学習記述子は、顔の弱いテクスチャ領域の課題に対処する上で、まだ限界があることを示している。
関連論文リスト
- LensDFF: Language-enhanced Sparse Feature Distillation for Efficient Few-Shot Dexterous Manipulation [7.5860067778283335]
数発のデモから巧妙な操作を学ぶことは、先進的なロボットシステムにとって重要な課題である。
本稿では,LensDFF(Language-ENhanced Sparse Distilled Feature Field)を提案する。
デモにグリッププリミティブを組み込んだ数発のデクスタラスな操作フレームワークを導入し,安定かつ高デクスタラスなグリップを生成する。
論文 参考訳(メタデータ) (2025-03-05T20:46:30Z) - PETALface: Parameter Efficient Transfer Learning for Low-resolution Face Recognition [54.642714288448744]
PETALfaceは、PEFTのパワーを低解像度の顔認識に活用した最初の作品である。
バックボーンに2つの低ランク適応モジュールを導入し、入力画像の品質に基づいて重みを調整し、ギャラリーとプローブ画像の品質の違いを考慮に入れた。
実験により,提案手法は高分解能・混合品質データセットの性能を保ちながら,低分解能データセットの完全な微調整よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-12-10T18:59:45Z) - PatchRefiner: Leveraging Synthetic Data for Real-Domain High-Resolution Monocular Metric Depth Estimation [42.29746147944489]
PatchRefinerは、高分解能な実領域入力を目的としたメートル法単一画像深度推定のための高度なフレームワークである。
PatchRefinerはタイルベースの手法を採用し、高分解能深度推定を精錬プロセスとして再認識する。
我々の評価は、PatchRefinerの優れたパフォーマンスを示し、Unreal4KStereoデータセットの既存のベンチマークを著しく上回っている。
論文 参考訳(メタデータ) (2024-06-10T18:00:03Z) - EFHQ: Multi-purpose ExtremePose-Face-HQ dataset [1.8194090162317431]
この研究は、Extreme Pose Face High-Qualityデータセット(EFHQ)と呼ばれる新しいデータセットを導入し、極端なポーズで顔の最大450kの高品質な画像を含む。
このような膨大なデータセットを生成するために、我々は、新しく精巧なデータセット処理パイプラインを使用して、2つの公開データセットをキュレートする。
我々のデータセットは、顔合成と2D/3D対応のGAN、拡散ベースの顔生成、顔の再現など、さまざまな顔関連タスクに関する既存のデータセットを補完することができる。
論文 参考訳(メタデータ) (2023-12-28T18:40:31Z) - Effective Adapter for Face Recognition in the Wild [72.75516495170199]
私たちは、画像が低品質で現実世界の歪みに悩まされる、野生の顔認識の課題に取り組みます。
従来のアプローチでは、劣化した画像や、顔の復元技術を使って強化された画像を直接訓練するが、効果がないことが証明された。
高品質な顔データセットで訓練された既存の顔認識モデルを強化するための効果的なアダプタを提案する。
論文 参考訳(メタデータ) (2023-12-04T08:55:46Z) - MetaF2N: Blind Image Super-Resolution by Learning Efficient Model
Adaptation from Faces [51.42949911178461]
メタ学習フレームワークにおいて,自然画像全体に対応するためのモデルパラメータを微調整するメタF2Nという手法を提案する。
復元された顔と接地構造とのギャップを考慮すると,低信頼領域の影響を低減するために,異なる位置における損失重みを適応的に予測するMaskNetを配置する。
論文 参考訳(メタデータ) (2023-09-15T02:45:21Z) - Neural Point-based Volumetric Avatar: Surface-guided Neural Points for
Efficient and Photorealistic Volumetric Head Avatar [62.87222308616711]
ニューラルポイント表現とニューラルボリュームレンダリングプロセスを採用したフルネーム(名前)を提案する。
具体的には、ニューラルポイントは高分解能UV変位マップを介してターゲット表現の表面を戦略的に拘束する。
設計上は,アバターをアニメーションする際の正確な表現制御を確保しつつ,地形的に変化する領域や細い構造を扱えるように設計されている。
論文 参考訳(メタデータ) (2023-07-11T03:40:10Z) - Face Recognition Using Synthetic Face Data [0.0]
我々は、コンピュータグラフィックスパイプラインを介してデジタル顔のレンダリングによって生成された合成データの有望な応用を強調し、競争力のある結果を得る。
モデルを微調整することで、何十万もの実画像のトレーニングで得られた結果に匹敵する結果が得られる。
また,モデル性能に及ぼすクラス内因子(化粧品,アクセサリー,ヘアカットなど)の追加効果についても検討した。
論文 参考訳(メタデータ) (2023-05-17T09:26:10Z) - FaceOcc: A Diverse, High-quality Face Occlusion Dataset for Human Face
Extraction [3.8502825594372703]
隠蔽は野生の顔画像にしばしば発生し、ランドマーク検出や3D再構成、顔認識といった顔関連の課題に悩まされる。
本稿では,CelebA本社とインターネットから手動で顔の隠蔽をラベル付けした新しい顔のセグメンテーションデータセットを提案する。
簡単な顔分割モデルの訓練を行ったが,SOTA性能が得られ,提案したデータセットの有効性を実証した。
論文 参考訳(メタデータ) (2022-01-20T19:44:18Z) - Contemplating real-world object classification [53.10151901863263]
Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
論文 参考訳(メタデータ) (2021-03-08T23:29:59Z) - 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning [54.24887282693925]
本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-09-30T17:12:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。