論文の概要: Just Noticeable Difference Modeling for Face Recognition System
- arxiv url: http://arxiv.org/abs/2209.05856v1
- Date: Tue, 13 Sep 2022 10:06:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 12:29:17.128162
- Title: Just Noticeable Difference Modeling for Face Recognition System
- Title(参考訳): 顔認識システムにおけるjust noticeable difference modeling
- Authors: Yu Tian and Zhangkai Ni and Baoliang Chen and Shurun Wang and Shiqi
Wang and Hanli Wang and Sam Kwong
- Abstract要約: 本研究は,自動顔認証システムにおける特徴的差分(JND)について検討する試みである。
FRシステムのJND画像を直接推測する新しいJND予測モデルを開発した。
実験により,提案モデルによりJNDマップの精度が向上することが確認された。
- 参考スコア(独自算出の注目度): 75.61826865270048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality face images are required to guarantee the stability and
reliability of automatic face recognition (FR) systems in surveillance and
security scenarios. However, a massive amount of face data is usually
compressed before being analyzed due to limitations on transmission or storage.
The compressed images may lose the powerful identity information, resulting in
the performance degradation of the FR system. Herein, we make the first attempt
to study just noticeable difference (JND) for the FR system, which can be
defined as the maximum distortion that the FR system cannot notice. More
specifically, we establish a JND dataset including 3530 original images and
137,670 compressed images generated by advanced reference encoding/decoding
software based on the Versatile Video Coding (VVC) standard (VTM-15.0).
Subsequently, we develop a novel JND prediction model to directly infer JND
images for the FR system. In particular, in order to maximum redundancy removal
without impairment of robust identity information, we apply the encoder with
multiple feature extraction and attention-based feature decomposition modules
to progressively decompose face features into two uncorrelated components,
i.e., identity and residual features, via self-supervised learning. Then, the
residual feature is fed into the decoder to generate the residual map. Finally,
the predicted JND map is obtained by subtracting the residual map from the
original image. Experimental results have demonstrated that the proposed model
achieves higher accuracy of JND map prediction compared with the
state-of-the-art JND models, and is capable of saving more bits while
maintaining the performance of the FR system compared with VTM-15.0.
- Abstract(参考訳): 高品質な顔画像は、監視およびセキュリティシナリオにおける自動顔認識(FR)システムの安定性と信頼性を保証するために要求される。
しかし、大量の顔データは通常、送信やストレージの制限のために分析される前に圧縮される。
圧縮された画像は強力なアイデンティティ情報を失い、FRシステムの性能劣化を引き起こす。
ここでは、FR系が認識できない最大歪みとして定義できるFR系に対して、単に注意すべき差(JND)を研究するための最初の試みを行う。
具体的には、VVC(Versatile Video Coding)標準(VTM-15.0)に基づく高度な参照符号化/復号ソフトウェアによって生成された3530のオリジナル画像と137,670の圧縮画像を含むJNDデータセットを確立する。
続いて, FRシステムのJND画像を直接推測する新しいJND予測モデルを開発した。
特に,ロバストなアイデンティティ情報を損なうことなく冗長性除去を最大化するために,複数の特徴抽出と注意に基づく特徴分解モジュールを用いて,自己教師付き学習を通じて顔特徴を2つの非相関成分,すなわちアイデンティティと残差特徴に段階的に分解する。
そして、残余特徴をデコーダに供給して残余写像を生成する。
最後に、元の画像から残差マップを減じて予測されたJNDマップを得る。
実験結果から,提案モデルは最先端のJNDモデルと比較してJNDマップの精度が高く,VTM-15.0に比べてFRシステムの性能を維持しつつ,より多くのビットを節約できることがわかった。
関連論文リスト
- High-Precision Dichotomous Image Segmentation via Probing Diffusion Capacity [69.32473738284374]
本稿では,拡散モデルにおける事前学習されたU-Netのポテンシャルを利用する拡散駆動セグメンテーションモデルDiffDISを提案する。
SDモデルに先立って、頑健な一般化機能とリッチで多目的な画像表現を活用することにより、高忠実で詳細な生成を保ちながら、推論時間を著しく短縮する。
DIS5Kデータセットの実験は、DiffDISの優位性を示し、合理化された推論プロセスを通じて最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-14T02:49:23Z) - Multi-Feature Aggregation in Diffusion Models for Enhanced Face Super-Resolution [6.055006354743854]
超解像を生成するために,複数の低画質画像から抽出した特徴と組み合わせた低解像度画像を利用するアルゴリズムを開発した。
他のアルゴリズムとは異なり、我々のアプローチは属性情報を明示的に提供せずに顔の特徴を復元する。
これは、高解像度画像と低解像度画像を組み合わせて、より信頼性の高い超高解像度画像を生成するコンディショナーとして初めて使用される。
論文 参考訳(メタデータ) (2024-08-27T20:08:33Z) - SG-JND: Semantic-Guided Just Noticeable Distortion Predictor For Image Compression [50.2496399381438]
JND(Just noticeable distortion)は、人間の視覚系に最小限の知覚力を持つ画像における歪みのしきい値を表す。
従来のJND予測手法はピクセルレベルまたはサブバンドレベルの機能のみに依存している。
本稿では,意味情報を利用してJND予測を行うセマンティックガイド型JNDネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-08T07:14:57Z) - NAF-DPM: A Nonlinear Activation-Free Diffusion Probabilistic Model for Document Enhancement [4.841365627573421]
文書のテキストや重要な特徴を保存しながらノイズを取り除くためには、重要な前処理ステップが不可欠である。
劣化文書の原品質を復元する拡散確率モデル(DPM)に基づく新しい生成フレームワークであるNAF-DPMを提案する。
論文 参考訳(メタデータ) (2024-04-08T16:52:21Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Restoration of the JPEG Maximum Lossy Compressed Face Images with
Hourglass Block based on Early Stopping Discriminator [0.0]
本稿では,GAN-based net-work法による最大圧縮により大きな損失を被ったJPEG画像の復元について述べる。
このネットワークは、自然と高性能の画像を生成するために、LFロスとHFロスという2つの損失関数を組み込んでいる。
その結果,圧縮画像のブロックフェノメノンが除去され,識別可能なアイデンティティが生成されることがわかった。
論文 参考訳(メタデータ) (2023-06-22T09:21:48Z) - Multi-Prior Learning via Neural Architecture Search for Blind Face
Restoration [61.27907052910136]
Blind Face Restoration (BFR)は、高品質な顔画像から高品質な顔画像を復元することを目的としている。
1)手動チューニングを伴わない強力なネットワークアーキテクチャの導出方法,2) 複数の顔前者からの補完情報を1つのネットワークで取得して復元性能を向上させる方法,の2つの大きな課題がある。
特定検索空間内において,適切な特徴抽出アーキテクチャを適応的に探索する顔復元検索ネットワーク(FRSNet)を提案する。
論文 参考訳(メタデータ) (2022-06-28T12:29:53Z) - STIP: A SpatioTemporal Information-Preserving and Perception-Augmented
Model for High-Resolution Video Prediction [78.129039340528]
本稿では、上記の2つの問題を解決するために、時空間情報保存・知覚拡張モデル(STIP)を提案する。
提案モデルは,特徴抽出と状態遷移中の映像の時間的情報を保存することを目的としている。
実験結果から,提案したSTIPは,様々な最先端手法と比較して,より良好な映像品質で映像を予測できることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T09:49:04Z) - One-Stage Deep Edge Detection Based on Dense-Scale Feature Fusion and
Pixel-Level Imbalance Learning [5.370848116287344]
後処理なしで高品質なエッジ画像を生成することができる一段階ニューラルネットワークモデルを提案する。
提案モデルでは、トレーニング済みのニューラルモデルをエンコーダとして使用する古典的なエンコーダデコーダフレームワークを採用している。
本稿では,エッジ画像の画素レベルの不均衡に対処する新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-03-17T15:26:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。