論文の概要: Just Noticeable Difference Modeling for Face Recognition System
- arxiv url: http://arxiv.org/abs/2209.05856v1
- Date: Tue, 13 Sep 2022 10:06:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 12:29:17.128162
- Title: Just Noticeable Difference Modeling for Face Recognition System
- Title(参考訳): 顔認識システムにおけるjust noticeable difference modeling
- Authors: Yu Tian and Zhangkai Ni and Baoliang Chen and Shurun Wang and Shiqi
Wang and Hanli Wang and Sam Kwong
- Abstract要約: 本研究は,自動顔認証システムにおける特徴的差分(JND)について検討する試みである。
FRシステムのJND画像を直接推測する新しいJND予測モデルを開発した。
実験により,提案モデルによりJNDマップの精度が向上することが確認された。
- 参考スコア(独自算出の注目度): 75.61826865270048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality face images are required to guarantee the stability and
reliability of automatic face recognition (FR) systems in surveillance and
security scenarios. However, a massive amount of face data is usually
compressed before being analyzed due to limitations on transmission or storage.
The compressed images may lose the powerful identity information, resulting in
the performance degradation of the FR system. Herein, we make the first attempt
to study just noticeable difference (JND) for the FR system, which can be
defined as the maximum distortion that the FR system cannot notice. More
specifically, we establish a JND dataset including 3530 original images and
137,670 compressed images generated by advanced reference encoding/decoding
software based on the Versatile Video Coding (VVC) standard (VTM-15.0).
Subsequently, we develop a novel JND prediction model to directly infer JND
images for the FR system. In particular, in order to maximum redundancy removal
without impairment of robust identity information, we apply the encoder with
multiple feature extraction and attention-based feature decomposition modules
to progressively decompose face features into two uncorrelated components,
i.e., identity and residual features, via self-supervised learning. Then, the
residual feature is fed into the decoder to generate the residual map. Finally,
the predicted JND map is obtained by subtracting the residual map from the
original image. Experimental results have demonstrated that the proposed model
achieves higher accuracy of JND map prediction compared with the
state-of-the-art JND models, and is capable of saving more bits while
maintaining the performance of the FR system compared with VTM-15.0.
- Abstract(参考訳): 高品質な顔画像は、監視およびセキュリティシナリオにおける自動顔認識(FR)システムの安定性と信頼性を保証するために要求される。
しかし、大量の顔データは通常、送信やストレージの制限のために分析される前に圧縮される。
圧縮された画像は強力なアイデンティティ情報を失い、FRシステムの性能劣化を引き起こす。
ここでは、FR系が認識できない最大歪みとして定義できるFR系に対して、単に注意すべき差(JND)を研究するための最初の試みを行う。
具体的には、VVC(Versatile Video Coding)標準(VTM-15.0)に基づく高度な参照符号化/復号ソフトウェアによって生成された3530のオリジナル画像と137,670の圧縮画像を含むJNDデータセットを確立する。
続いて, FRシステムのJND画像を直接推測する新しいJND予測モデルを開発した。
特に,ロバストなアイデンティティ情報を損なうことなく冗長性除去を最大化するために,複数の特徴抽出と注意に基づく特徴分解モジュールを用いて,自己教師付き学習を通じて顔特徴を2つの非相関成分,すなわちアイデンティティと残差特徴に段階的に分解する。
そして、残余特徴をデコーダに供給して残余写像を生成する。
最後に、元の画像から残差マップを減じて予測されたJNDマップを得る。
実験結果から,提案モデルは最先端のJNDモデルと比較してJNDマップの精度が高く,VTM-15.0に比べてFRシステムの性能を維持しつつ,より多くのビットを節約できることがわかった。
関連論文リスト
- IQNet: Image Quality Assessment Guided Just Noticeable Difference
Prefiltering For Versatile Video Coding [0.9403328689534943]
ジャストインタブル歪み(JND)による画像プリフィルタは、圧縮前に知覚的に冗長な情報をフィルタリングすることにより、視覚的に符号化効率を向上させる。
本稿では, 高精度なブロックレベルのJNDモデリングのための画像品質評価によって導かれる, きめ細かいJND事前フィルタリングデータセットを提案する。
論文 参考訳(メタデータ) (2023-12-15T13:58:10Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Restoration of the JPEG Maximum Lossy Compressed Face Images with
Hourglass Block based on Early Stopping Discriminator [0.0]
本稿では,GAN-based net-work法による最大圧縮により大きな損失を被ったJPEG画像の復元について述べる。
このネットワークは、自然と高性能の画像を生成するために、LFロスとHFロスという2つの損失関数を組み込んでいる。
その結果,圧縮画像のブロックフェノメノンが除去され,識別可能なアイデンティティが生成されることがわかった。
論文 参考訳(メタデータ) (2023-06-22T09:21:48Z) - A Novel end-to-end Framework for Occluded Pixel Reconstruction with
Spatio-temporal Features for Improved Person Re-identification [0.842885453087587]
人の身元確認は、公共の安全を高めるために群衆の動きを監視し、追跡するために不可欠である。
本研究では、ディープニューラルネットワークからなるRGB画像/映像の効果的な閉塞検出・再構成フレームワークを開発することにより、有効な解を提案する。
具体的には、CNNベースのオクルージョン検出モデルが個々の入力フレームを分類し、次いでConv-LSTMおよびオートエンコーダを用いて、シーケンシャル(ビデオ)および非シーケンシャル(画像)データに対して、オクルードされたフレームに対応するオクルード画素を再構成する。
論文 参考訳(メタデータ) (2023-04-16T08:14:29Z) - Multi-Prior Learning via Neural Architecture Search for Blind Face
Restoration [61.27907052910136]
Blind Face Restoration (BFR)は、高品質な顔画像から高品質な顔画像を復元することを目的としている。
1)手動チューニングを伴わない強力なネットワークアーキテクチャの導出方法,2) 複数の顔前者からの補完情報を1つのネットワークで取得して復元性能を向上させる方法,の2つの大きな課題がある。
特定検索空間内において,適切な特徴抽出アーキテクチャを適応的に探索する顔復元検索ネットワーク(FRSNet)を提案する。
論文 参考訳(メタデータ) (2022-06-28T12:29:53Z) - STIP: A SpatioTemporal Information-Preserving and Perception-Augmented
Model for High-Resolution Video Prediction [78.129039340528]
本稿では、上記の2つの問題を解決するために、時空間情報保存・知覚拡張モデル(STIP)を提案する。
提案モデルは,特徴抽出と状態遷移中の映像の時間的情報を保存することを目的としている。
実験結果から,提案したSTIPは,様々な最先端手法と比較して,より良好な映像品質で映像を予測できることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T09:49:04Z) - One-Stage Deep Edge Detection Based on Dense-Scale Feature Fusion and
Pixel-Level Imbalance Learning [5.370848116287344]
後処理なしで高品質なエッジ画像を生成することができる一段階ニューラルネットワークモデルを提案する。
提案モデルでは、トレーニング済みのニューラルモデルをエンコーダとして使用する古典的なエンコーダデコーダフレームワークを採用している。
本稿では,エッジ画像の画素レベルの不均衡に対処する新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-03-17T15:26:00Z) - Towards Top-Down Just Noticeable Difference Estimation of Natural Images [65.14746063298415]
JNDの推定は、主に空間領域と周波数領域における異なる要因の可視性マスキング効果をモデル化することに焦点を当てている。
この作業では、トップダウンの設計哲学でこれらの問題に対処する、劇的に異なる方法に目を向けます。
提案したJNDモデルは,最新のJNDモデルよりも優れた性能を実現することができる。
論文 参考訳(メタデータ) (2021-08-11T06:51:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。