論文の概要: HVS-Inspired Signal Degradation Network for Just Noticeable Difference
Estimation
- arxiv url: http://arxiv.org/abs/2208.07583v1
- Date: Tue, 16 Aug 2022 07:53:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 12:55:39.883311
- Title: HVS-Inspired Signal Degradation Network for Just Noticeable Difference
Estimation
- Title(参考訳): 位相差推定のためのhvsインスパイア信号分解ネットワーク
- Authors: Jian Jin, Yuan Xue, Xingxing Zhang, Lili Meng, Yao Zhao, Weisi Lin
- Abstract要約: JND推定のためのHVSにインスパイアされた信号劣化ネットワークを提案する。
我々は,JND主観視におけるHVS知覚過程を分析し,関連する知見を得た。
提案手法は,HVSの冗長性を正確に推定するためのSOTA性能を実現する。
- 参考スコア(独自算出の注目度): 69.49393407465456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Significant improvement has been made on just noticeable difference (JND)
modelling due to the development of deep neural networks, especially for the
recently developed unsupervised-JND generation models. However, they have a
major drawback that the generated JND is assessed in the real-world signal
domain instead of in the perceptual domain in the human brain. There is an
obvious difference when JND is assessed in such two domains since the visual
signal in the real world is encoded before it is delivered into the brain with
the human visual system (HVS). Hence, we propose an HVS-inspired signal
degradation network for JND estimation. To achieve this, we carefully analyze
the HVS perceptual process in JND subjective viewing to obtain relevant
insights, and then design an HVS-inspired signal degradation (HVS-SD) network
to represent the signal degradation in the HVS. On the one hand, the well
learnt HVS-SD enables us to assess the JND in the perceptual domain. On the
other hand, it provides more accurate prior information for better guiding JND
generation. Additionally, considering the requirement that reasonable JND
should not lead to visual attention shifting, a visual attention loss is
proposed to control JND generation. Experimental results demonstrate that the
proposed method achieves the SOTA performance for accurately estimating the
redundancy of the HVS. Source code will be available at
https://github.com/jianjin008/HVS-SD-JND.
- Abstract(参考訳): ディープニューラルネットワークの開発、特に最近開発された教師なしJND生成モデルにより、注目すべき差分(JND)モデリングが大幅に改善されている。
しかし、生成されたJNDが人間の脳の知覚領域ではなく現実世界のシグナル領域で評価されるという大きな欠点がある。
実世界の視覚信号が人間の視覚システム(HVS)で脳に伝達される前に符号化されるため、このような2つの領域でJNDを評価する場合、明らかな違いがある。
そこで本稿では,JND推定のためのHVSに基づく信号劣化ネットワークを提案する。
そこで我々は,JNDの主観的視聴におけるHVS知覚過程を注意深く分析し,関連する洞察を得るとともに,HVSの信号劣化を表すHVS-SDネットワークを設計する。
一方、よく学習されたHVS-SDにより、知覚領域におけるJNDを評価することができる。
一方、jnd生成をよりよく導くために、より正確な事前情報を提供する。
また、合理的なJNDが視覚的注意移動を引き起こすべきではないという要件を考慮して、JND生成を制御するために視覚的注意損失を提案する。
実験により,提案手法はHVSの冗長性を正確に推定するためのSOTA性能を実現することを示す。
ソースコードはhttps://github.com/jianjin008/HVS-SD-JNDで入手できる。
関連論文リスト
- DT-JRD: Deep Transformer based Just Recognizable Difference Prediction Model for Video Coding for Machines [48.07705666485972]
Just Recognizable difference (JRD) は、機械ビジョンによって検出される最小の視覚差を表す。
本稿では,Deep Transformer-based JRD (DT-JRD) prediction model for Video Coding for Machines (VCM)を提案する。
正確に予測されたJRDは、機械作業の精度を維持しながら、符号化ビットレートを低減できる。
論文 参考訳(メタデータ) (2024-11-14T09:34:36Z) - SG-JND: Semantic-Guided Just Noticeable Distortion Predictor For Image Compression [50.2496399381438]
JND(Just noticeable distortion)は、人間の視覚系に最小限の知覚力を持つ画像における歪みのしきい値を表す。
従来のJND予測手法はピクセルレベルまたはサブバンドレベルの機能のみに依存している。
本稿では,意味情報を利用してJND予測を行うセマンティックガイド型JNDネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-08T07:14:57Z) - The First Comprehensive Dataset with Multiple Distortion Types for
Visual Just-Noticeable Differences [40.50003266570956]
この研究は、106のソースイメージと1,642のJNDマップを含む25の歪みタイプを含む粗いJND選択を伴う一般化されたJNDデータセットを確立する。
クラウドソースされた主観評価を伴うJND候補に対して、詳細なJND選択を行う。
論文 参考訳(メタデータ) (2023-03-05T03:12:57Z) - HDNet: High-resolution Dual-domain Learning for Spectral Compressive
Imaging [138.04956118993934]
HSI再構成のための高分解能デュアルドメイン学習ネットワーク(HDNet)を提案する。
一方、高効率な特徴融合によるHR空間スペクトルアテンションモジュールは、連続的かつ微細な画素レベルの特徴を提供する。
一方、HSI再構成のために周波数領域学習(FDL)を導入し、周波数領域の差を狭める。
論文 参考訳(メタデータ) (2022-03-04T06:37:45Z) - Full RGB Just Noticeable Difference (JND) Modelling [69.42889006770018]
Just Noticeable difference (JND) はマルチメディア信号処理に多くの応用がある。
本稿では,全RGBチャネルの特性を考慮し,JNDを生成するJNDモデルを提案する。
RGB-JND-NETは、完全なRGBチャネルの視覚コンテンツを用いてJND生成のための特徴を抽出する。
論文 参考訳(メタデータ) (2022-03-01T17:16:57Z) - Does deep machine vision have just noticeable difference (JND)? [74.68805484753442]
Deep Machine Vision (DMV)のように、AIのためのJust Noticeable difference (JND)の存在についてはほとんど調査されていない。
本稿では,DMV が DMVJND と呼ばれる JND を持っていることを実証する。
DMVは、DMVJND-NETで教師なし学習によってJNDを生成することにより、約9.56dBのPSNRの歪み画像を許容できることが判明した。
論文 参考訳(メタデータ) (2021-02-16T14:19:35Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。