論文の概要: Full RGB Just Noticeable Difference (JND) Modelling
- arxiv url: http://arxiv.org/abs/2203.00629v1
- Date: Tue, 1 Mar 2022 17:16:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 15:48:37.580190
- Title: Full RGB Just Noticeable Difference (JND) Modelling
- Title(参考訳): 完全rgb just noticeable difference (jnd) モデリング
- Authors: Jian Jin, Dong Yu, Weisi Lin, Lili Meng, Hao Wang, Huaxiang Zhang
- Abstract要約: Just Noticeable difference (JND) はマルチメディア信号処理に多くの応用がある。
本稿では,全RGBチャネルの特性を考慮し,JNDを生成するJNDモデルを提案する。
RGB-JND-NETは、完全なRGBチャネルの視覚コンテンツを用いてJND生成のための特徴を抽出する。
- 参考スコア(独自算出の注目度): 69.42889006770018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Just Noticeable Difference (JND) has many applications in multimedia signal
processing, especially for visual data processing up to date. It's generally
defined as the minimum visual content changes that the human can perspective,
which has been studied for decades. However, most of the existing methods only
focus on the luminance component of JND modelling and simply regard chrominance
components as scaled versions of luminance. In this paper, we propose a JND
model to generate the JND by taking the characteristics of full RGB channels
into account, termed as the RGB-JND. To this end, an RGB-JND-NET is proposed,
where the visual content in full RGB channels is used to extract features for
JND generation. To supervise the JND generation, an adaptive image quality
assessment combination (AIC) is developed. Besides, the RDB-JND-NET also takes
the visual attention into account by automatically mining the underlying
relationship between visual attention and the JND, which is further used to
constrain the JND spatial distribution. To the best of our knowledge, this is
the first work on careful investigation of JND modelling for full-color space.
Experimental results demonstrate that the RGB-JND-NET model outperforms the
relevant state-of-the-art JND models. Besides, the JND of the red and blue
channels are larger than that of the green one according to the experimental
results of the proposed model, which demonstrates that more changes can be
tolerated in the red and blue channels, in line with the well-known fact that
the human visual system is more sensitive to the green channel in comparison
with the red and blue ones.
- Abstract(参考訳): Just Noticeable difference (JND) はマルチメディア信号処理、特に最新のビジュアルデータ処理に多くの応用がある。
これは一般的に、何十年も研究されてきた人間の視点による最小限の視覚的内容の変化と定義されている。
しかし、既存の手法のほとんどはJNDモデリングの輝度成分にのみ焦点をあてており、単に色成分を輝度のスケールバージョンと見なすだけである。
本稿では、RGB-JNDと呼ばれる全RGBチャネルの特性を考慮に入れ、JNDを生成するJNDモデルを提案する。
この目的のために、RGB-JND-NETが提案され、完全なRGBチャネルの視覚コンテンツを使用してJND生成のための特徴を抽出する。
JND生成を監督するために、適応画像品質評価結合(AIC)を開発する。
さらに、RDB-JND-NETは、視覚的注意とJNDの関係を自動的にマイニングすることで、視覚的注意を考慮に入れている。
我々の知る限りでは、フルカラー空間に対するJNDモデリングの注意深い研究はこれが初めてである。
実験結果から,RGB-JND-NET モデルは最先端の JND モデルより優れていることが示された。
また、赤と青のチャンネルのjndは、赤と青のチャンネルにおいて、赤と青のチャンネルに比べて人間の視覚系が緑と青のチャンネルに対してより敏感であるという事実と相まって、赤と青のチャンネルでより多くの変更が許容できることを示す実験結果に従って、緑と青のチャンネルのjndよりも大きい。
関連論文リスト
- Diffusion-based RGB-D Semantic Segmentation with Deformable Attention Transformer [10.982521876026281]
本稿では,RGB-Dセマンティックセグメンテーション問題に対処する拡散型フレームワークを提案する。
本研究では,デフォルマブルアテンション変換器をエンコーダとして利用し,奥行き画像から特徴を抽出することにより,デフォルマブルアテンション変換器の特性を効果的に把握できることを実証する。
論文 参考訳(メタデータ) (2024-09-23T15:23:01Z) - SG-JND: Semantic-Guided Just Noticeable Distortion Predictor For Image Compression [50.2496399381438]
JND(Just noticeable distortion)は、人間の視覚系に最小限の知覚力を持つ画像における歪みのしきい値を表す。
従来のJND予測手法はピクセルレベルまたはサブバンドレベルの機能のみに依存している。
本稿では,意味情報を利用してJND予測を行うセマンティックガイド型JNDネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-08T07:14:57Z) - The First Comprehensive Dataset with Multiple Distortion Types for
Visual Just-Noticeable Differences [40.50003266570956]
この研究は、106のソースイメージと1,642のJNDマップを含む25の歪みタイプを含む粗いJND選択を伴う一般化されたJNDデータセットを確立する。
クラウドソースされた主観評価を伴うJND候補に対して、詳細なJND選択を行う。
論文 参考訳(メタデータ) (2023-03-05T03:12:57Z) - HVS-Inspired Signal Degradation Network for Just Noticeable Difference
Estimation [69.49393407465456]
JND推定のためのHVSにインスパイアされた信号劣化ネットワークを提案する。
我々は,JND主観視におけるHVS知覚過程を分析し,関連する知見を得た。
提案手法は,HVSの冗長性を正確に推定するためのSOTA性能を実現する。
論文 参考訳(メタデータ) (2022-08-16T07:53:45Z) - Modality-Guided Subnetwork for Salient Object Detection [5.491692465987937]
ほとんどのRGBDネットワークは、入力側から複数のモダリティを必要とし、それらを2ストリームの設計で別々に供給する。
本稿では、モダリティ誘導サブネットワーク(MGSnet)と呼ばれる新しい融合設計を提案する。
1)RGBデータとRGBDデータの両方で機能し、使用できない場合の深度を動的に推定する。
論文 参考訳(メタデータ) (2021-10-10T20:59:11Z) - Generation of the NIR spectral Band for Satellite Images with
Convolutional Neural Networks [0.0]
ディープニューラルネットワークは、画像の着色問題など、人工的なスペクトル情報を生成することができる。
我々は,高解像度衛星画像のRGBチャネルのみを用いて,NIR帯域生成作業におけるGAN(Generative Adversarial Network)アプローチについて検討した。
論文 参考訳(メタデータ) (2021-06-13T15:14:57Z) - Siamese Network for RGB-D Salient Object Detection and Beyond [113.30063105890041]
共有ネットワークバックボーンを通じてRGBと深度入力の両方から学習するための新しいフレームワークが提案されている。
5つの一般的な指標を用いた総合的な実験は、設計されたフレームワークが堅牢なRGB-D塩分濃度検出器をもたらすことを示している。
また、JL-DCFをRGB-Dセマンティックセマンティックセマンティクスフィールドにリンクし、いくつかのセマンティクスセマンティクスモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-08-26T06:01:05Z) - Data-Level Recombination and Lightweight Fusion Scheme for RGB-D Salient
Object Detection [73.31632581915201]
深部特徴抽出に先立って,RGBとD(深部)を融合する新たなデータレベル組換え手法を提案する。
新たに設計された3重ストリームネットワークをこれらの新しい定式化データ上に適用し,RGBとDのチャネルワイドな相補的融合状態を実現する。
論文 参考訳(メタデータ) (2020-08-07T10:13:05Z) - Cross-Modal Weighting Network for RGB-D Salient Object Detection [76.0965123893641]
我々は,RGB-D SODの深度チャネルとRGB-D SODの包括的相互作用を促進するために,新しいクロスモーダルウェイトリング(CMW)戦略を提案する。
具体的には、CMW-L、CMW-M、CMW-Hという3つのRGB-depth相互作用モジュールが、それぞれ低レベル、中級、高レベルのクロスモーダル情報融合を扱うように開発されている。
CMWNetは、7つの人気のあるベンチマークで15の最先端のRGB-D SODメソッドを上回っている。
論文 参考訳(メタデータ) (2020-07-09T16:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。