論文の概要、ライセンス

# (参考訳) CAMBI: コントラスト対応マルチスケールバンド指数 [全文訳有]

CAMBI: Contrast-aware Multiscale Banding Index ( http://arxiv.org/abs/2102.00079v1 )

ライセンス: CC BY 4.0
Pulkit Tandon, Mariana Afonso, Joel Sole, Luk\'a\v{s} Krasula(参考訳) バンディングアーティファクトは、ビデオ中の滑らかな領域の量子化から生じる人工的な輪郭である。 より効率的なコーデックを備えた最近の高品質のビデオシステムの出現にもかかわらず、これらのアーティファクトは、特に大きなディスプレイで目立つままです。 本研究では,符号化パラメータやディザリングに対するバンドング可視性の依存性を理解するため,包括的主観的研究を行った。 その後、人間の視覚系におけるコントラスト感度関数の洞察を利用してバンドの可視性を予測するCAMBI(Contrast-aware Multiscale Banding Index)と呼ばれるシンプルで直感的な非参照バンディングインデックスを開発しました。 cambiは、視覚モチベーションのハイパーパラメータのみを使用しながら、バンディングの主観的知覚とよく相関する。

Banding artifacts are artificially-introdu ced contours arising from the quantization of a smooth region in a video. Despite the advent of recent higher quality video systems with more efficient codecs, these artifacts remain conspicuous, especially on larger displays. In this work, a comprehensive subjective study is performed to understand the dependence of the banding visibility on encoding parameters and dithering. We subsequently develop a simple and intuitive no-reference banding index called CAMBI (Contrast-aware Multiscale Banding Index) which uses insights from Contrast Sensitivity Function in the Human Visual System to predict banding visibility. CAMBI correlates well with subjective perception of banding while using only a few visually-motivated hyperparameters.
公開日: Fri, 29 Jan 2021 21:36:41 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
CAMBI: Contrast-aware Multiscale Banding Index CAMBI: コントラスト対応マルチスケールバンド指数 0.75
Pulkit Tandon∗§, Mariana Afonso†, Joel Sole† and Luk´aˇs Krasula† パルキット・タンドン・テシュ、マリアナ・アフォンソシュ、ジョエル・ソレシュ、ルク・アース・クラスラシュ 0.45
∗Department of Electrical Engineering, Stanford University, CA, USA, 94305. tpulkit@stanford.edu スタンフォード大学電気工学科, スタンフォード大学, アメリカ, 94305. tpulkit@stanford.edu 0.78
†Netflix Inc., Los Gatos, CA, USA, 95032. Netflix Inc., Los Gatos, CA, USA, 95032。 0.78
{mafonso, jsole, lkrasula}@netflix.com {mafonso, jsole, lkrasula}@netflix.com 0.98
1 2 0 2 n a J 1 2 0 2 n a J 0.85
9 2 ] V 9 2 ] V 0.85
I . s s e e [ 私は。 s s e [ 0.71
1 v 9 7 0 0 0 1 v 9 7 0 0 0 0.85
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
Abstract—Banding artifacts are artificially-introduced contours arising from the quantization of a smooth region in a video. abstract—banding artifactsは、ビデオ中の滑らかな領域の量子化から生じる人工的な輪郭である。 0.68
Despite the advent of recent higher quality video systems with more efficient codecs, these artifacts remain conspicuous, especially on larger displays. より効率的なコーデックを備えた最近の高品質のビデオシステムの出現にもかかわらず、これらのアーティファクトは、特に大きなディスプレイで目立つままです。 0.63
In this work, a comprehensive subjective study is performed to understand the dependence of the banding visibility on encoding parameters and dithering. 本研究では,符号化パラメータやディザリングに対するバンドング可視性の依存性を理解するため,包括的主観的研究を行った。 0.68
We subsequently develop a simple and intuitive no-reference banding index called CAMBI (Contrast-aware Multiscale Banding Index) which uses insights from Contrast Sensitivity Function in the Human Visual System to predict banding visibility. その後、人間の視覚系におけるコントラスト感度関数の洞察を利用してバンドの可視性を予測するCAMBI(Contrast-aware Multiscale Banding Index)と呼ばれるシンプルで直感的な非参照バンディングインデックスを開発しました。 0.68
CAMBI correlates well with subjective perception of banding while using only a few visually-motivated hyperparameters. cambiは、視覚モチベーションのハイパーパラメータのみを使用しながら、バンディングの主観的知覚とよく相関する。 0.50
I. INTRODUCTION Banding artifacts are staircase-like contours introduced during the quantization of spatially smooth-varying signals, and exacerbated in the encoding of the video. 私。 導入 バンドアーティファクトは、空間的に滑らかな変動信号の量子化中に導入された階段状の輪郭であり、ビデオのエンコーディングにおいて悪化する。 0.57
These artifacts are visible in large, smooth regions with small gradients, and present in scenes containing sky, ocean, dark scenes, sunrise, animations, etc. これらの工芸品は、小さな勾配のある大きく滑らかな地域で見られ、空、海、暗い景色、日の出、アニメーションなどを含むシーンに存在する。 0.71
Banding detection is essentially a problem of detecting artificially introduced contrast in a video. バンディング検出は、ビデオに人工的に導入されたコントラストを検出する問題である。 0.64
Even with high resolution and bit-depth content being viewed on highdefinition screens, banding artifacts are prominent and tackling them becomes even more important for viewing experience. 高精細スクリーンで高精細かつビット奥行きのコンテンツが見られる場合でも、バンディングアーティファクトは顕著であり、それらに取り組むことは、視聴体験にとってさらに重要になります。
訳抜け防止モード: 高解像度でビットでも- 高解像度スクリーンで見る深度コンテンツ 帯状アーティファクトは顕著で それらに対処する 視聴体験にとってさらに重要になるのです
0.69
Figure 1 shows an example frame from Night on Earth series on Netflix, encoded using a modern video codec, AV1 [1], and the libaom encoder. 図1はNetflix上のNight on Earthシリーズのサンプルフレームで、現代のビデオコーデックであるAV1[1]とリボームエンコーダを使ってエンコードされている。 0.85
Bands are clearly visible in the sky due to the intensity ramp present between the sun and its periphery. 太陽と周囲の間には強い傾斜があるため、空にはバンドがはっきりと見える。 0.71
Traditional video quality metrics such as PSNR, SSIM [2] or VMAF [3] are not designed to identify banding and are hence not able to account for this type of artifact [4], [5], as we will also show in Section III-C. PSNR、SSIM [2]、VMAF [3]などの従来のビデオ品質指標は、バンドを特定するために設計されていないため、セクションIII-Cで示すように、この種のアーティファクト[4]、[5]を考慮することはできません。 0.67
These artifacts are most salient in a medium bitrate regime where the video is neither highly compressed and thus exacerbated by other artifacts, nor provided with large number of bits to faithfully represent the intensity ramp. これらのアーティファクトは、ビデオが高圧縮されておらず、したがって他のアーティファクトによって悪化したり、強度ランプを忠実に表現するための多数のビットが提供される中程度のビットレート体制で最も重大です。 0.57
Having a banding detection mechanism that is robust to multiple encoding parameters can help identify the onset of banding in the videos and serve as a first step towards its mitigation. 複数のエンコーディングパラメータに堅牢なバンディング検出メカニズムを持つことは、ビデオのバンディングの開始を特定し、その緩和に向けた第一歩として役立ちます。 0.74
Related Work. Although banding detection has been studied in the literature, no single metric or index is widely employed. 関連業務。 バンディング検出は文献で研究されているが、単一の指標や指標は広く採用されていない。 0.61
Previous works on banding detection have focused on either false segment or false edge detection. バンディング検出に関するこれまでの研究は、偽のセグメントまたは偽のエッジ検出に焦点が当てられている。 0.54
For false segment detection, past methods have utilized segmentation approaches, such as pixel [4], [6], [7] or block-based segmentation [8], [9]. 偽セグメント検出のために、過去の方法は、ピクセル[4]、[6]、[7]、またはブロックベースのセグメンテーション[8]、[9]などのセグメンテーションアプローチを利用してきました。
訳抜け防止モード: 偽セグメント検出のために、過去の手法ではセグメント化アプローチを利用している。 pixel [ 4 ], [ 6 ], [ 7 ] あるいはブロックベースのセグメンテーション [8 ], [9 ]。
0.82
For false edge detection, methods have 偽りのエッジ検出のために、メソッドは 0.69
§Work done during an internship at Netflix. netflixでのインターンシップ中に行われた仕事。 0.62
Fig. 1. Banding Motivation. フィギュア。 1. 原題はBanding Motivation。 0.62
Example from Night on Earth series on Netflix (4k, 10-bit). 例 from night on earth series on netflix (4k、10ビット)。 0.84
Red box shows a zoomed-in luma segment with prominent bands. 赤いボックスは、顕著なバンドを持つズームインルーマセグメントを示しています。 0.66
utilized various local statistics such as gradients, contrast and entropy [10], [11], [12]. グラデーション、コントラスト、エントロピー[10]、[11]、[12]など、さまざまなローカル統計を利用しています。 0.67
But both of these approaches suffer the hard problem of distinguishing between true and false segments/edges. しかし、どちらのアプローチも真と偽のセグメント/エッジを区別する難しい問題に悩まされている。 0.60
Typically, this issue is solved by employing multiple hand-designed criteria obtained via observing a limited dataset. 通常、この問題は限られたデータセットを観察することで得られる複数の手設計基準を用いて解決される。 0.55
Moreover, most of these methods do not consider the possibility of dithering in the encoded video, which can be introduced by common tools such as ffmpeg [13] during bit-depth reduction and can significantly affect the banding visibility. さらに、これらの手法の多くは、ビット深度低減時にffmpeg[13]のような一般的なツールで導入できる符号化ビデオのディザリングの可能性を考慮しておらず、バンドリングの可視性に大きな影響を及ぼす可能性がある。 0.63
One recent no-reference banding detection method has outperformed previous work by using heuristics motivated by various properties of the Human Visual System, along with a number of pre-processing steps to improve banding edge detection [5]. 最近のno-reference banding detection手法は、人間の視覚システムの様々な特性に動機づけられたヒューリスティックスと、バンドリングエッジ検出を改善する多くの前処理ステップを用いることで、以前の作業よりも優れています [5]。 0.69
This algorithm also contains a large number of hyperparameters trained and tested over a limited dataset [4]. このアルゴリズムには、限られたデータセット上でトレーニングおよびテストされた多数のハイパーパラメータも含まれている[4]。 0.66
In this work we studied banding artifact’s dependence on various properties of encoded videos, viz. 本研究では,エンコードされたビデオのさまざまな特性に対するバンドングアーティファクトの依存性について検討した。 0.67
quantization parameters, encoding resolution and incidence of dithering. 量子化パラメータ、符号化分解能およびダイザリングの発生。 0.66
We present a simple, intuitive, no-reference, distortionspecific index called Contrast-aware Multiscale Banding Index (CAMBI), motivated by the algorithm presented in Ref. Refで示したアルゴリズムに動機づけられた、シンプルで直感的、無参照、歪み特異的インデックスであるContrast-aware Multiscale Banding Index(CAMBI)を紹介します。 0.63
[6]. CAMBI directly tackles the problem of contrast detection by utilizing properties of Contrast Sensitivity Function (CSF) [14], instead of framing banding detection as a false segment/edge detection. [6]. コントラスト感度関数(CSF: Contrast Sensitivity Function:CSF) [14] の特性を利用して、偽のセグメント/エッジ検出としてバンド検出をフレーム化するのではなく、コントラスト検出の問題に直接対処します。
訳抜け防止モード: [6]. CAMBIはコントラスト感度関数(CSF)の特性を利用してコントラスト検出の課題に直接取り組みます[14]。 偽のセグメント/エッジ検出としてバンド検出を組み立てる代わりに。
0.76
In addition, CAMBI contains only few hyperparameters, most of which are visually-motivated. さらに、CAMBIは、視覚的に動機づけられるハイパーパラメータをわずかしか含まない。 0.63
Results from the experiments conducted show that CAMBI has a strong linear correlation with subjective scores. 実験の結果、CAMBIは主観的スコアと強い線形相関があることが示された。 0.72
II. BANDING DETECTION ALGORITHM II。 バンディング検出アルゴリズム 0.59
We describe here the developed banding detection algorithm: CAMBI. ここでは,バンディング検出アルゴリズムcambiについて述べる。 0.63
A block diagram describing all the steps involved in CAMBI is shown in Figure 2. CAMBIに関わるすべてのステップを記述するブロック図を図2に示します。 0.86
CAMBI operates as a no-reference banding detector. CAMBIはノーレファレンスバンディングディテクタとして動作します。 0.67
It takes a video as an ビデオとして撮る 0.50
英語(論文から抽出)日本語訳スコア
Fig. 2. Block diagram of the proposed algorithm. フィギュア。 2. 提案アルゴリズムのブロック図。 0.64
Fig. 3. Effect of Contrast Sensitivity Function (CSF) on banding visibility. フィギュア。 3. コントラスト感度関数(CSF)がバンドの視認性に及ぼす影響 0.71
(a) CSF and its dependence on spatial frequency [14]. (a) CSFとその空間周波数依存性 [14] 0.77
(b) and (c) Toy example showing banding visibility with smoothly varying intensity quantized at increasing contrast step (purple arrow) and spatial frequency (orange arrow). (b)および(c)コントラストステップ(紫の矢)と空間周波数(オレンジの矢)の増加で定量化されるスムーズな強度でバンドリング可視性を示すトイ例。 0.80
input and produces a banding visibility score. 入力して、バンドリング可視性スコアを生成する。 0.48
CAMBI extracts multiple pixel-level maps at multiple scales, for temporally sub-sampled frames of the encoded video, and subsequently combines these maps into a single index motivated by human CSF [14]. cambiは複数のピクセルレベルマップを複数のスケールで抽出し、エンコードされたビデオの時間的サブサンプリングフレームに対して、これらのマップを人間のcsf[14]に動機づけられた単一のインデックスに結合する。 0.59
Steps involved in CAMBI are described next. CAMBIに関わるステップを次に説明します。 0.67
A. Pre-processing Each input frame is taken through several pre-processing steps. A.前処理 各入力フレームは複数の前処理のステップによって取られます。 0.60
Firstly, the luma component is extracted. まず、ルーマ成分を抽出します。 0.59
Although it has been shown that chromatic banding exists, like most of the past works we assume that majority of the banding can be captured in the luma channel [15], [16]. クロマティックバンディングが存在することが示されていますが、過去のほとんどの作品と同様に、バンディングの大部分はルマチャンネル[15]、[16]でキャプチャできると仮定しています。
訳抜け防止モード: クロマティックバンドは存在することが示されていますが、過去のほとんどの作品と同様に、バンドの大部分はルマチャンネル[15]でキャプチャできると仮定しています。 [ 16 ] .
0.72
Next, dithering present 次にディザリングプレゼント 0.52
in the frame is accounted for. フレーム内には説明がつく。 0.63
Dithering is intentionally applied noise used to randomize quantization error, and has been shown to significantly affect banding visibility [6], [10]. ディザリングは、量子化誤差をランダム化するために意図的に適用されるノイズであり、バンドリングの可視性に大きな影響を与えることが示されている [6], [10]。
訳抜け防止モード: 量子化誤差のランダム化に用いる意図的なノイズです。 示されています バンドの可視性[6]、[10]にかなり影響するため。
0.68
Presence of dithering makes banding detection harder, as otherwise clean contours might have noisy jumps in quantized steps, leading to unclean edges or segments detection. ダイザリングの存在は、クリーンな輪郭が量子化されたステップで騒々しいジャンプを持つ可能性があるため、バンド検出が難しくなり、不器用なエッジまたはセグメント検出につながります。
訳抜け防止モード: ディザリングの存在 バンド検出は困難です そうでなければ 清潔な輪郭は 量子化されたステップでうるさくジャンプする 粗悪なエッジや セグメント検出に繋がる
0.69
Thus to account for both dithered and non-dithered regions in a frame, we use a 2 × 2 averaging low-pass filter (LPF) to smoothen the intensity values, in an attempt to replicate the low-pass filtering done by the human visual system. したがって、フレーム内のディザリング領域と非ディザリング領域の両方を考慮し、人間の視覚システムによって行われる低域フィルタを再現するために、2×2平均低域フィルタ(LPF)を用いて強度値の平滑化を図る。 0.78
Low-pass filtering is done after converting the frame to a bit-depth of 10 (encodes studied in this work are 8-bit, but obtained from a 10-bit source as described in Section III-B). 低パスフィルタリングは、フレームをビット深さ10に変換して行われる(この研究で研究されているエンコードは8ビットであるが、第iii-b節で述べた10ビットのソースから得られる)。 0.66
This ensures that the obtained pixel values are in steps of one in 10-bit scale after application of LPF. これにより、LPFの適用後、取得したピクセル値は10ビットスケールで1段階となる。 0.76
Finally, we assume that the display is 4k (see Section III-B), and hence irrespective of the encode resolution the frame is upscaled to 4k. 最後に、ディスプレイが4kであると仮定します(セクションIII-Bを参照)。そのため、エンコード解像度に関係なく、フレームは4kにスケールアップされます。 0.67
Further steps in the algorithm are agnostic to the encode アルゴリズムのさらなるステップは、エンコードに無関係である 0.74
properties studied in this work, viz. この研究で研究されている特性、viz。 0.56
resolution, quantization parameter, and incidence of dithering. 解像度、量子化パラメータ、ディザリングの発生率。 0.67
Though we assume 10bit sources and 4k displays in this work, CAMBI can be extended to encodes from sources at arbitrary bit-depths and display resolutions by modifying the bit-depth conversion and spatial upscaling steps appropriately. この作業では、10ビットのソースと4kのディスプレイを仮定するが、CAMBIはビット深度変換と空間スケールアップのステップを適切に修正することにより任意のビット深度および表示解像度でソースからエンコードできる。 0.71
B. Multiscale Banding Confidence B.マルチスケールバンド信頼 0.71
As mentioned in Section I, we consider banding detection as a contrast-detection problem, and hence banding visibility is majorly governed by the CSF. 第1節で述べたように、バンドリング検出はコントラスト検出問題であり、バンドリングの可視性はcsfによって主に制御されている。 0.59
CSF itself largely depends on the perceived contrast across the step and spatial-frequency of the steps, as illustrated in Figure 3. CSF自体は、図3に示すように、ステップ間の知覚コントラストとステップの空間周波数に大きく依存する。 0.79
CAMBI explicitly tries to account for the contrast across pixels by looking at the differences in pixel intensity and does this at multiple scales to account for spatial frequency. CAMBIは、画素強度の違いを見て、ピクセル間のコントラストを明示的に考慮し、空間周波数を考慮するために複数のスケールでこれを行う。 0.69
CAMBI generalizes the approach used in [6], which com- CAMBIは[6]で使われるアプローチを一般化する。 0.77
putes a pixel-wise banding confidence c(s) at a scale s as c(s) = p(0, s) × max c(s) = p(0, s) × max として、スケール s にピクセル回りのバンド信頼 c(s) を置く。 0.84
p(−1, s) p(1, s) p(−1, s) p(1, s) 0.91
, p(0, s) + p(−1, s) , p(0, s) + p(−1, s) 0.88
p(0, s) + p(1, s) p(0, s) + p(1, s) 0.85
(cid:21) (1) (cid:21) (1) 0.82
where p(k, s) is given by ここで p(k, s) は 0.59
(cid:20) (cid:80) (cid:20)(cid:80) 0.73
δ(I(x(cid:48), y(cid:48)), I(x, y) + k) δ(I(x(cid:48), y(cid:48)), I(x, y) + k) 0.88
{(x(cid:48),y(cid:48) )∈Ns(x,y)| (cid:107)∇(x(cid:48),y(cid:48) )(cid:107)<τg} x(cid:48),y(cid:48)) ∈Ns(x,y)| (cid:107)\(x(cid:48) ,y(cid:48))(cid:107) <*g} 0.94
p(k, s) = (cid:80) p(k, s) = (cid:80) 0.82
{(x(cid:48),y(cid:48) )∈Ns(x,y)|(cid:107)∇(x(cid:48),y(cid:48) )(cid:107)<τg} x(cid:48),y(cid:48)) ∈Ns(x,y)|(cid:107)\(x(cid:48) ,y(cid:48))(cid:107) <*g} 0.94
1 (2) In Eq. 2, (x, y) refers to a particular pixel, and I(x, y), Ns(x, y) and (cid:107)∇(x, y)(cid:107) correspond to the intensity, neighborhood of a scale s and gradient magnitude at this particular pixel, respectively. 1 (2) Eq。 2, (x, y) は特定の画素を指し、I(x, y) と Ns(x, y) と (cid:107) =(x, y)(cid:107) はそれぞれ、この特定の画素におけるスケール s の強度、近傍、勾配等級に対応する。 0.73
δ(., .) is an indicator function. δ(., .) はインジケーター機能です。 0.68
Thus, p(k, s) corresponds to the fraction of pixel (in a neighborhood around pixel (x, y)) with an intensity difference of k amongst the set of pixels with gradient magnitude smaller than τg. したがって、p(k, s) は(ピクセル (x, y) の周りの近傍にある)ピクセルの分数に対応し、K の強度差は τg より小さいピクセルの集合の中の k の強度差である。 0.78
Hyperparameter τg ensures avoidance of textures during banding detection [6]. ハイパーパラメータτgはバンドリング検出時のテクスチャの回避を保証します [6]。 0.66
Therefore, Eq. 1 calculates a banding confidence c(s) which explicitly tries to find if there is an intensity step of ±1 in a pixel’s non-texture neighborhood at scale s. p(0, s) ensures that at the scale s, the pixel around which banding is being detected belongs to a visually-significant contour. したがって、Eq。 1は、スケールs.p(0, s)で画素の非テクスチャ近傍に±1の強度ステップがあるかどうかを明示的に検出しようとするバンド信頼c(s)を計算し、スケールsにおいて、バンドが検出されているピクセルが視覚的に重要な輪郭に属することを保証する。 0.83
In CAMBI, the above approach is modified to explicitly account for multiple contrast steps and different spatialfrequencies, thus accounting for CSF-based banding visibility. CAMBIでは、上記のアプローチは複数のコントラストステップと異なる空間周波数を明示的に考慮するために修正され、CSFに基づくバンドリングの可視性を考慮している。 0.59
This is done by calculating pixel-wise banding confidence c(k, s) per frame at various different contrasts (k) and scales (s), each referred to as a CAMBI map for the frame. これは、フレームのCAMBIマップと呼ばれるさまざまな異なるコントラスト(k)とスケール(s)で、フレームごとのピクセル方向のバンド信頼性c(k, s)を計算することによって行われます。 0.78
A total of twenty CAMBI maps are obtained per-frame capturing banding across 4 contrast-steps and 5 spatial-frequencies. CAMBIマップは4つのコントラストステップと5つの空間周波数にまたがる1フレームあたりのバンドリングを合計20個取得する。 0.58
For calculating CAMBI maps, Eq. CAMBIマップの計算には、Eq。 0.73
1 is modified as follows: 1は以下のように変更される。 0.63
p(−k, s) p(0, s) + p(−k, s) p(−k, s) p(0, s) + p(−k, s) 0.94
, c(k, s) = p(0, s) max , c(k, s) = p(0, s) max 0.85
p(0, s) + p(k, s) (3) where k ∈ {1, 2, 3, 4}. p(0, s) + p(k, s) (3) ここで k ∈ {1, 2, 3, 4} となる。 0.89
Intensity differences of up to ±4 are considered because of the conversion from 8-bit to 10bit. 8ビットから10ビットへの変換により、±4までの強度差が考慮される。 0.74
If the pixel belongs to a dithering region it would have ピクセルがディザリング領域に属しているなら、それは有するであろう 0.58
p(k, s) (cid:20) p(k, s) (cid:20) 0.82
(cid:21) InputVideoSpatio-Tem poral Poolingcontrast-awar espatial poolingtemporal subsamplingCAMBIPrep rocessingextract Y component convert to 10banti-dither(low-p ass filter)upscale to 4kMultiscale BandingConfidencecontrast-awarep ixel-wise banding (x4)multiscale↓2 (x5)20 CAMBI maps per frame(a)(b)(c) (cid:21) InputVideoSpatio-Tem poral PoolingContrast-awar espatial poolingtemporal subsamplingCAMBIPrep rocessing Extract Y component convert to 10banti-dither(low-p ass filter)upscale to 4kMultiscale BandingConfidenceCon trast-awarepixel-wis e banding (x4)multiscale ^2 (x5)20 CAMBI map per frame(a)(b)(c) 0.76
英語(論文から抽出)日本語訳スコア
Fig. 4. Exemplary CAMBI maps. フィギュア。 4. 例のCAMBIマップ。 0.70
Frames are from example shown in Figure 1. フレームは図1に示す例からのものです。 0.76
A warmer color represents higher banding confidence c(k, s = 65 × 65). 暖かい色は、より高いバンド自信c(k, s = 65 × 65)を表します。 0.83
neighbouring pixels with intensity difference of < 4 because of the applied anti-dithering filter. アンチダイザリングフィルタの適用により,<4の強度差を持つ隣接画素が検出された。 0.68
On the other hand, if banding edge exists without any dithering in the frame, this would lead to an intensity difference of ±4 at a bit-depth of 10, as a false contour appearing due to quantization will have pixels differing by 1 on either side of the contour at bit-depth of 8. 一方、フレーム内にディザリングのないバンドリングエッジが存在する場合、量子化によって現れる偽の輪郭は8のビット深度で輪郭の両側に1のピクセルが異なるため、10のビット深度で±4の強度差が生じる。 0.67
This leads to four CAMBI maps per frame, at each scale. これは、各スケールで、1フレームあたり4つのCAMBIマップにつながります。 0.68
Figure 4a shows the CAMBI maps obtained at different contrasts for the example shown in Figure 1, for both dithered and non-dithered frame (see Section III-A). 図4aは、図1に示すように異なるコントラストで得られたCAMBI写像をディザードフレームと非ディザードフレームの両方に対して示す(第III-A節参照)。 0.70
Warmer colors represent higher c(k, s) values and highlighted boxes clearly show that in undithered frame banding largely occurs at a contrast step of k = 4 whereas for a frame containing dithering banding confidence shows up largely at lower contrast steps. より暖かい色は高いc(k, s)値を表し、強調されたボックスは、未拡張のフレームバンドリングは、主にk = 4のコントラストステップで起こるが、ディザリングバンドリングの信頼度を含むフレームは、主に低いコントラストステップで現れる。 0.69
To account for the banding visibility dependence on spatial frequency of bands, we modify the multiscale approach used by Ref. バンドの空間周波数に対する帯域の可視性依存性を考慮し,Refのマルチスケールアプローチを改良する。 0.84
[6] to reduce the computational complexity. 6]計算の複雑さを減らすため。 0.78
First, we fix the window-size (s) and then find c(k, s) for frames after a mode-based downsampling is applied in powers of two from the initial resolution of 4k. まず、ウィンドウサイズ(s)を修正し、4kの初期解像度から2のパワーでモードベースのダウンサンプリングを適用した後、フレームのc(k, s)を見つける。 0.74
In total 5 scales are considered: 4k, 1080p, 540p, 270p and 135p. 4k, 1080p, 540p, 270p, 135pの計5つのスケールが考慮されている。 0.62
This leads to five CAMBI maps per frame at each contrast. これは、各コントラストでフレームごとに5つのCAMBIマップにつながります。 0.67
Furthermore, a window-size (s) of 65× 65 (centered at pixel) is chosen in this study which corresponds to ∼ 1◦ visual angle at 4k resolution based on subjective test design as described in Section III-B. さらに,第3節-B節に記載した主観的テスト設計に基づいて,4k分解能において,65×65(画素中心)のウィンドウサイズ(s)を選択する。 0.78
Thus, our multiscale approach calculates banding visibility at spatialfrequencies corresponding to visual degrees (v◦) of ∼{1◦, 2◦, 4◦, 8◦, 16◦}. したがって、私たちのマルチスケールアプローチは、空間周波数におけるバンドの可視性を計算する。
訳抜け防止モード: 本研究では,視覚次数に対応する空間的頻度のバンドリング可視性を計算する。 (第5話) of ∼{1 ◦, 2 ◦, 4 ◦, 8 ◦, 16 ◦ } .
0.65
Figure 4b shows CAMBI maps obtained at these five different scales at a contrast step of 4, for a frame without dithering as shown in Figure 4a top panel. 図4bは、図4aのトップパネルに示すように、ディザリングのないフレームに対して、これら5つの異なるスケールで得られたカムビマップを4のコントラストステップで示す。 0.69
Figure 4b clearly shows that CAMBI is able to identify bands at various spatialfrequencies (e.g. 図4bは、CAMBIが様々な空間周波数のバンドを識別できることを示している(例)。 0.64
high-frequency bands near sun at 4k and lowfrequency bands away from the sun at 135p). 4kの太陽付近の高周波帯と135pの太陽から離れた低周波帯。 0.67
C. Spatio-Temporal Pooling Finally, CAMBI maps obtained per C. 時空間プール 最後にCAMBIマップを取得します。 0.64
frame are spatiotemporally pooled to obtain the final banding index. フレームは時空間的にプールされ、最終的なバンドリングインデックスを得る。 0.53
Spatial pooling of CAMBI maps is done based on the observation that above described CAMBI maps belong to the initial linear phase of the CSF (Figure 3, red box). CAMBIマップの空間プーリングは、上述のCAMBIマップがCSFの初期線形位相に属するという観測に基づいて行われる(図3、レッドボックス)。 0.75
Since perceived quality of video is dominated by regions with poorest perceived quality, only the worst κp(p = 30%) of the pixels are considered during spatial pooling [5]. 映像の知覚品質は最も知覚に乏しい領域に支配されているため,空間的プーリングにおいては,画素の最悪のκp(p = 30%)のみが考慮される [5]。 0.75
Though this improved correlation results (Section III-C), using κp(p = 100%) also leads to competitive correlation numbers (not shown). この相関結果の改善 (Section III-C) はあったが、κp(p = 100%) を用いることで競合相関数も得られる(表示されない)。 0.63
c(k, s) × k × log2 (cid:80) c(k, s) × k × log2 (cid:80) 0.97
CAMBIf = (x,y)∈κp CAMBIf = (x,y)∈κp 0.88
(cid:80) (cid:0) 16 (cid:80) (cid:0) 16 0.81
v◦ (cid:1) ヴェイ (cid:1) 0.64
(cid:80) k= 1,..,4 (cid:80) k=1..,4 0.79
v◦= 1,2,..,16 意) 1,2,..,16 0.62
(cid:80) (x,y)∈κp (cid:80) (x,y)∈κp 0.85
1 (4) where 1/v◦ represents spatial-frequency at which banding is detected (described in Section II-B). 1 (4) バンドが検出される空間周波数を表す(第II-B節に記載)。 0.80
Finally, CAMBI is applied to a frame every τs = 0.5s and averaged, resulting in final CAMBI scores for the video. 最後に、CAMBI はフレームに s = 0.5s ごとに適用され、平均化され、ビデオの最終 CAMBI スコアが得られます。 0.70
The value of τs was chosen based on temporal frequency dependence of CSF [17] as well as for implementation efficiency. τsの値はcsf[17]の時間周波数依存性と実装効率に基づいて選択された。 0.78
According to our experiments, CAMBI was observed to be temporally stable within a single shot of a video but simple temporal pooling may fail if applied to a video with multiple shots. 実験の結果、CAMBIはビデオの1枚の撮影で時間的に安定していることがわかったが、複数の撮影を行ったビデオに適用した場合、単純な時間プーリングは失敗する可能性がある。 0.64
More sophisticated methods are planned for future work. より高度な方法は、将来の作業のために計画されています。 0.43
(cid:88) f∈τs (cid:88) f∈ s 0.66
(cid:44)(cid:88) (cid:44)(cid:88) 0.75
f∈τs CAMBI = f∈ s CAMBI = 0.69
CAMBIf 1 (5) CAMB 1 (5) 0.82
Hyperparameters used in CAMBI are summarized in Table CAMBIで使用されるハイパーパラメータはテーブルで要約される 0.67
I and validation results are shown in Section III-C. Iと検証結果は第III-C節で示される。 0.69
CAMBI maps at different spatial frequencyc(4,s)(a)CA MBI maps at different contrast stepsc(1,s)c(2,s)c(3 ,s)c(4,s)frame with no ditheringframe with dithering(b) 異なる空間周波数c(4,s)(a)におけるCAMBI写像と異なるコントラストステップc(1,s)c(2,s)c(3,s)c( 4,s)フレームにおけるDitheringframeなしのCAMBI写像(b) 0.78
英語(論文から抽出)日本語訳スコア
TABLE I HYPERPARAMETERS USED IN CAMBI. テーブルI カンビで使用されるハイパーパラメーター。 0.35
low-pass filter (LPF) window-size (s in Ns) gradient threshold (τg) spatial pooling (κp) 低パスフィルタ (LPF) ウィンドウサイズ (s in Ns) 勾配しきい値 (g) 空間プール (κp) 0.94
65 × 65 2 × 2 avg filter 65 × 65 2 × 2 avg フィルター。 0.89
temporal sub-sampling (τs) 時間サブサンプリング(τs) 0.72
2 30% 0.5s III. 2 30%0.5 III。 0.78
PERFORMANCE EVALUATION A. Banding Dataset 性能評価 a.バンドングデータセット 0.61
A banding dataset was created for this study based on existing Netflix catalogue. この研究のために、既存のNetflixカタログに基づいてバンド化データセットが作成された。 0.61
Nine 4k-10bit source clips with duration between 1 and 5 seconds were utilized. 9本の4k-10bitソースクリップを1秒から5秒間使用した。 0.60
Of these, eight clips had various levels of banding and one had no banding. そのうち8本のクリップは様々なレベルのバンド化があり、1本はバンド化されていない。 0.53
Nine different encodes were created for each of these sources by using the following steps: 1) downsampling source to appropriate resolution (1080p, quad-HD or 4k) and bit-depth (8-bit) using ffmpeg, 2) encoding the downsampled content at three different QPs (12, 20, 32) using libaom. 1) ソースを適切な解像度(1080p、クアッドHD、または4k)にダウンサンプリングし、ffmpegを使用してビット深度(8ビット)、2) libaomを使用して3つの異なるQP(12、2032)でダウンサンプリングコンテンツをエンコードする。
訳抜け防止モード: 1080p, quad - HD または 4k のソースを適切な解像度にダウンサンプリングすることで、これらのソース毎に9つの異なるエンコードが作成された。 and bit - depth (8bit ) using ffmpeg, 2 ) encoding the downsampled content at three different QPs ( 12, 20, 32 ) using libaom 。
0.88
Ordereddithering gets introduced in the frames during downsampling by ffmpeg and gets selectively pruned during encoding (dependent on QP and resolution). orderditheringはffmpegによるダウンサンプリング中にフレームに導入され、エンコード中に選択的にプルーンされる(qpと解像度に依存する)。 0.62
Thus, we also added a tenth encode per source where dithering is not introduced to explicitly validate whether CAMBI can track banding visibility across dithering. また、ディザリング毎に10番目のエンコードを追加し、CAMBIがディザリングの可視性を追跡することができるかどうかを明示的に検証する。 0.51
This encode was done at maximum quality (4k resolution, 12 QP) to juxtapose the banding visibility in absence of dithering against other encoding parameters. このエンコードは最大品質(4k解像度、12qp)で行われ、他のエンコーディングパラメータに対するディザリングがなければバンドリングの可視性が低下する。 0.70
B. Subjective Study The subjective evaluation was performed on the above described dataset by asking viewers familiar with banding artifacts to rate the worst-case annoyance caused by the banding across all video frames on a modified DCR scale from 0 (unwatchable) to 100 (imperceptible) [18]. B.主観的研究 提案するデータセットでは,すべてのビデオフレームの包帯が0から100(目に見えない)までの修正dcrスケールで発生した最悪の事態を,包帯アーチファクトに精通した視聴者に評価することで主観評価を行った [18]。 0.72
For each viewer, six encodes of an additional (not from banding dataset) source content with expected score ranging from 0 to 100 (in steps of 20) were firstly shown, along-with the expected scores, in a training session. 各視聴者に対して、トレーニングセッションにおいて、0から100までの期待スコア(20のステップ)を持つ追加の(データセットのバンド化から外れた)ソースコンテンツの6つのエンコードを最初に提示した。 0.80
Following this, a single-stimulus test with randomized exhaustive clip-order from the banding dataset was performed remotely1. その後,バンドングデータセットから無作為化されたクリップオーダを用いた単一刺激試験を遠隔で実施した。 0.59
Each viewer watched the test content on a 15 inch Apple Macbook Pro. 各視聴者は15インチのApple Macbook Proでテスト内容を見た。 0.86
All videos were played in a loop until terminated by the viewer. すべてのビデオは、視聴者が終了するまでループで再生された。 0.72
In addition, viewers were asked to maintain a distance of ∼ 1.5×screen height from the screen throughout the experiment. さらに、観客は実験中、画面から1.5×スクリーンの高さまでの距離を維持するよう求められた。
訳抜け防止モード: さらに視聴者には 実験を通して画面から1.5×スクリーン高さまでの距離を維持する。
0.88
All the encodes presented were 8-bit, upsampled to 4k and cropped to 2880 × 1800 pixels for uniformity across subject’s display resolutions. 表示されたエンコードはすべて8ビットで、4kにアップサンプリングされ、880 × 1800ピクセルに切り分けられた。 0.70
Although no attempt was made to control ambient lightning, we asked the viewers to adjust the display brightness to around 80% of the maximum. アンビエントライトニングを制御する試みは行われなかったが、ディスプレイの明るさを最大80%に調整するよう視聴者に求めた。 0.75
A detailed study including ambient lightning dependence is planned for future work. 今後の作業には、環境光依存を含む詳細な研究が計画されている。 0.52
A total of 86 encodes were evaluated in this study (with four 4k sequences removed because of non-real time decoding of highest quality AV1 encode by browser). 本研究では,86個のエンコードを評価した(高品質のAV1エンコードをブラウザで非リアルタイムに復号化するため,4つの4kシークエンスを除去した)。 0.66
All chosen sequences 選択されたシーケンス 0.59
1Future reader, note that we are in the middle of a pandemic. 1将来の読者は、パンデミックの真っ最中であることに注意してください。 0.46
Fig. 5. Subjective test properties (86 encodes, 23 viewers). フィギュア。 5. 主観的テスト特性(86エンコード、23ビューア)。 0.66
(a) Designed test had a thorough coverage of the scale, and (b) mean opinion scores obtained had a 95% Student’s t-confidence interval of < 10. (a) 設計テストは、スケールを徹底的にカバーし、(b) 得られた評価スコアの平均は、95% の学生の T 自信間隔 < 10。 0.81
Fig. 6. Subjective study results. フィギュア。 6. 主観的な研究結果。 0.62
(left panel) CAMBI is linearly correlated with mean opinion scores (MOS) obtained through subjective study, (middle, right panels) whereas VMAF and PSNR are uncorrelated with the MOS. (左パネル) CAMBIは主観的研究(中・右パネル)で得られた平均世論スコア(MOS)と線形に相関するが, VMAFとPSNRはMOSと相関しない。 0.85
had qualities of VMAF > 80 and PSNR > 40 dBs, highlighting the problem of banding prevalence even in highly-rated videos using traditional metrics. VMAF > 80およびPSNR > 40 dBsの品質を有し、従来のメトリクスを使用して高評価のビデオでも有病率をバンディングする問題を強調しました。 0.67
To the best of our knowledge, this subjective study is the first to account for dependence of banding on resolution and presence of dithering. 私たちの知る限りでは、この主観的な研究は、ディザリングの解決と存在に対するバンディングの依存を最初に考慮します。 0.60
In total 23 subjects participated in this study. この研究には合計23名の被験者が参加した。 0.63
Figure 5 shows that the banding scores obtained had a thorough coverage of the DCR scale as well as a 95% Student’s t-confidence interval of <10. 図5は、得られたバンディングスコアがDCRスケールと95%の学生のT自信間隔を徹底的にカバーしていることを示しています。 0.74
C. Results 1) CAMBI is linearly correlated with subjective scores: The Mean Opinion Scores (MOS) obtained from the subjective study were compared with the output from CAMBI and two objective quality metrics, VMAF and PSNR. C.結果 1) CAMBIは主観的スコアと線形に相関する: 主観的研究から得られた平均オピニオンスコア(MOS)は, CAMBIとVMAFとPSNRの2つの客観的品質指標と比較した。 0.84
Results are shown in Figure 6. 結果は図6に示します。 0.86
We can see that CAMBI provides high negative correlation with MOS while VMAF and PSNR have very little correlation. CAMBIはMOSと高い負の相関を示し、VMAFとPSNRはほとんど相関がないことがわかります。 0.78
A number of correlation coefficients, namely Spearman Rank Order Correlation (SROCC), Kendalltau Rank Order Correlation (KROCC), Pearson’s Linear Correlation (PLCC) and (|KROCC| + 1)/2 over statisticallysignificant pairs (C0) [19] are reported in Table II. 表iiには、スピアマンランク順序相関(srocc)、ケンダルソーランク順序相関(krocc)、ピアソンの線形相関(plcc)、および (|krocc| + 1)/2の統計意味対(c0)[19]上の相関係数が報告されている。
訳抜け防止モード: 複数の相関係数、すなわちスピアマンランク順序相関(SROCC) Kendalltau Rank Order correlation (KROCC), Pearson 's Linear correlation (PLCC) そして (|KROCC| + 1)/2 over statisticslysignific ant pairs (C0 ) [ 19 ] is reported in Table II。
0.82
From a total of 3655 comparisons possible amongst MOS of 86 videos, 2895 pairs had a difference in MOS which was statistically significant and 95% of these orderings were correctly identified by CAMBI. 86ビデオのMOS間で可能な合計365の比較から、2895ペアは統計的に有意なMOSに違いがあり、これらの注文の95%はCAMBIによって正しく識別されました。 0.70
Individual scores reported are mean ± standard deviation (maximum) correlation coefficients when an individual viewer’s subjective scores are compared against MOS and suggests CAMBI performs equivalent to an individual sensitive in identifying banding. 個々のスコアは、個々のビューアの主観的スコアをMOSと比較した場合の平均±標準偏差(最大)相関係数であり、CAMBIはバンド識別に敏感な個人と同等であることを示す。 0.76
These results suggest that CAMBI is able to accurately estimate banding visibility across これらの結果からCAMBIは広帯域の可視性を正確に推定できることが示唆された。 0.57
(a)(b)Mean Opinion Scores (MOS)100Imperceptibl e80Perceptible, but not annoying60Slightly annoying40Annoying20 Very annoying0Unwatchable 95% Student’s t-Confidence IntervalVideo IndexMean Opinion Scores (MOS)020406080204060 80100248610CAMBIVMAF PSNRMean Opinion Scores (MOS)100Imperceptibl e80Perceptible, but not annoying60Slightly annoying40Annoying20 Very annoying0Unwatchable 05101520808590951004 0455055 (a)(b)Mean Opinion Scores (MOS)100Imperceptibl e80Perceptible, not annoying 60Slightly annoying40Annoying20 Very annoying0Unwatchable 95% Student’s t-Confidence IntervalVideo IndexMean Opinion Scores (MOS)020408040608080 808610CAMBIVMAFPSNRM ean Opinion Scores (MOS)100Imperceptibl e80Perceptible, not annoying 60Slightly annoying40Annoying20 Very annoying0Unwatchable 05102080808080804040 404050505555 0.71
英語(論文から抽出)日本語訳スコア
PERFORMANCE COMPARISON OF METRICS AGAINST SUBJECTIVE SCORES. 物質的コレスに対するメトリクスの性能比較 0.48
TABLE II CAMBI ↓ テーブルII CAMBI! 0.52
VMAF ↑ PSNR ↑ VMAFとは? PSNRとは? 0.36
Individual SROCC KROCC PLCC 個人 SROCC KROCC PLCC 0.77
C0 -0.923 -0.765 -0.929 0.950 C0 -0.923 -0.765 -0.929 0.950 0.58
0.088 0.099 0.000 0.545 0.088 0.099 0.000 0.545 0.45
-0.202 -0.124 -0.271 0.409 -0.202 -0.124 -0.271 0.409 0.37
0.844 ± 0.108 (0.953) 0.678 ± 0.108 (0.821) 0.853 ± 0.097 (0.957) 0.844 ± 0.108 (0.953) 0.678 ± 0.108 (0.821) 0.853 ± 0.097 (0.957) 0.60
— Fig. 7. — フィギュア。 7. 0.71
Checking for False Positives. CAMBI when applied to another dataset with no banding [20] doesn’t over-predict banding scores. 偽陽性者の確認。 バンドなしの別のデータセットに適用した場合のCAMBI [20]は、バンドスコアを過度に予測しません。 0.55
Inset shows a piecewise linear fit between MOS and CAMBI. Inset は MOS と CAMBI の整合性を示している。 0.68
a number of variables with high linear-dependence (without any additional fitting). 線形依存度の高い変数(追加の適合なしに)の数。 0.76
2) CAMBI is unbiased over range of video qualities: CAMBI was also validated on an independent dataset without visible banding artifacts. 2) CAMBIはビデオ品質の幅に偏りがない: CAMBIはまた、可視帯状アーティファクトのない独立したデータセット上でも検証された。 0.69
This dataset contains 84 HEVC encodes from seven 4k 10-bit sources with a range of VMAF scores [20]. このデータセットには、VMAFスコア[20]の7つの4k 10ビットソースから84のHEVCエンコードが含まれている。 0.63
Figure 7 shows CAMBI against VMAF for both the datasets. 図7は、両方のデータセットのVMAFに対するCAMBIを示しています。 0.62
Though CAMBI is designed for worst-case banding visibility and verified using subjective scores based on worst-case annoyance caused by banding, this false-positive analysis seems to indicate that CAMBI does not over-predict banding scores. CAMBIは最悪のバンド化の可視性のために設計されており、バンド化による最悪のケースの不快感に基づいて主観的なスコアを用いて検証されているが、この誤陽性分析はCAMBIが過度にバンド化のスコアを予測していないことを示唆しているようである。 0.44
Figure 7 also provides an interpretation for the range of CAMBI scores, where CAMBI < 5 would suggest no visible banding artifacts are present. 図7はまた、CAMBI < 5が目に見えるバンドアーティファクトが存在しないことを示唆するCAMBIスコアの範囲の解釈を提供します。 0.76
IV. CONCLUSION In this work, we present a simple and intuitive, no-reference, distortion-specific banding index called CAMBI. IV。 結論 本研究では、CAMBIと呼ばれるシンプルで直感的で無参照の歪み特異的バンディングインデックスを提案する。 0.64
CAMBI is able to estimate banding visibility across multiple encoding parameters by employing visually-motivated computational motifs. CAMBIは、視覚的に動機づけられた計算モチーフを用いて、複数の符号化パラメータにまたがるバンドの可視性を推定することができる。 0.49
We conducted a comprehensive subjective study to validate CAMBI and showed that it has a high correlation and a near-linear relationship with mean opinion scores. CAMBIを検証するための包括的な主観的研究を行い、平均的な意見スコアと高い相関性およびほぼ直線的な関係があることを示した。 0.70
In addition, the small number of hyperparameters and falsepositive analysis suggest a good generalizability of this index. さらに、少数のハイパーパラメータと偽陽性分析は、この指標の優れた一般化を示唆している。 0.65
In the future, we plan to validate and improve CAMBI on a larger subjective dataset using videos with varied bit-depths and encoded using different video codecs. 将来的には、様々なビット深度を持つビデオを用いて、より大規模な主観的データセット上でCAMBIを検証・改善し、異なるビデオコーデックを用いて符号化する計画である。 0.57
CAMBI can also be used in conjunction with or integrated as an additional feature in future versions of VMAF, and to aid the development of debanding algorithms. CAMBIは、将来のバージョンのVMAFで追加機能として使用したり統合したりすることで、解離アルゴリズムの開発を支援することもできる。 0.80
ACKNOWLEDGMENT The authors would like to thank Zhi Li, Christos Bampis and codec team at Netflix for feedback on this work and all the observers who participated in the subjective test. 情報 著者らは、zhi li氏、christos bampis氏、およびnetflixのcodecチームに対して、この作業と主観テストに参加したすべてのオブザーバーへのフィードバックを求めている。 0.47
REFERENCES [1] Y. Chen, D. Murherjee, J. Han, A. Grange, Y. Xu, Z. Liu, S. Parker, C. Chen, H. Su, U. Joshi et al., “An overview of core coding tools in the av1 video codec,” in 2018 Picture Coding Symposium. 参考 [1] Y. Chen, D. Murherjee, J. Han, A. Grange, Y. Xu, Z. Liu, S. Parker, C. Chen, H. Su, U. Joshi et al., “Av1ビデオコーデックにおけるコアコーディングツールの概要” 2018 Picture Coding Symposium 。 0.71
IEEE, 2018. IEEE、2018年。 0.88
[2] Z. Wang, A. C. Bovik, H. R. Sheikh, and E. P. Simoncelli, “Image quality assessment: from error visibility to structural similarity,” IEEE transactions on image processing, vol. Z.Wang, A. C. Bovik, H. R. Sheikh, E. P. Simoncelli, “画像品質評価:エラーの可視性から構造的類似性に至るまで”, IEEEのイメージ処理に関するトランザクション。 0.83
13, no. 4, pp. 13、いいえ。 4, pp。 0.75
600–612, 2004. 600–612, 2004. 0.84
[3] Z. Li, A. Aaron, I. Katsavounidis, A. Moorthy, and M. Manohara, “Toward a practical perceptual video quality metric,” The Netflix Tech Blog, vol. 3] Z. Li, A. Aaron, I. Katsavounidis, A. Moorthy, M. Manohara, “Toward a practical Perceptual video quality metric”, The Netflix Tech Blog, vol。 0.85
6, p. 2, 2016. 6, p. 2 2016。 0.79
[4] Y. Wang, S.-U. [4] Y. Wang, S.-U. 0.88
Kum, C. Chen, and A. Kokaram, “A perceptual visibility metric for banding artifacts,” in 2016 IEEE International Conference on Image Processing (ICIP). Kum, C. Chen, A. Kokaram, “A perceptual visibility metric for banding artifacts” in 2016 IEEE International Conference on Image Processing (ICIP)。
訳抜け防止モード: Kum, C. Chen, and A. Kokaram, “A perceptual visibility metric for banding artifacts”。 2016年、IEEE International Conference on Image Processing (ICIP) に参加。
0.89
IEEE, 2016, pp. IEEE、2016 pp。 0.63
2067–2071. 2067–2071. 0.71
[5] Z. Tu, J. Lin, Y. Wang, B. Adsumilli, and A. C. Bovik, “Bband index: a no-reference banding artifact predictor,” in ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). [5] Z. Tu, J. Lin, Y. Wang, B. Adsumilli, A. C. Bovik, “Bband index: a no-reference banding artifact predictor” in ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)。 0.94
IEEE, 2020, pp. IEEE, 2020, pp。 0.82
2712–2716. 2712–2716. 0.71
[6] S. Bhagavathy, J. Llach, and J. Zhai, “Multiscale probabilistic dithering for suppressing contour artifacts in digital images,” IEEE Transactions on Image Processing, vol. 6] s. bhagavathy, j. llach, and j. zhai, “multiscale probabilistic dithering for contour artifacts in digital images” ieee transactions on image processing, vol. 日本語版記事)。 0.81
18, no. 9, pp. 18、いいえ。 9, pp。 0.77
1936–1945, 2009. 1936–1945, 2009. 0.84
[7] G. Baugh, A. Kokaram, and F. Piti´e, “Advanced video debanding,” the 11th European Conference on Visual Media G. Baugh, A. Kokaram, F. Piti ́e, “Advanced Video debanding, the 11th European Conference on Visual Media” 参加報告 0.89
in Proceedings of Production, 2014, pp. In Proceedings of Production, 2014, pp. 0.82
1–10. [8] X. Jin, S. Goto, and K. N. Ngan, “Composite model-based dc dithering for suppressing contour artifacts in decompressed video,” IEEE Transactions on Image Processing, vol. 1–10. X. Jin, S. Goto, K. N. Ngan, “Composite model-based dc dithering for suppressing contour artifacts in decompressed video”, IEEE Transactions on Image Processing, Vol. 0.77
20, no. 8, pp. 20、いいえ。 8, pp。 0.78
2110–2121, 2011. 2110–2121, 2011. 0.84
[9] Y. Wang, C. Abhayaratne, R. Weerakkody, and M. Mrak, “Multi-scale dithering for contouring artefacts removal in compressed uhd video sequences,” in 2014 IEEE Global Conference on Signal and Information Processing (GlobalSIP). 9] y. wang, c. abhayaratne, r. weerakkody, m. mrak, “multi-scale dithering for contouring artefacts removal in compression uhd video sequences” 2014 ieee global conference on signal and information processing (globalsip)。 0.78
IEEE, 2014, pp. IEEE、2014 pp。 0.54
1014–1018. 1014–1018. 0.71
[10] S. J. Daly and X. Feng, “Decontouring: Prevention and removal of false contour artifacts,” in Human Vision and Electronic Imaging IX, vol. 10] S. J. Daly and X. Feng, “Decontouring: Prevention and remove of false outline artifacts” in Human Vision and Electronic Imaging IX, vol。 0.84
5292. International Society for Optics and Photonics, 2004. 5292. International Society for Optics and Photonics、2004年。 0.86
[11] J. W. Lee, B. R. Lim, R.-H. Park, J.-S. Kim, and W. Ahn, “Two-stage false contour detection using directional contrast and its application to adaptive false contour reduction,” IEEE Transactions on Consumer Electronics, vol. J. W. Lee, B. R. Lim, R.-H. Park, J.-S. Kim, W. Ahn, “双方向コントラストを用いた2段階の偽輪郭検出とその適応的偽輪郭低減への応用”, IEEE Transactions on Consumer Electronics, Vol. 0.79
52, no. 1, pp. 52、ノー。 1、p。 0.70
179–188, 2006. 179–188, 2006. 0.84
[12] Q. Huang, H. Y. Kim, W.-J. [12] Q. Huang, H. Y. Kim, W.-J. 0.85
Tsai, S. Y. Jeong, J. S. Choi, and C.-C. J. Kuo, “Understanding and removal of false contour in hevc compressed images,” IEEE Transactions on Circuits and Systems for Video Technology, vol. Tsai, S.Y. Jeong, J.S. Choi, C.C. J. Kuo, "Understanding and remove of false outline in hevc compressed images", IEEE Transactions on Circuits and Systems for Video Technology, vol。 0.92
28, no. 2, pp. 378–391, 2016. 28歳。 2、p。 378–391, 2016. 0.65
[13] S. Tomar, “Converting video formats with ffmpeg,” Linux Journal, vol. ビデオフォーマットをffmpegで変換する”、とlinux journal, vol.13は言っている。 0.76
2006, no. 146, p. 10, 2006. 2006年はなし。 146, p. 10, 2006年。 0.82
[14] K. Seshadrinathan, T. N. Pappas, R. J. Safranek, J. Chen, Z. Wang, H. R. Sheikh, and A. C. Bovik, “Chapter 21 - image quality assessment,” in The Essential Guide to Image Processing, A. Bovik, Ed. 14] K. Seshadrinathan, T. N. Pappas, R. J. Safranek, J. Chen, Z. Wang, H. R. Sheikh, A. C. Bovik, “Chapter 21 - Image Quality Assessment” in The Essential Guide to Image Processing, A. Bovik, Ed 0.96
Boston: Academic Press, 2009, pp. Boston: Academic Press, 2009年。 0.72
553 – 595. 553 – 595. 0.85
[Online]. Available: http: //www.sciencedirect. com/science/article/ pii/B978012374457900 0214 [オンライン] http: //www.sciencedirect. com/science/article/ pii/b978012374457900 0214 0.51
[15] I. Yoo, X. Luo, Y. Wang, F. Yang, and P. Milanfar, “Gifnets: Differentiable gif encoding framework,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020. I. Yoo, X. Luo, Y. Wang, F. Yang, and P. Milanfar, "Gifnets: Differentiable gif encoding framework" は、IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020のプロシーディングである。 0.85
[16] G. Denes, G. Ash, H. Fang, and R. K. Mantiuk, “A visual model for predicting chromatic banding artifacts,” Electronic Imaging, vol. 16] G. Denes, G. Ash, H. Fang, R. K. Mantiuk, “クロマティックバンディングアーチファクトを予測するビジュアルモデル”, Electronic Imaging, vol。 0.78
2019, no. 12, pp. 2019年、ノー。 12、p。 0.76
212–1, 2019. 212–1, 2019. 0.84
[17] G. Monaci, G. Menegaz, S. Susstrunk, and K. Knoblauch, “Color contrast detection in spatial chromatic noise,” blah, Tech. 17] G. Monaci, G. Menegaz, S. Susstrunk, K. Knoblauch, “Color contrast detection in space chromatic noise”, blah, Tech。 0.83
Rep., 2002. [18] Recommendation, “Itu-tp. 2002年、退社。 [18]リコメンデーション, “Itu-tp. 0.74
913,” ITU, 2016. 913”、ITU, 2016。 0.76
[19] L. Krasula, K. Fliegel, P. Le Callet, and M. Kl´ıma, “On the accuracy of objective image and video quality models: New methodology for performance evaluation,” in 2016 Eighth International Conference on Quality of Multimedia Experience (QoMEX). He19] L. Krasula, K. Fliegel, P. Le Callet, M. Kl ́ıma, “On the accuracy of objective image and video quality model: New Method for Performance Evaluation” in 2016 Augusth International Conference on Quality of Multimedia Experience (QoMEX)。 0.86
IEEE, 2016, pp. IEEE、2016 pp。 0.63
1–6. [20] Netflix, Test Conditions, accessed 2020. 1–6. [20] Netflix、Test Conditionsが2020年にアクセスした。 0.74
[Online]. Available: http: [オンライン] 利用可能: http: 0.77
//download.openconte nt.netflix.com/?prefix=Netflix test conditions/ download.opencontent .netflix.com/?prefix =Netflix test conditions/ 0.42
CAMBIVMAF05101520506 0708090100Banding DatasetHEVC Dataset CAMBIVMAF05102050608 090100Banding DatasetHEVC Dataset 0.77
           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。