論文の概要: CAMBI: Contrast-aware Multiscale Banding Index
- arxiv url: http://arxiv.org/abs/2102.00079v1
- Date: Fri, 29 Jan 2021 21:36:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 22:02:45.662059
- Title: CAMBI: Contrast-aware Multiscale Banding Index
- Title(参考訳): CAMBI: コントラスト対応マルチスケールバンド指数
- Authors: Pulkit Tandon, Mariana Afonso, Joel Sole, Luk\'a\v{s} Krasula
- Abstract要約: バンディングアーティファクトは、ビデオ内の滑らかな領域の量子化から生じる人工的に導入された輪郭である。
我々は、人間の視覚系におけるコントラスト感度関数からの洞察を用いて、バンドリングの可視性を予測するコントラスト対応マルチスケールバンドリング指標(CAMBI)を開発した。
- 参考スコア(独自算出の注目度): 2.5811544151644097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Banding artifacts are artificially-introduced contours arising from the
quantization of a smooth region in a video. Despite the advent of recent higher
quality video systems with more efficient codecs, these artifacts remain
conspicuous, especially on larger displays. In this work, a comprehensive
subjective study is performed to understand the dependence of the banding
visibility on encoding parameters and dithering. We subsequently develop a
simple and intuitive no-reference banding index called CAMBI (Contrast-aware
Multiscale Banding Index) which uses insights from Contrast Sensitivity
Function in the Human Visual System to predict banding visibility. CAMBI
correlates well with subjective perception of banding while using only a few
visually-motivated hyperparameters.
- Abstract(参考訳): バンディングアーティファクトは、ビデオ中の滑らかな領域の量子化から生じる人工的な輪郭である。
より効率的なコーデックを備えた最近の高品質のビデオシステムの出現にもかかわらず、これらのアーティファクトは、特に大きなディスプレイで目立つままです。
本研究では,符号化パラメータやディザリングに対するバンドング可視性の依存性を理解するため,包括的主観的研究を行った。
その後、人間の視覚系におけるコントラスト感度関数の洞察を利用してバンドの可視性を予測するCAMBI(Contrast-aware Multiscale Banding Index)と呼ばれるシンプルで直感的な非参照バンディングインデックスを開発しました。
cambiは、視覚モチベーションのハイパーパラメータのみを使用しながら、バンディングの主観的知覚とよく相関する。
関連論文リスト
- Patch Spatio-Temporal Relation Prediction for Video Anomaly Detection [19.643936110623653]
ビデオ異常検出(VAD)は、特定のコンテキストと時間枠内の異常を識別することを目的としている。
近年の深層学習に基づくVADモデルは,高解像度フレームの生成によって有望な結果を示した。
本稿では, パッチ間関係予測タスクを通じて, VADの自己教師型学習手法を提案する。
論文 参考訳(メタデータ) (2024-03-28T03:07:16Z) - Pair-wise Layer Attention with Spatial Masking for Video Prediction [46.17429511620538]
Pair-wise Layer Attention (PLA) モジュールを開発した。
また,Pair-wise Layer Attention with Spatial Masking (SM-SM) フレームワークをトランスレータ予測のために提案する。
論文 参考訳(メタデータ) (2023-11-19T10:29:05Z) - Dynamic Spectrum Mixer for Visual Recognition [17.180863898764194]
動的スペクトルミキサー (DSM) という,コンテンツ適応型だが計算効率のよい構造を提案する。
DSMはコサイン変換を用いて周波数領域におけるトークンの相互作用を表す。
ログ線形複雑性で長期空間依存を学習することができる。
論文 参考訳(メタデータ) (2023-09-13T04:51:15Z) - VNVC: A Versatile Neural Video Coding Framework for Efficient
Human-Machine Vision [59.632286735304156]
コード化された表現をピクセルに復号することなく直接拡張・解析することがより効率的である。
再構成と直接拡張/分析の両方をサポートするために,コンパクト表現の学習を目標とする汎用型ニューラルビデオ符号化(VNVC)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T03:04:57Z) - Multimodal Graph Learning for Deepfake Detection [10.077496841634135]
既存のディープフェイク検出器は、堅牢性と一般化を達成する上でいくつかの課題に直面している。
本稿では,マルチモーダルグラフ学習(MGL)という新しいフレームワークを提案する。
提案手法は,ディープフェイク検出のための特徴を効果的に識別し,活用することを目的としている。
論文 参考訳(メタデータ) (2022-09-12T17:17:49Z) - Video Coding for Machine: Compact Visual Representation Compression for
Intelligent Collaborative Analytics [101.35754364753409]
Video Coding for Machines (VCM) は、ビデオ/画像圧縮と特徴圧縮をある程度別々の研究トラックにブリッジすることを約束している。
本稿では,既存の学術・産業活動に基づくVCM方法論と哲学を要約する。
論文 参考訳(メタデータ) (2021-10-18T12:42:13Z) - Intriguing Properties of Vision Transformers [114.28522466830374]
視覚変換器(ViT)は、様々なマシンビジョン問題にまたがって印象的な性能を誇示している。
我々は、この問題を広範囲の実験を通して体系的に研究し、高性能畳み込みニューラルネットワーク(CNN)との比較を行った。
ViTsの効果的な特徴は、自己認識機構によって可能なフレキシブルな受容と動的場によるものであることを示す。
論文 参考訳(メタデータ) (2021-05-21T17:59:18Z) - Composable Augmentation Encoding for Video Representation Learning [94.2358972764708]
自己教師型ビデオ表現学習におけるコントラスト手法に着目した。
対照的な学習における一般的なパラダイムは、同じインスタンスで異なるデータビューをサンプリングし、異なるデータインスタンスを負として、ポジティブペアを構築することである。
そこで我々は,拡張パラメータの列を明示的に提供する,拡張対応型コントラスト学習フレームワークを提案する。
提案手法は,特定の空間的あるいは時間的拡張に関する情報をエンコードすると同時に,多数のビデオベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T16:48:53Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z) - BBAND Index: A No-Reference Banding Artifact Predictor [55.42929350861115]
バンディングアーティファクト(英: Banding artifact)または偽コントゥーリング(英: false contouring)は、一般的なビデオ圧縮障害である。
本稿では,Blind BANding Detector (BBAND index) と呼ばれる,歪み特異的な非参照ビデオ品質モデルを提案する。
論文 参考訳(メタデータ) (2020-02-27T03:05:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。