論文の概要: Light Field Image Quality Assessment With Auxiliary Learning Based on Depthwise and Anglewise Separable Convolutions
- arxiv url: http://arxiv.org/abs/2412.07079v1
- Date: Tue, 10 Dec 2024 00:42:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:37:59.727837
- Title: Light Field Image Quality Assessment With Auxiliary Learning Based on Depthwise and Anglewise Separable Convolutions
- Title(参考訳): 奥行きと角度分離可能な畳み込みに基づく補助学習による光場画像品質評価
- Authors: Qiang Qu, Xiaoming Chen, Vera Chung, Zhibo Chen,
- Abstract要約: マルチメディア放送では、ユーザ認識された体験の質(QoE)を示すために、NR-IQA(No-Reference Image Quality Assessment)が使用される。
本稿では,将来的な没入型メディア放送のためのNR-LFIQA(No-Reference Light Field Image Quality Assessment)尺度を提案する。
- 参考スコア(独自算出の注目度): 18.05732981618802
- License:
- Abstract: In multimedia broadcasting, no-reference image quality assessment (NR-IQA) is used to indicate the user-perceived quality of experience (QoE) and to support intelligent data transmission while optimizing user experience. This paper proposes an improved no-reference light field image quality assessment (NR-LFIQA) metric for future immersive media broadcasting services. First, we extend the concept of depthwise separable convolution (DSC) to the spatial domain of light field image (LFI) and introduce "light field depthwise separable convolution (LF-DSC)", which can extract the LFI's spatial features efficiently. Second, we further theoretically extend the LF-DSC to the angular space of LFI and introduce the novel concept of "light field anglewise separable convolution (LF-ASC)", which is capable of extracting both the spatial and angular features for comprehensive quality assessment with low complexity. Third, we define the spatial and angular feature estimations as auxiliary tasks in aiding the primary NR-LFIQA task by providing spatial and angular quality features as hints. To the best of our knowledge, this work is the first exploration of deep auxiliary learning with spatial-angular hints on NR-LFIQA. Experiments were conducted in mainstream LFI datasets such as Win5-LID and SMART with comparisons to the mainstream full reference IQA metrics as well as the state-of-the-art NR-LFIQA methods. The experimental results show that the proposed metric yields overall 42.86% and 45.95% smaller prediction errors than the second-best benchmarking metric in Win5-LID and SMART, respectively. In some challenging cases with particular distortion types, the proposed metric can reduce the errors significantly by more than 60%.
- Abstract(参考訳): マルチメディア放送では、ユーザ認識されたユーザエクスペリエンスの質(QoE)を示し、ユーザエクスペリエンスを最適化しながらインテリジェントなデータ伝送をサポートするために、No-Reference Image Quality Assessment(NR-IQA)が使用される。
本稿では,将来的な没入型メディア放送のためのNR-LFIQA(No-Reference Light Field Image Quality Assessment)尺度を提案する。
まず、奥行き分離可能な畳み込み(DSC)の概念を光場画像(LFI)の空間領域に拡張し、LFIの空間的特徴を効率的に抽出できる「光場奥行き分離可能な畳み込み(LF-DSC)」を導入する。
第2に, LF-DSCをLFIの角空間に拡張し, 空間的特徴と角的特徴の両方を抽出できる「光場角分離畳み込み(LF-ASC)」の概念を導入する。
第3に,空間的および角質的特徴をヒントとして提供することにより,主要なNR-LFIQAタスクを支援するための補助的タスクとして空間的および角質的特徴推定を定義する。
我々の知る限りでは、この研究はNR-LFIQAの空間角ヒントを用いた深層補助学習の最初の研究である。
Win5-LIDやSMARTのような主流のLFIデータセットで実験を行い、主流のフルリファレンスIQAメトリクスや最先端NR-LFIQA手法との比較を行った。
実験の結果,提案手法はWin5-LID と SMART の2番目に高いベンチマーク基準よりも42.86%,45.95%小さい予測誤差が得られた。
特定の歪み型を持ついくつかの困難な場合において、提案手法は誤差を60%以上削減することができる。
関連論文リスト
- Generalizable Non-Line-of-Sight Imaging with Learnable Physical Priors [52.195637608631955]
非視線画像(NLOS)は、その潜在的な応用により注目されている。
既存のNLOS再構成アプローチは、経験的物理的前提に依存して制約される。
本稿では,Learningable Path Compensation(LPC)とAdaptive Phasor Field(APF)の2つの主要な設計を含む,学習に基づく新しいソリューションを提案する。
論文 参考訳(メタデータ) (2024-09-21T04:39:45Z) - FOD-Swin-Net: angular super resolution of fiber orientation distribution
using a transformer-based deep model [0.0]
我々は、繊維配向分布(FOD)における角超解像を実現するために、トランスフォーマーに基づくディープラーニングアーキテクチャを訓練する。
パッチベースの手法であるFOD-Swin-Netは、32方向から駆動される単一シェル再構成を、複数シェル288方向のFOD再構成に匹敵するものにすることができる。
論文 参考訳(メタデータ) (2024-02-19T02:07:15Z) - Simple Baselines for Projection-based Full-reference and No-reference
Point Cloud Quality Assessment [60.2709006613171]
投影型ポイントクラウド品質評価(PCQA)のための簡易ベースラインを提案する。
我々は、全参照(FR)タスクと非参照(NR)PCQAタスクの両方に対して、点雲から共通立方体状の投影プロセスによって得られる多重射影を用いる。
ICIP 2023 PCVQA Challengeに参加して,5トラック中4トラックで首位を獲得した。
論文 参考訳(メタデータ) (2023-10-26T04:42:57Z) - Probabilistic-based Feature Embedding of 4-D Light Fields for
Compressive Imaging and Denoising [62.347491141163225]
4次元光電場(LF)は、効率的で効果的な機能埋め込みを実現する上で大きな課題となる。
様々な低次元畳み込みパターンを組み立てることで特徴埋め込みアーキテクチャを学習する確率論的特徴埋め込み(PFE)を提案する。
実世界および合成4次元LF画像において,本手法の有意な優位性を実証した。
論文 参考訳(メタデータ) (2023-06-15T03:46:40Z) - LFACon: Introducing Anglewise Attention to No-Reference Quality
Assessment in Light Field Space [27.203742596007356]
本稿では,LFIの角領域に多頭部自己注意機構を導入することにより,「角度注意」という新しい概念を提案する。
これらの注目カーネルは、角的自己アテンションを実現し、グローバルまたは選択的に多角的特徴を抽出し、特徴抽出の計算コストを削減できる。
実験の結果,提案したLFACon測定値は,最先端LFIQA測定値よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-03-20T09:37:41Z) - DeepWSD: Projecting Degradations in Perceptual Space to Wasserstein
Distance in Deep Feature Space [67.07476542850566]
本稿では,統計的分布の観点から知覚空間の品質劣化をモデル化する。
品質は、深い特徴領域におけるワッサーシュタイン距離に基づいて測定される。
ニューラルネットワークの特徴に基づいて実行されるディープワッサースタイン距離(ディープWSD)は、品質汚染のより良い解釈性をもたらす。
論文 参考訳(メタデータ) (2022-08-05T02:46:12Z) - 3DVSR: 3D EPI Volume-based Approach for Angular and Spatial Light field
Image Super-resolution [2.127049691404299]
本稿では,高分解能光場を再構成するための3次元エピポーラ画像(EPI)に学習に基づくアプローチを提案する。
7つのデータセットから90の挑戦的な合成および実世界の光場シーンを広範囲に評価したところ、提案手法は最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-01-04T18:57:00Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - Transductive Few-Shot Classification on the Oblique Manifold [5.115651633703363]
限られたデータで学習しようとする学習は少ない。
本研究では,ユークリッド空間における特徴抽出を行う。
また,空間ピラミッドプールを用いた非パラメトリック領域自己アテンションを提案する。
論文 参考訳(メタデータ) (2021-08-09T13:01:03Z) - Deep Selective Combinatorial Embedding and Consistency Regularization
for Light Field Super-resolution [93.95828097088608]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LFサブアパーチャ画像間のコヒーレンスを探索するための,新しい学習ベースLF空間SRフレームワークを提案する。
合成および実世界のLFデータセットに対する実験結果は、最先端手法に対する我々のアプローチの顕著な利点を示している。
論文 参考訳(メタデータ) (2020-09-26T08:34:37Z) - High-Order Residual Network for Light Field Super-Resolution [39.93400777363467]
可視光カメラは通常、異なる視点から情報を取得するために、SAIの空間分解能を犠牲にする。
そこで本稿では,光場から階層的に幾何学的特徴を学習するための新しい高次残差ネットワークを提案する。
提案手法は,挑戦的領域においても高品質な再構成が可能であり,定量化と視覚的評価の両面から,最先端の単一画像やLF再構成よりも優れる。
論文 参考訳(メタデータ) (2020-03-29T18:06:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。