論文の概要: LFACon: Introducing Anglewise Attention to No-Reference Quality
Assessment in Light Field Space
- arxiv url: http://arxiv.org/abs/2303.10961v1
- Date: Mon, 20 Mar 2023 09:37:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 16:14:01.557789
- Title: LFACon: Introducing Anglewise Attention to No-Reference Quality
Assessment in Light Field Space
- Title(参考訳): LFACon:光空間における非参照品質評価へのアングルアテンションの導入
- Authors: Qiang Qu, Xiaoming Chen, Yuk Ying Chung, and Weidong Cai
- Abstract要約: 本稿では,LFIの角領域に多頭部自己注意機構を導入することにより,「角度注意」という新しい概念を提案する。
これらの注目カーネルは、角的自己アテンションを実現し、グローバルまたは選択的に多角的特徴を抽出し、特徴抽出の計算コストを削減できる。
実験の結果,提案したLFACon測定値は,最先端LFIQA測定値よりも有意に優れていた。
- 参考スコア(独自算出の注目度): 27.203742596007356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Light field imaging can capture both the intensity information and the
direction information of light rays. It naturally enables a
six-degrees-of-freedom viewing experience and deep user engagement in virtual
reality. Compared to 2D image assessment, light field image quality assessment
(LFIQA) needs to consider not only the image quality in the spatial domain but
also the quality consistency in the angular domain. However, there is a lack of
metrics to effectively reflect the angular consistency and thus the angular
quality of a light field image (LFI). Furthermore, the existing LFIQA metrics
suffer from high computational costs due to the excessive data volume of LFIs.
In this paper, we propose a novel concept of "anglewise attention" by
introducing a multihead self-attention mechanism to the angular domain of an
LFI. This mechanism better reflects the LFI quality. In particular, we propose
three new attention kernels, including anglewise self-attention, anglewise grid
attention, and anglewise central attention. These attention kernels can realize
angular self-attention, extract multiangled features globally or selectively,
and reduce the computational cost of feature extraction. By effectively
incorporating the proposed kernels, we further propose our light field
attentional convolutional neural network (LFACon) as an LFIQA metric. Our
experimental results show that the proposed LFACon metric significantly
outperforms the state-of-the-art LFIQA metrics. For the majority of distortion
types, LFACon attains the best performance with lower complexity and less
computational time.
- Abstract(参考訳): 光フィールドイメージングは、光線の強度情報と方向情報の両方を捉えることができる。
バーチャルリアリティーにおける6自由度視聴体験と深いユーザーエンゲージメントを自然に実現している。
2次元画像アセスメントと比較して、光画像品質アセスメント(LFIQA)は空間領域における画質だけでなく、角領域における画質の整合性も考慮する必要がある。
しかし、角の一貫性を効果的に反映する指標が不足しているため、光場画像(LFI)の角度品質が低下している。
さらに、既存のLFIQAメトリクスは、LFIの過剰なデータ量のために計算コストが高い。
本稿では,LFIの角領域に多頭部自己注意機構を導入することにより,新しい「角度注意」の概念を提案する。
この機構はlfi品質をよりよく反映する。
特に,角度方向の自己注意,角度方向のグリッドアテンション,角度方向の中央アテンションの3つの新しいアテンションカーネルを提案する。
これらの注目カーネルは、角的自己注意を実現し、グローバルまたは選択的に多角的特徴を抽出し、特徴抽出の計算コストを削減できる。
提案するカーネルを効果的に組み込むことにより,光電場注目畳み込みニューラルネットワーク(LFACon)をLFIQAメトリックとして提案する。
実験の結果,提案したLFACon測定値は,最先端LFIQA測定値よりも有意に優れていた。
歪み型の大部分に対して、LFAConは、複雑さが低く、計算時間も少ない最高のパフォーマンスを達成する。
関連論文リスト
- LGFN: Lightweight Light Field Image Super-Resolution using Local Convolution Modulation and Global Attention Feature Extraction [5.461017270708014]
本稿では,LGFN という軽量なモデルを提案する。このモデルでは,異なるビューの局所的特徴とグローバル的特徴と,LF 画像 SR のための異なるチャネルの特徴を統合している。
我々のモデルは0.45Mのパラメータと19.33GのFLOPを持つ。
論文 参考訳(メタデータ) (2024-09-26T11:53:25Z) - Generalizable Non-Line-of-Sight Imaging with Learnable Physical Priors [52.195637608631955]
非視線画像(NLOS)は、その潜在的な応用により注目されている。
既存のNLOS再構成アプローチは、経験的物理的前提に依存して制約される。
本稿では,Learningable Path Compensation(LPC)とAdaptive Phasor Field(APF)の2つの主要な設計を含む,学習に基づく新しいソリューションを提案する。
論文 参考訳(メタデータ) (2024-09-21T04:39:45Z) - ESSAformer: Efficient Transformer for Hyperspectral Image
Super-resolution [76.7408734079706]
単一ハイパースペクトル像超解像(単一HSI-SR)は、低分解能観測から高分解能ハイパースペクトル像を復元することを目的としている。
本稿では,1つのHSI-SRの繰り返し精製構造を持つESSA注目組込みトランスフォーマネットワークであるESSAformerを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:45:14Z) - Scattering-induced entropy boost for highly-compressed optical sensing and encryption [7.502671257653539]
画像センシングは、大きな視野と高解像度を持つ高品質のマシンビジョンシステムに依存していることが多い。
資源効率の高い画像分類のための新しい画像フリーセンシングフレームワークを提案する。
提案手法は, MNISTデータセットの分類において, サンプリングレートが1%, 5%で95%以上精度が得られた。
論文 参考訳(メタデータ) (2022-12-16T09:00:42Z) - Disentangling Light Fields for Super-Resolution and Disparity Estimation [67.50796924758221]
光フィールド(LF)カメラは光線の強度と方向の両方を記録し、3Dシーンを4DLF画像にエンコードする。
空間的・角的な情報は様々な相違で高度に絡み合っているため、畳み込みニューラルネットワーク(CNN)がLF画像を処理することは困難である。
本稿では,この結合した情報をLF画像処理のために切り離すための汎用メカニズムを提案する。
論文 参考訳(メタデータ) (2022-02-22T01:04:41Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - Efficient Light Field Reconstruction via Spatio-Angular Dense Network [14.568586050271357]
光電場再構成のためのエンドツーエンドのSPDense Network(SADenseNet)を提案する。
提案したSADenseNetの最先端性能は,メモリと計算のコストを大幅に削減できることを示す。
その結果, 再構成された光場画像は, 精密で精密であり, 測定関連アプリケーションの精度を向上させるために, プリプロセッシングとして機能することがわかった。
論文 参考訳(メタデータ) (2021-08-08T13:50:51Z) - Light Field Reconstruction Using Convolutional Network on EPI and
Extended Applications [78.63280020581662]
スパースビューからの光場再構成のための新しい畳み込みニューラルネットワーク(CNN)ベースのフレームワークを開発した。
最先端のアルゴリズムと比較して,提案フレームワークの高性能と堅牢性を実証する。
論文 参考訳(メタデータ) (2021-03-24T08:16:32Z) - Unlocking Pixels for Reinforcement Learning via Implicit Attention [61.666538764049854]
我々は最近,トランスフォーマーに非常に有効であることが示されている,新しい効率的なアテンションアルゴリズムを利用している。
これにより、注意に基づくコントローラは、より大きな視覚入力にスケールでき、より小さなパッチの使用が容易になります。
さらに,ソフトマックスの注目度をハイブリッドランダム特徴量で近似するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:00:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。