論文の概要: Adaptive Hypergraph Convolutional Network for No-Reference 360-degree
Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2105.09143v1
- Date: Wed, 19 May 2021 14:02:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 13:40:09.022536
- Title: Adaptive Hypergraph Convolutional Network for No-Reference 360-degree
Image Quality Assessment
- Title(参考訳): 非参照360度画像品質評価のための適応ハイパーグラフ畳み込みネットワーク
- Authors: Jun Fu, Chen Hou, Wei Zhou, Jiahua Xu, Zhibo Chen
- Abstract要約: NR 360IQA(No-Reference 360-degree Image Quality Assessment)では,GCN(Graph Convolutional Network)の性能が向上した。
AHGCN と表記される NR 360IQA の適応型ハイパーグラフ畳み込みネットワークを提案する。
提案手法は,最先端の完全参照モデルと非参照IQAモデルに対して明らかな優位性を有する。
- 参考スコア(独自算出の注目度): 21.23871001977444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In no-reference 360-degree image quality assessment (NR 360IQA), graph
convolutional networks (GCNs), which model interactions between viewports
through graphs, have achieved impressive performance. However, prevailing
GCN-based NR 360IQA methods suffer from three main limitations. First, they
only use high-level features of the distorted image to regress the quality
score, while the human visual system (HVS) scores the image based on
hierarchical features. Second, they simplify complex high-order interactions
between viewports in a pairwise fashion through graphs. Third, in the graph
construction, they only consider spatial locations of viewports, ignoring its
content characteristics. Accordingly, to address these issues, we propose an
adaptive hypergraph convolutional network for NR 360IQA, denoted as AHGCN.
Specifically, we first design a multi-level viewport descriptor for extracting
hierarchical representations from viewports. Then, we model interactions
between viewports through hypergraphs, where each hyperedge connects two or
more viewports. In the hypergraph construction, we build a location-based
hyperedge and a content-based hyperedge for each viewport. Experimental results
on two public 360IQA databases demonstrate that our proposed approach has a
clear advantage over state-of-the-art full-reference and no-reference IQA
models.
- Abstract(参考訳): no-reference 360-degree Image Quality Assessment (NR 360IQA)では、グラフを通してビューポート間の相互作用をモデル化するグラフ畳み込みネットワーク (GCN) が目覚ましい性能を達成した。
しかし、一般的なGCNベースのNR 360IQA法は、主に3つの制限がある。
まず、歪みした画像の高レベルな特徴のみを用いて品質スコアを抑える一方で、人間の視覚システム(HVS)は階層的な特徴に基づいて画像を評価する。
第二に、ビューポート間の複雑な高次相互作用をグラフを通してペアで単純化する。
第3に、グラフ構築では、ビューポートの空間的位置のみを考慮し、そのコンテンツ特性を無視している。
そこで本研究では, NR 360IQA のための適応型ハイパーグラフ畳み込みネットワーク AHGCN を提案する。
具体的には,まずビューポートから階層表現を抽出するマルチレベルビューポート記述子を設計する。
次に、ハイパーグラフを通してビューポート間の相互作用をモデル化し、各ハイパーエッジが2つ以上のビューポートを接続する。
ハイパーグラフ構築では,各ビューポートに対して位置ベースハイパーエッジとコンテンツベースハイパーエッジを構築する。
2つのパブリックな360IQAデータベースの実験結果から,提案手法は最先端の完全参照モデルと非参照IQAモデルに対して明らかな優位性を示す。
関連論文リスト
- No-Reference Point Cloud Quality Assessment via Graph Convolutional Network [89.12589881881082]
3次元(3D)ポイントクラウドは、新しいビジュアルメディアフォーマットとして、消費者にますます好まれている。
ポイントクラウドは、必然的に、マルチメディア通信システムによる品質劣化と情報損失に悩まされる。
マルチビュー2次元投影画像の相互依存関係を特徴付けるために,GCN(Graph Convolutional Network)を用いた新しい非参照PCQA手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T11:39:05Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Hypergraph Neural Networks through the Lens of Message Passing: A Common
Perspective to Homophily and Architecture Design [7.410655263764799]
メッセージ・パッシング・スキームに基づく高階ネットワークにおけるホモフィリーの新たな概念化を提案する。
我々は、HNN内の高次構造を処理するための自然で、ほとんど探索されていない戦略について検討する。
論文 参考訳(メタデータ) (2023-10-11T17:35:20Z) - ST360IQ: No-Reference Omnidirectional Image Quality Assessment with
Spherical Vision Transformers [17.48330099000856]
ノン参照360画像品質評価法を提案する。
提案手法は,全方位画像の品質と人間の知覚画像品質の相関関係を推定する。
論文 参考訳(メタデータ) (2023-03-13T07:48:46Z) - Attentions Help CNNs See Better: Attention-based Hybrid Image Quality
Assessment Network [20.835800149919145]
画像品質評価(IQA)アルゴリズムは、画像品質に対する人間の認識を定量化することを目的としている。
GAN(Generative Adversarial Network)によって生成された歪み画像を、一見現実的なテクスチャで評価する際の性能低下がある。
本稿では,AHIQ(Hybrid Image Quality Assessment Network)を提案する。
論文 参考訳(メタデータ) (2022-04-22T03:59:18Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Learning Multi-Granular Hypergraphs for Video-Based Person
Re-Identification [110.52328716130022]
ビデオベースの人物識別(re-ID)はコンピュータビジョンにおいて重要な研究課題である。
MGH(Multi-Granular Hypergraph)という新しいグラフベースのフレームワークを提案する。
MARSの90.0%のトップ-1精度はMGHを用いて達成され、最先端のスキームよりも優れていた。
論文 参考訳(メタデータ) (2021-04-30T11:20:02Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z) - Visual Question Answering on 360{\deg} Images [96.00046925811515]
VQA 360は、360度画像上で視覚的な質問に答える新しいタスクである。
最初のVQA 360データセットを収集し、様々な質問タイプに対して、約17,000の現実世界の画像検索用トリプルを含む。
論文 参考訳(メタデータ) (2020-01-10T08:18:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。