論文の概要: Omnidirectional Image Quality Captioning: A Large-scale Database and A New Model
- arxiv url: http://arxiv.org/abs/2502.15271v1
- Date: Fri, 21 Feb 2025 07:54:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 19:41:58.014230
- Title: Omnidirectional Image Quality Captioning: A Large-scale Database and A New Model
- Title(参考訳): Omnidirectional Image Quality Captioning: a Large-scale Database and a new model
- Authors: Jiebin Yan, Ziwen Tan, Yuming Fang, Junjie Chen, Wenhui Jiang, Zhou Wang,
- Abstract要約: 我々は,OIQ-10Kと呼ばれる大規模データベースを用いた全方位画像品質評価(OIQA)について,これまでで最大の研究を行っている。
総合的な精神物理学的な研究は、全方位画像ごとに人間の意見を集めるために精巧に研究されている。
我々は,一方向画像の品質キャプションを生成することができるIQCaption360という新しい適応型特徴調整型OIQAモデルを提案する。
- 参考スコア(独自算出の注目度): 35.232181599179306
- License:
- Abstract: The fast growing application of omnidirectional images calls for effective approaches for omnidirectional image quality assessment (OIQA). Existing OIQA methods have been developed and tested on homogeneously distorted omnidirectional images, but it is hard to transfer their success directly to the heterogeneously distorted omnidirectional images. In this paper, we conduct the largest study so far on OIQA, where we establish a large-scale database called OIQ-10K containing 10,000 omnidirectional images with both homogeneous and heterogeneous distortions. A comprehensive psychophysical study is elaborated to collect human opinions for each omnidirectional image, together with the spatial distributions (within local regions or globally) of distortions, and the head and eye movements of the subjects. Furthermore, we propose a novel multitask-derived adaptive feature-tailoring OIQA model named IQCaption360, which is capable of generating a quality caption for an omnidirectional image in a manner of textual template. Extensive experiments demonstrate the effectiveness of IQCaption360, which outperforms state-of-the-art methods by a significant margin on the proposed OIQ-10K database. The OIQ-10K database and the related source codes are available at https://github.com/WenJuing/IQCaption360.
- Abstract(参考訳): 全方位画像の急速な利用により、全方位画像品質評価(OIQA)の効果的なアプローチが求められている。
既存のOIQA法は、均一に歪んだ全方位画像に対して開発・試験されてきたが、その成功を不均一に歪んだ全方位画像に直接転送することは困難である。
本稿では,OIQAにおいてこれまでで最大の研究を行い,一万枚の全方位画像を含む大規模データベースOIQ-10Kを構築した。
総合的な心理物理学的研究は、全方位画像に対する人間の意見の収集と、歪みの空間的分布(局所的あるいは全世界的)、被験者の頭部と眼球運動の収集を目的としている。
さらに,一方向画像の品質キャプションをテキストテンプレートで生成できるIQCaption360という,マルチタスクによる適応的特徴調整型OIQAモデルを提案する。
IQCaption360は、提案したOIQ-10Kデータベースにおいて、最先端の手法よりも優れた性能を示す。
OIQ-10Kデータベースと関連するソースコードはhttps://github.com/WenJuing/IQCaption360で入手できる。
関連論文リスト
- Subjective and Objective Quality Assessment of Non-Uniformly Distorted Omnidirectional Images [33.10692798685548]
ユーザの視動作を適応的にシミュレートすることで,非一様歪みに対する知覚誘導型OIQAモデルを提案する。
実験の結果,提案手法は最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-01-20T14:39:50Z) - Cross-IQA: Unsupervised Learning for Image Quality Assessment [3.2287957986061038]
本稿では,視覚変換器(ViT)モデルに基づく非参照画像品質評価(NR-IQA)手法を提案する。
提案手法は,ラベルのない画像データから画像品質の特徴を学習することができる。
実験結果から,Cross-IQAは低周波劣化情報の評価において最先端の性能が得られることが示された。
論文 参考訳(メタデータ) (2024-05-07T13:35:51Z) - AIGCOIQA2024: Perceptual Quality Assessment of AI Generated Omnidirectional Images [70.42666704072964]
我々はAI生成の全方位画像IQAデータベースAIIGCOIQA2024を構築した。
3つの視点から人間の視覚的嗜好を評価するために、主観的IQA実験を行った。
我々は,データベース上での最先端IQAモデルの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-04-01T10:08:23Z) - When No-Reference Image Quality Models Meet MAP Estimation in Diffusion Latents [92.45867913876691]
非参照画像品質評価(NR-IQA)モデルは、知覚された画像品質を効果的に定量化することができる。
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Blind Image Quality Assessment via Vision-Language Correspondence: A
Multitask Learning Perspective [93.56647950778357]
ブラインド画像品質評価(BIQA)は、参照情報なしで画像品質の人間の知覚を予測する。
我々は,他のタスクからの補助的知識を活用するために,BIQAのための汎用的かつ自動化されたマルチタスク学習手法を開発した。
論文 参考訳(メタデータ) (2023-03-27T07:58:09Z) - Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop [113.75573175709573]
NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2022-10-03T13:47:16Z) - Perceptual Quality Assessment of Omnidirectional Images [81.76416696753947]
16のソース画像と320の歪み画像を含む全方位IQA (OIQA) データベースを最初に構築する。
そして、VR環境におけるOIQAデータベース上で主観的品質評価研究を行う。
原画像と歪んだ全方位画像、主観的品質評価、および頭部と眼の動きデータを合わせてOIQAデータベースを構成する。
論文 参考訳(メタデータ) (2022-07-06T13:40:38Z) - MUSIQ: Multi-scale Image Quality Transformer [22.908901641767688]
現在のIQA法は畳み込みニューラルネットワーク(CNN)に基づいている
マルチスケール画像品質変換器(MUSIQ)を設計し,サイズやアスペクト比の異なるネイティブ解像度画像を処理する。
提案手法は,マルチスケールの画像表現により,様々な粒度で画像品質を捉えることができる。
論文 参考訳(メタデータ) (2021-08-12T23:36:22Z) - DeepFL-IQA: Weak Supervision for Deep IQA Feature Learning [8.035521056416242]
人工歪み画像のIQAに適した特徴を学習するための新しいIQAデータセットと弱い教師付き特徴学習手法を提案する。
データセットであるKADIS-700kは、14万枚の原像と25種類の歪みがあり、合計で700kの歪んだバージョンで構成されている。
提案手法はDeepFL-IQAと呼ばれ,他の特徴に基づくノン参照IQA法よりも優れており,KADID-10k上の全参照IQA法よりも優れている。
論文 参考訳(メタデータ) (2020-01-20T15:13:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。