論文の概要: Quantifying Visual Image Quality: A Bayesian View
- arxiv url: http://arxiv.org/abs/2102.00195v1
- Date: Sat, 30 Jan 2021 09:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 15:57:19.159887
- Title: Quantifying Visual Image Quality: A Bayesian View
- Title(参考訳): 画像品質の定量化:ベイズ的視点
- Authors: Zhengfang Duanmu, Wentao Liu, Zhongling Wang, Zhou Wang
- Abstract要約: 画像品質評価(IQA)モデルは、人間の観察者による視覚画像と知覚品質の定量的な関係を確立することを目的としている。
IQAモデリングは視覚科学と工学の実践の間に特別なブリッジングの役割を担っている。
- 参考スコア(独自算出の注目度): 31.494753153095587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image quality assessment (IQA) models aim to establish a quantitative
relationship between visual images and their perceptual quality by human
observers. IQA modeling plays a special bridging role between vision science
and engineering practice, both as a test-bed for vision theories and
computational biovision models, and as a powerful tool that could potentially
make profound impact on a broad range of image processing, computer vision, and
computer graphics applications, for design, optimization, and evaluation
purposes. IQA research has enjoyed an accelerated growth in the past two
decades. Here we present an overview of IQA methods from a Bayesian
perspective, with the goals of unifying a wide spectrum of IQA approaches under
a common framework and providing useful references to fundamental concepts
accessible to vision scientists and image processing practitioners. We discuss
the implications of the successes and limitations of modern IQA methods for
biological vision and the prospect for vision science to inform the design of
future artificial vision systems.
- Abstract(参考訳): 画像品質評価(IQA)モデルは、人間の観察者による視覚画像と知覚品質の定量的な関係を確立することを目的としている。
IQAモデリングは、ビジョン理論と計算バイオビジョンモデルのためのテストベッドとして、そして設計、最適化、評価のために幅広い画像処理、コンピュータビジョン、コンピュータグラフィックスアプリケーションに大きな影響を与える可能性のある強力なツールとして、ビジョンサイエンスとエンジニアリングの実践の間で特別な橋渡しの役割を担っている。
IQAの研究は過去20年で急速に成長している。
ここでは,共通の枠組みの下で幅広い iqa アプローチを統一し,視覚科学者や画像処理実践者がアクセス可能な基本的な概念への有用な参照を提供することを目的として,ベイズの視点から iqa 手法の概要を示す。
本稿では,生物視覚における現代IQA法の成功と限界と,将来的な人工視覚システムの設計を視覚科学に伝える可能性について論じる。
関連論文リスト
- A Survey on Vision Autoregressive Model [15.042485771127346]
自然言語処理(NLP)における自己回帰モデルの性能を実証した
NLP分野での顕著な成功にインスパイアされた自己回帰モデルは、近年コンピュータビジョンにおいて集中的に研究されている。
本稿では,既存の手法の分類学の発展を含む,視覚自己回帰モデルに関する体系的なレビューを行う。
論文 参考訳(メタデータ) (2024-11-13T14:59:41Z) - Quality Prediction of AI Generated Images and Videos: Emerging Trends and Opportunities [32.03360188710995]
AIが生成し、拡張されたコンテンツは、視覚的に正確で、意図された使用に固執し、高い視覚的品質を維持する必要がある。
AI生成および強化されたコンテンツの視覚的“品質”を監視し制御するひとつの方法は、画像品質アセスメント(IQA)とビデオ品質アセスメント(VQA)モデルをデプロイすることである。
本稿では,AIが生成・拡張した画像・映像コンテンツによる現状の問題点と可能性について検討する。
論文 参考訳(メタデータ) (2024-10-11T05:08:44Z) - Understanding and Evaluating Human Preferences for AI Generated Images with Instruction Tuning [58.41087653543607]
我々はまず,AIGCIQA2023+と呼ばれるAIGIのための画像品質評価(IQA)データベースを構築した。
本稿では,AIGIに対する人間の嗜好を評価するためのMINT-IQAモデルを提案する。
論文 参考訳(メタデータ) (2024-05-12T17:45:11Z) - Let's ViCE! Mimicking Human Cognitive Behavior in Image Generation
Evaluation [96.74302670358145]
生成/編集された画像と対応するプロンプト/インストラクションの整合性を評価するために,視覚概念評価(ViCE)の自動手法を提案する。
ViCEは、Large Language Models(LLM)とVisual Question Answering(VQA)の強みを統合パイプラインに統合し、品質評価において人間の認知プロセスを再現することを目指している。
論文 参考訳(メタデータ) (2023-07-18T16:33:30Z) - Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop [113.75573175709573]
NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2022-10-03T13:47:16Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Image Quality Assessment in the Modern Age [53.19271326110551]
本チュートリアルは、画像品質評価(IQA)の基礎的理論、方法論、現状の進歩を聴衆に提供する。
まず,視覚刺激を適切に選択する方法に着目し,主観的品質評価手法を再考する。
手書きのエンジニアリングと(深い)学習ベースの手法の両方をカバーします。
論文 参考訳(メタデータ) (2021-10-19T02:38:46Z) - Towards Coding for Human and Machine Vision: A Scalable Image Coding
Approach [104.02201472370801]
圧縮モデルと生成モデルの両方を活用することにより,新しい画像符号化フレームワークを考案した。
高度な生成モデルを導入することで、コンパクトな特徴表現と参照画素から画像を再構成するフレキシブルネットワークを訓練する。
実験により、人間の視覚的品質と顔のランドマーク検出の両方において、我々の枠組みが優れていることが示された。
論文 参考訳(メタデータ) (2020-01-09T10:37:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。