論文の概要: Quantifying Visual Image Quality: A Bayesian View
- arxiv url: http://arxiv.org/abs/2102.00195v1
- Date: Sat, 30 Jan 2021 09:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 15:57:19.159887
- Title: Quantifying Visual Image Quality: A Bayesian View
- Title(参考訳): 画像品質の定量化:ベイズ的視点
- Authors: Zhengfang Duanmu, Wentao Liu, Zhongling Wang, Zhou Wang
- Abstract要約: 画像品質評価(IQA)モデルは、人間の観察者による視覚画像と知覚品質の定量的な関係を確立することを目的としている。
IQAモデリングは視覚科学と工学の実践の間に特別なブリッジングの役割を担っている。
- 参考スコア(独自算出の注目度): 31.494753153095587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image quality assessment (IQA) models aim to establish a quantitative
relationship between visual images and their perceptual quality by human
observers. IQA modeling plays a special bridging role between vision science
and engineering practice, both as a test-bed for vision theories and
computational biovision models, and as a powerful tool that could potentially
make profound impact on a broad range of image processing, computer vision, and
computer graphics applications, for design, optimization, and evaluation
purposes. IQA research has enjoyed an accelerated growth in the past two
decades. Here we present an overview of IQA methods from a Bayesian
perspective, with the goals of unifying a wide spectrum of IQA approaches under
a common framework and providing useful references to fundamental concepts
accessible to vision scientists and image processing practitioners. We discuss
the implications of the successes and limitations of modern IQA methods for
biological vision and the prospect for vision science to inform the design of
future artificial vision systems.
- Abstract(参考訳): 画像品質評価(IQA)モデルは、人間の観察者による視覚画像と知覚品質の定量的な関係を確立することを目的としている。
IQAモデリングは、ビジョン理論と計算バイオビジョンモデルのためのテストベッドとして、そして設計、最適化、評価のために幅広い画像処理、コンピュータビジョン、コンピュータグラフィックスアプリケーションに大きな影響を与える可能性のある強力なツールとして、ビジョンサイエンスとエンジニアリングの実践の間で特別な橋渡しの役割を担っている。
IQAの研究は過去20年で急速に成長している。
ここでは,共通の枠組みの下で幅広い iqa アプローチを統一し,視覚科学者や画像処理実践者がアクセス可能な基本的な概念への有用な参照を提供することを目的として,ベイズの視点から iqa 手法の概要を示す。
本稿では,生物視覚における現代IQA法の成功と限界と,将来的な人工視覚システムの設計を視覚科学に伝える可能性について論じる。
関連論文リスト
- Let's ViCE! Mimicking Human Cognitive Behavior in Image Generation
Evaluation [96.74302670358145]
生成/編集された画像と対応するプロンプト/インストラクションの整合性を評価するために,視覚概念評価(ViCE)の自動手法を提案する。
ViCEは、Large Language Models(LLM)とVisual Question Answering(VQA)の強みを統合パイプラインに統合し、品質評価において人間の認知プロセスを再現することを目指している。
論文 参考訳(メタデータ) (2023-07-18T16:33:30Z) - Blind Multimodal Quality Assessment: A Brief Survey and A Case Study of
Low-light Images [73.27643795557778]
ブラインド画像品質評価(BIQA)は、視覚信号の客観的スコアを自動的に正確に予測することを目的としている。
この分野での最近の発展は、ヒトの主観的評価パターンと矛盾しない一助的解によって支配されている。
主観的評価から客観的スコアへの低照度画像の一意なブラインドマルチモーダル品質評価(BMQA)を提案する。
論文 参考訳(メタデータ) (2023-03-18T09:04:55Z) - Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop [113.75573175709573]
NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2022-10-03T13:47:16Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Going the Extra Mile in Face Image Quality Assessment: A Novel Database
and Model [42.05084438912876]
現在までに開発された最大のアノテートIQAデータベースについて紹介する。
本稿では,顔画像の品質を正確に予測する新しいディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2022-07-11T14:28:18Z) - Image Quality Assessment in the Modern Age [53.19271326110551]
本チュートリアルは、画像品質評価(IQA)の基礎的理論、方法論、現状の進歩を聴衆に提供する。
まず,視覚刺激を適切に選択する方法に着目し,主観的品質評価手法を再考する。
手書きのエンジニアリングと(深い)学習ベースの手法の両方をカバーします。
論文 参考訳(メタデータ) (2021-10-19T02:38:46Z) - VisQA: X-raying Vision and Language Reasoning in Transformers [10.439369423744708]
最近の研究では、最先端のモデルがトレーニングデータのバイアスやショートカットを利用した回答を生み出す傾向があることが示されている。
VisQAは、この推論とバイアス搾取の問題を探求するビジュアル分析ツールです。
論文 参考訳(メタデータ) (2021-04-02T08:08:25Z) - Towards Coding for Human and Machine Vision: A Scalable Image Coding
Approach [104.02201472370801]
圧縮モデルと生成モデルの両方を活用することにより,新しい画像符号化フレームワークを考案した。
高度な生成モデルを導入することで、コンパクトな特徴表現と参照画素から画像を再構成するフレキシブルネットワークを訓練する。
実験により、人間の視覚的品質と顔のランドマーク検出の両方において、我々の枠組みが優れていることが示された。
論文 参考訳(メタデータ) (2020-01-09T10:37:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。