論文の概要: Image Quality Assessment: From Human to Machine Preference
- arxiv url: http://arxiv.org/abs/2503.10078v1
- Date: Thu, 13 Mar 2025 05:58:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:50:57.670952
- Title: Image Quality Assessment: From Human to Machine Preference
- Title(参考訳): 画像品質評価:人間から機械への選好
- Authors: Chunyi Li, Yuan Tian, Xiaoyue Ling, Zicheng Zhang, Haodong Duan, Haoning Wu, Ziheng Jia, Xiaohong Liu, Xiongkuo Min, Guo Lu, Weisi Lin, Guangtao Zhai,
- Abstract要約: 本稿では,マシンビジョンにおける画像品質評価について述べる。
ダウンストリームタスクやテストモデル,評価指標など,マシンの主観的な選好を定義した。
また,225万の微粒なアノテーションと30kの参照/歪んだイメージペアインスタンスを含むMPD(Machine Preference Database)を構築した。
- 参考スコア(独自算出の注目度): 88.01333947203132
- License:
- Abstract: Image Quality Assessment (IQA) based on human subjective preferences has undergone extensive research in the past decades. However, with the development of communication protocols, the visual data consumption volume of machines has gradually surpassed that of humans. For machines, the preference depends on downstream tasks such as segmentation and detection, rather than visual appeal. Considering the huge gap between human and machine visual systems, this paper proposes the topic: Image Quality Assessment for Machine Vision for the first time. Specifically, we (1) defined the subjective preferences of machines, including downstream tasks, test models, and evaluation metrics; (2) established the Machine Preference Database (MPD), which contains 2.25M fine-grained annotations and 30k reference/distorted image pair instances; (3) verified the performance of mainstream IQA algorithms on MPD. Experiments show that current IQA metrics are human-centric and cannot accurately characterize machine preferences. We sincerely hope that MPD can promote the evolution of IQA from human to machine preferences. Project page is on: https://github.com/lcysyzxdxc/MPD.
- Abstract(参考訳): 人間の主観的嗜好に基づく画像品質評価(IQA)は、過去数十年にわたって広範囲にわたる研究が続けられてきた。
しかし、通信プロトコルの発展に伴い、機械の視覚的データ消費量は徐々に人間のものより多くなっている。
マシンの場合、好みは視覚的な魅力ではなく、セグメンテーションや検出といった下流のタスクに依存する。
本稿では、人間と機械の視覚システム間の大きなギャップを考慮し、このトピックを初めて提案する: マシンビジョンのための画像品質アセスメント。
具体的には、(1)ダウンストリームタスク、テストモデル、評価指標を含む機械の主観的嗜好を定義し、(2)細粒度アノテーションと30kの参照/歪み画像ペアインスタンスを含む機械選好データベース(MPD)を構築し、(3)メインストリームIQAアルゴリズムの性能をMPD上で検証した。
実験によると、現在のIQAメトリクスは人間中心であり、マシンの好みを正確に特徴づけることができない。
私たちは、MPDがIQAの進化を人間から機械まで促進できることを心から願っている。
プロジェクトページは https://github.com/lcysyzxdxc/MPD.com にある。
関連論文リスト
- Embodied Image Quality Assessment for Robotic Intelligence [36.80460733311791]
まず,画像品質評価(EIQA)フレームワークを提案する。
我々は,ロボットの下流作業に基づく入力画像の評価基準を確立する。
実験により、エンボディ画像の品質評価は人間と異なることが示された。
論文 参考訳(メタデータ) (2024-12-25T04:29:22Z) - Towards Automatic Evaluation for Image Transcreation [52.71090829502756]
本稿では,機械翻訳(MT)メトリクスにインスパイアされた自動評価指標群を提案する。
画像トランスクリエーションの3つの重要な側面として,文化的関連性,意味的等価性,視覚的類似性を挙げる。
この結果から,視覚エンコーダの表現は視覚的類似度を測定するのに有効であるのに対し,プロプライエタリなVLMは文化的関連性と意味的等価性を最もよく認識していることがわかった。
論文 参考訳(メタデータ) (2024-12-18T10:55:58Z) - Quality Assessment for AI Generated Images with Instruction Tuning [58.41087653543607]
我々はまず,AIGCIQA2023+と呼ばれるAIGIのための画像品質評価(IQA)データベースを構築した。
本稿では,AIGIに対する人間の嗜好を評価するためのMINT-IQAモデルを提案する。
論文 参考訳(メタデータ) (2024-05-12T17:45:11Z) - A Comparative Study of Perceptual Quality Metrics for Audio-driven
Talking Head Videos [81.54357891748087]
4つの生成手法から生成した音声ヘッドビデオを収集する。
視覚的品質、口唇音の同期、頭部運動の自然性に関する制御された心理物理実験を行った。
実験では,モデル予測と人間のアノテーションの整合性を検証し,広く使用されている指標よりも人的意見に整合した指標を同定した。
論文 参考訳(メタデータ) (2024-03-11T04:13:38Z) - AGIQA-3K: An Open Database for AI-Generated Image Quality Assessment [62.8834581626703]
我々はこれまでに最も包括的な主観的品質データベース AGIQA-3K を構築している。
このデータベース上でベンチマーク実験を行い、現在の画像品質評価(IQA)モデルと人間の知覚との整合性を評価する。
我々は、AGIQA-3Kの微粒な主観的スコアが、その後のAGI品質モデルにヒトの主観的知覚機構に適合するよう促すと信じている。
論文 参考訳(メタデータ) (2023-06-07T18:28:21Z) - Blind Image Quality Assessment via Vision-Language Correspondence: A
Multitask Learning Perspective [93.56647950778357]
ブラインド画像品質評価(BIQA)は、参照情報なしで画像品質の人間の知覚を予測する。
我々は,他のタスクからの補助的知識を活用するために,BIQAのための汎用的かつ自動化されたマルチタスク学習手法を開発した。
論文 参考訳(メタデータ) (2023-03-27T07:58:09Z) - Going the Extra Mile in Face Image Quality Assessment: A Novel Database
and Model [42.05084438912876]
現在までに開発された最大のアノテートIQAデータベースについて紹介する。
本稿では,顔画像の品質を正確に予測する新しいディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2022-07-11T14:28:18Z) - To Ship or Not to Ship: An Extensive Evaluation of Automatic Metrics for
Machine Translation [5.972205906525993]
システムレベルの品質ランク付けを行う上で,どの指標が最も精度が高いかを検討する。
BLEUの唯一の使用は、改善されたモデルの開発に悪影響を及ぼしたことを示す。
論文 参考訳(メタデータ) (2021-07-22T17:22:22Z) - Partial success in closing the gap between human and machine vision [30.78663978510427]
数年前、最初のCNNがImageNetで人間のパフォーマンスを上回った。
人間のビジョンとマシンビジョンのギャップを埋める作業は進んでいますか?
我々は、広範囲なアウト・オブ・ディストリビューション(OOD)データセット上で、人間のオブザーバをテストした。
論文 参考訳(メタデータ) (2021-06-14T13:23:35Z) - Biometric Quality: Review and Application to Face Recognition with
FaceQnet [16.791628175513637]
品質は、自動化された生体認証システムの良し悪しに責任を負う第1の要因である。
最もよく使われ、デプロイされた生体認証特性のいくつかは、これらの手法の開発に欠如している。
FaceQnetは、ディープラーニング技術にインスパイアされ、利用されている、オープンソースの顔品質評価ツールである。
論文 参考訳(メタデータ) (2020-06-05T08:33:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。