論文の概要: Object-QA: Towards High Reliable Object Quality Assessment
- arxiv url: http://arxiv.org/abs/2005.13116v1
- Date: Wed, 27 May 2020 01:46:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:17:15.153259
- Title: Object-QA: Towards High Reliable Object Quality Assessment
- Title(参考訳): Object-QA: 信頼性の高いオブジェクト品質評価を目指して
- Authors: Jing Lu, Baorui Zou, Zhanzhan Cheng, Shiliang Pu, Shuigeng Zhou, Yi
Niu, Fei Wu
- Abstract要約: オブジェクト認識アプリケーションでは、オブジェクトイメージは通常、異なる品質レベルで表示される。
本稿では,オブジェクト画像の信頼性の高い品質スコアを評価するために,Object-QAという効果的手法を提案する。
- 参考スコア(独自算出の注目度): 71.71188284059203
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In object recognition applications, object images usually appear with
different quality levels. Practically, it is very important to indicate object
image qualities for better application performance, e.g. filtering out
low-quality object image frames to maintain robust video object recognition
results and speed up inference. However, no previous works are explicitly
proposed for addressing the problem. In this paper, we define the problem of
object quality assessment for the first time and propose an effective approach
named Object-QA to assess high-reliable quality scores for object images.
Concretely, Object-QA first employs a well-designed relative quality assessing
module that learns the intra-class-level quality scores by referring to the
difference between object images and their estimated templates. Then an
absolute quality assessing module is designed to generate the final quality
scores by aligning the quality score distributions in inter-class. Besides,
Object-QA can be implemented with only object-level annotations, and is also
easily deployed to a variety of object recognition tasks. To our best knowledge
this is the first work to put forward the definition of this problem and
conduct quantitative evaluations. Validations on 5 different datasets show that
Object-QA can not only assess high-reliable quality scores according with human
cognition, but also improve application performance.
- Abstract(参考訳): オブジェクト認識アプリケーションでは、オブジェクトイメージは通常、異なる品質レベルで現れる。
実際には、低品質のオブジェクトイメージフレームをフィルタリングして、堅牢なビデオオブジェクト認識結果を維持し、推論を高速化するなど、より良いアプリケーションパフォーマンスのためにオブジェクト画像の品質を示すことが非常に重要である。
しかし、この問題に対処するための先行研究は明示的に提案されていない。
本稿では,初めてオブジェクト品質評価の問題を定義し,オブジェクト画像の信頼性の高い品質スコアを評価するための効果的なアプローチであるobject-qaを提案する。
具体的には、オブジェクト画像と推定テンプレートの違いを参照してクラスレベルの品質スコアを学習する、よく設計された相対品質評価モジュールを最初に採用する。
そして、クラス間の品質スコア分布を整列させて最終品質スコアを生成する絶対品質評価モジュールを設計する。
さらに、Object-QAはオブジェクトレベルのアノテーションだけで実装でき、さまざまなオブジェクト認識タスクに簡単にデプロイできる。
われわれの知る限りでは、この問題の定義を推し進め、定量的評価を行う最初の研究である。
5つの異なるデータセットに対する検証は、Object-QAが人間の認識に応じて信頼性の高い品質スコアを評価するだけでなく、アプリケーションのパフォーマンスも改善できることを示している。
関連論文リスト
- Q-Ground: Image Quality Grounding with Large Multi-modality Models [61.72022069880346]
Q-Groundは、大規模な視覚的品質グラウンドに取り組むための最初のフレームワークである。
Q-Groundは、大規模なマルチモダリティモデルと詳細な視覚的品質分析を組み合わせる。
コントリビューションの中心は、QGround-100Kデータセットの導入です。
論文 参考訳(メタデータ) (2024-07-24T06:42:46Z) - Vision Language Modeling of Content, Distortion and Appearance for Image Quality Assessment [20.851102845794244]
画像品質評価(IQA)の開発には品質評価属性に関する高レベル知識の蒸留が不可欠である
自己監督・視線監督画像QUality Evaluator (SLIQUE) と呼ばれる新しいブラインドIQA(BIQA)モデルを提案する。
SLIQUEは、画像意味内容、歪み特性およびIQAの外観特性に関する高度な知識を得るための、視覚言語と視覚コントラスト表現学習フレームワークである。
論文 参考訳(メタデータ) (2024-06-14T09:18:28Z) - UniQA: Unified Vision-Language Pre-training for Image Quality and Aesthetic Assessment [23.48816491333345]
画像品質評価(IQA)と画像審美評価(IAA)は、人間の視覚的品質と美的魅力に対する主観的知覚をシミュレートすることを目的としている。
既存の手法は、異なる学習目的のために、これらのタスクを独立して扱うのが一般的である。
本研究では,2つのタスクの一般的な認識を学習するために,視覚言語による品質と美学の事前学習(UniQA)を提案する。
論文 参考訳(メタデータ) (2024-06-03T07:40:10Z) - Descriptive Image Quality Assessment in the Wild [25.503311093471076]
VLMに基づく画像品質評価(IQA)は、画像品質を言語的に記述し、人間の表現に合わせることを目指している。
野生における画像品質評価(DepictQA-Wild)について紹介する。
本手法は,評価タスクと比較タスク,簡潔かつ詳細な応答,完全参照,非参照シナリオを含む多機能IQAタスクパラダイムを含む。
論文 参考訳(メタデータ) (2024-05-29T07:49:15Z) - Counterfactual Reasoning for Multi-Label Image Classification via Patching-Based Training [84.95281245784348]
共起関係の過度な強調は、モデルの過度な問題を引き起こす可能性がある。
本稿では,対象対象物とその共起対象物による相関特性を媒介者とみなすことができることを示す因果推論フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:13:24Z) - Blind Multimodal Quality Assessment: A Brief Survey and A Case Study of
Low-light Images [73.27643795557778]
ブラインド画像品質評価(BIQA)は、視覚信号の客観的スコアを自動的に正確に予測することを目的としている。
この分野での最近の発展は、ヒトの主観的評価パターンと矛盾しない一助的解によって支配されている。
主観的評価から客観的スコアへの低照度画像の一意なブラインドマルチモーダル品質評価(BMQA)を提案する。
論文 参考訳(メタデータ) (2023-03-18T09:04:55Z) - Gap-closing Matters: Perceptual Quality Evaluation and Optimization of Low-Light Image Enhancement [55.8106019031768]
低照度画像強調手法の最適化は、エンドユーザーが認識する視覚的品質によって導かれるべきであるという研究コミュニティの見解が高まりつつある。
主観的品質と客観的品質を体系的に評価するためのギャップ閉鎖フレームワークを提案する。
提案手法の有効性を,画質予測の精度と画像強調の知覚品質の両面から検証する。
論文 参考訳(メタデータ) (2023-02-22T15:57:03Z) - Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience [96.29124666702566]
我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
論文 参考訳(メタデータ) (2022-04-11T07:03:06Z) - TISE: A Toolbox for Text-to-Image Synthesis Evaluation [9.092600296992925]
単目的と多目的のテキスト・ツー・イメージ合成のための最先端手法の研究を行う。
これらの手法を評価するための共通フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-02T16:39:35Z) - A survey on IQA [0.0]
本稿では,画像品質評価と映像品質評価の概念と指標について概説する。
本報告では, 画像品質評価手法について概説し, 深層学習に基づく非参照画像品質評価手法に着目した。
論文 参考訳(メタデータ) (2021-08-29T10:52:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。