論文の概要: Quality-Aware Network for Human Parsing
- arxiv url: http://arxiv.org/abs/2103.05997v1
- Date: Wed, 10 Mar 2021 11:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 14:52:15.146470
- Title: Quality-Aware Network for Human Parsing
- Title(参考訳): ヒューマンパースのための品質認識ネットワーク
- Authors: Lu Yang and Qing Song and Zhihui Wang and Zhiwei Liu and Songcen Xu
and Zhihao Li
- Abstract要約: 本稿では,出力確率マップに基づく統計的手法を提案し,画素スコアと呼ばれる画素品質情報を算出する。
QAMと簡潔で効果的なネットワーク設計を組み合わせて、人間の解析のための品質認識ネットワーク(QANet)を提案します。
我々はCIHP, MHP-v2, Pascal-Person-Part, LIPを含む3つのマルチパーシングベンチマークと1つの人間パーシングベンチマークで最高の性能を達成する。
- 参考スコア(独自算出の注目度): 21.014538138708268
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: How to estimate the quality of the network output is an important issue, and
currently there is no effective solution in the field of human parsing. In
order to solve this problem, this work proposes a statistical method based on
the output probability map to calculate the pixel quality information, which is
called pixel score. In addition, the Quality-Aware Module (QAM) is proposed to
fuse the different quality information, the purpose of which is to estimate the
quality of human parsing results. We combine QAM with a concise and effective
network design to propose Quality-Aware Network (QANet) for human parsing.
Benefiting from the superiority of QAM and QANet, we achieve the best
performance on three multiple and one single human parsing benchmarks,
including CIHP, MHP-v2, Pascal-Person-Part and LIP. Without increasing the
training and inference time, QAM improves the AP$^\text{r}$ criterion by more
than 10 points in the multiple human parsing task. QAM can be extended to other
tasks with good quality estimation, e.g. instance segmentation. Specifically,
QAM improves Mask R-CNN by ~1% mAP on COCO and LVISv1.0 datasets. Based on the
proposed QAM and QANet, our overall system wins 1st place in CVPR2019 COCO
DensePose Challenge, and 1st place in Track 1 & 2 of CVPR2020 LIP Challenge.
Code and models are available at https://github.com/soeaver/QANet.
- Abstract(参考訳): ネットワーク出力の品質を推定する方法は重要な問題であり、現在、人間の解析の分野で効果的なソリューションはありません。
この問題を解決するために,出力確率マップに基づく統計手法を提案し,画素スコアと呼ばれる画素品質情報を算出する。
また,QAM(Quality-Aware Module)は,人間の解析結果の質を推定するために,異なる品質情報を融合するために提案されている。
QAMと簡潔で効果的なネットワーク設計を組み合わせて、人間の解析のための品質認識ネットワーク(QANet)を提案します。
QAMとQANetの優位性により、CIHP、MHP-v2、Pascal-Person-Part、LIPを含む3つの複数および1つのヒューマンパーシングベンチマークで最高のパフォーマンスを実現します。
トレーニングと推論時間を増やすことなく、QAMはAP$^\text{r}$ criterionを、複数の人間の解析タスクにおいて10ポイント以上改善する。
QAMは他のタスクにも拡張可能で、品質評価も良い。
インスタンスのセグメンテーション。
具体的には、QAMはCoCOおよびLVISv1.0データセットでマスクR-CNNを約1%mAP改善する。
提案したQAMとQANetに基づいて,CVPR2019 COCO DensePose Challengeでは総合システムが1位,CVPR2020 LIP Challengeでは1位と2位となった。
コードとモデルはhttps://github.com/soeaver/qanetで入手できる。
関連論文リスト
- Q-Ground: Image Quality Grounding with Large Multi-modality Models [61.72022069880346]
Q-Groundは、大規模な視覚的品質グラウンドに取り組むための最初のフレームワークである。
Q-Groundは、大規模なマルチモダリティモデルと詳細な視覚的品質分析を組み合わせる。
コントリビューションの中心は、QGround-100Kデータセットの導入です。
論文 参考訳(メタデータ) (2024-07-24T06:42:46Z) - Descriptive Image Quality Assessment in the Wild [25.503311093471076]
VLMに基づく画像品質評価(IQA)は、画像品質を言語的に記述し、人間の表現に合わせることを目指している。
野生における画像品質評価(DepictQA-Wild)について紹介する。
本手法は,評価タスクと比較タスク,簡潔かつ詳細な応答,完全参照,非参照シナリオを含む多機能IQAタスクパラダイムを含む。
論文 参考訳(メタデータ) (2024-05-29T07:49:15Z) - Dual-Branch Network for Portrait Image Quality Assessment [76.27716058987251]
ポートレート画像品質評価のためのデュアルブランチネットワーク(PIQA)を提案する。
我々は2つのバックボーンネットワーク(textiti.e., Swin Transformer-B)を使用して、肖像画全体と顔画像から高品質な特徴を抽出する。
我々は、画像シーンの分類と品質評価モデルであるLIQEを利用して、品質認識とシーン固有の特徴を補助的特徴として捉えている。
論文 参考訳(メタデータ) (2024-05-14T12:43:43Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - Blind Image Quality Assessment via Vision-Language Correspondence: A
Multitask Learning Perspective [93.56647950778357]
ブラインド画像品質評価(BIQA)は、参照情報なしで画像品質の人間の知覚を予測する。
我々は,他のタスクからの補助的知識を活用するために,BIQAのための汎用的かつ自動化されたマルチタスク学習手法を開発した。
論文 参考訳(メタデータ) (2023-03-27T07:58:09Z) - MSTRIQ: No Reference Image Quality Assessment Based on Swin Transformer
with Multi-Stage Fusion [8.338999282303755]
本稿では,Swin Transformerに基づく新しいアルゴリズムを提案する。
ローカル機能とグローバル機能の両方から情報を集約して、品質をより正確に予測する。
NTIRE 2022 Perceptual Image Quality Assessment Challengeのノーレファレンストラックで2位。
論文 参考訳(メタデータ) (2022-05-20T11:34:35Z) - Attentions Help CNNs See Better: Attention-based Hybrid Image Quality
Assessment Network [20.835800149919145]
画像品質評価(IQA)アルゴリズムは、画像品質に対する人間の認識を定量化することを目的としている。
GAN(Generative Adversarial Network)によって生成された歪み画像を、一見現実的なテクスチャで評価する際の性能低下がある。
本稿では,AHIQ(Hybrid Image Quality Assessment Network)を提案する。
論文 参考訳(メタデータ) (2022-04-22T03:59:18Z) - Task-Specific Normalization for Continual Learning of Blind Image
Quality Models [105.03239956378465]
視覚的画像品質評価(BIQA)のための簡易かつ効果的な連続学習法を提案する。
このアプローチの重要なステップは、トレーニング済みのディープニューラルネットワーク(DNN)のすべての畳み込みフィルタを凍結して、安定性を明示的に保証することです。
我々は、各新しいIQAデータセット(タスク)に予測ヘッドを割り当て、対応する正規化パラメータをロードして品質スコアを生成する。
最終的な品質推定は、軽量な$K$-meansゲーティング機構で、すべての頭からの予測の重み付け総和によって計算される。
論文 参考訳(メタデータ) (2021-07-28T15:21:01Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。