論文の概要: A No-Reference Quality Assessment Method for Digital Human Head
- arxiv url: http://arxiv.org/abs/2310.16732v1
- Date: Wed, 25 Oct 2023 16:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 13:53:04.189906
- Title: A No-Reference Quality Assessment Method for Digital Human Head
- Title(参考訳): デジタル人間の頭部の非参照品質評価法
- Authors: Yingjie Zhou, Zicheng Zhang, Wei Sun, Xiongkuo Min, Xianghe Ma,
Guangtao Zhai
- Abstract要約: 我々は、デジタルヒューマン品質評価(DHQA)を扱うトランスフォーマーに基づく新しいノリフレクション(NR)手法を開発した。
具体的には、デジタル人間の前方2次元投影を入力として描画し、特徴抽出に視覚変換器(ViT)を用いる。
次に,歪み型を共同分類し,デジタル人間の知覚品質レベルを予測するマルチタスクモジュールを設計する。
- 参考スコア(独自算出の注目度): 56.17852258306602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, digital humans have been widely applied in augmented/virtual
reality (A/VR), where viewers are allowed to freely observe and interact with
the volumetric content. However, the digital humans may be degraded with
various distortions during the procedure of generation and transmission.
Moreover, little effort has been put into the perceptual quality assessment of
digital humans. Therefore, it is urgent to carry out objective quality
assessment methods to tackle the challenge of digital human quality assessment
(DHQA). In this paper, we develop a novel no-reference (NR) method based on
Transformer to deal with DHQA in a multi-task manner. Specifically, the front
2D projections of the digital humans are rendered as inputs and the vision
transformer (ViT) is employed for the feature extraction. Then we design a
multi-task module to jointly classify the distortion types and predict the
perceptual quality levels of digital humans. The experimental results show that
the proposed method well correlates with the subjective ratings and outperforms
the state-of-the-art quality assessment methods.
- Abstract(参考訳): 近年、デジタル人間は拡張/仮想現実(A/VR)に広く応用されており、視聴者は自由にボリュームコンテンツを観察し、対話することができる。
しかし、デジタル人間は、生成と送信の過程で様々な歪みで劣化する可能性がある。
さらに、デジタル人間の知覚的品質評価にはほとんど努力が払われていない。
そのため、デジタル人間質評価(DHQA)の課題に対処するため、客観的品質評価手法の実行が急務である。
本稿では,マルチタスク方式でDHQAを扱うためのTransformerに基づく新しいno-reference(NR)手法を提案する。
具体的には、デジタル人間の前方2次元投影を入力として描画し、特徴抽出に視覚変換器(ViT)を用いる。
そこで我々は,歪み型を共同分類し,デジタル人間の知覚品質レベルを予測するマルチタスクモジュールを設計した。
実験結果から,提案手法は主観評価とよく相関し,最先端の品質評価手法よりも優れていた。
関連論文リスト
- Deceptive-Human: Prompt-to-NeRF 3D Human Generation with 3D-Consistent
Synthetic Images [67.31920821192323]
Deceptive-Humanは、最先端の制御拡散モデル(ControlNetなど)を利用して高品質な制御可能な3D NeRFを生成する新しいフレームワークである。
提案手法は,テキストプロンプトや3Dメッシュ,ポーズ,シード画像などの付加データを含む,汎用的で容易に収容できる。
結果として得られる3D人間のNeRFモデルは、360度の視点から高光写実性ビューの合成を促進する。
論文 参考訳(メタデータ) (2023-11-27T15:49:41Z) - Geometry-Aware Video Quality Assessment for Dynamic Digital Human [56.17852258306602]
DDH-QAチャレンジのための新しい非参照(NR)幾何対応ビデオ品質評価手法を提案する。
提案手法はDDH-QAデータベース上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-24T16:34:03Z) - Let's ViCE! Mimicking Human Cognitive Behavior in Image Generation
Evaluation [96.74302670358145]
生成/編集された画像と対応するプロンプト/インストラクションの整合性を評価するために,視覚概念評価(ViCE)の自動手法を提案する。
ViCEは、Large Language Models(LLM)とVisual Question Answering(VQA)の強みを統合パイプラインに統合し、品質評価において人間の認知プロセスを再現することを目指している。
論文 参考訳(メタデータ) (2023-07-18T16:33:30Z) - Advancing Zero-Shot Digital Human Quality Assessment through
Text-Prompted Evaluation [60.873105678086404]
SJTU-H3Dは、フルボディのデジタル人間向けに設計された主観的品質評価データベースである。
高品質なデジタル人間40人と、7種類の歪みで生成された1,120個のラベル付き歪曲した人物からなる。
論文 参考訳(メタデータ) (2023-07-06T06:55:30Z) - DDH-QA: A Dynamic Digital Humans Quality Assessment Database [55.69700918818879]
多様な動作内容と複数の歪みを有する大規模デジタル人文品質評価データベースを構築した。
DDHを駆動するために10種類の共通運動が使用され、最後に合計800個のDDHが生成される。
論文 参考訳(メタデータ) (2022-12-24T13:35:31Z) - Perceptual Quality Assessment for Digital Human Heads [35.801468849447126]
3次元走査型デジタルヒューマンヘッド(DHHs)のための最初の大規模品質評価データベースを提案する。
構築されたデータベースは、55の参照DHHと1,540の歪んだDHHと、主観的知覚評価からなる。
実験の結果,本手法は主要なFR測定値の最先端性能を示すことがわかった。
論文 参考訳(メタデータ) (2022-09-20T06:02:57Z) - Cuid: A new study of perceived image quality and its subjective
assessment [30.698984450985318]
本研究では,実験室環境下で主観的評価を収集する画像品質知覚法を提案する。
画像の異なるカテゴリと異なる種類と歪みのレベルの組み合わせによって、品質知覚がどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2020-09-28T13:14:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。