論文の概要: DDH-QA: A Dynamic Digital Humans Quality Assessment Database
- arxiv url: http://arxiv.org/abs/2212.12734v1
- Date: Sat, 24 Dec 2022 13:35:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 14:33:49.708687
- Title: DDH-QA: A Dynamic Digital Humans Quality Assessment Database
- Title(参考訳): DDH-QA: 動的デジタル人間質評価データベース
- Authors: Zicheng Zhang, Yingjie Zhou, Wei Sun, Wei Lu, Xiongkuo Min, Yu Wang,
and Guangtao Zhai
- Abstract要約: 多様な動作内容と複数の歪みを有する大規模動的デジタル人文品質評価データベース(DDH-QA)を構築した。
DDHを駆動するために10種類の共通運動が使用され、最後に合計800個のDDHが生成される。
- 参考スコア(独自算出の注目度): 36.35767933151893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, large amounts of effort have been put into pushing forward
the real-world application of dynamic digital human (DDH). However, most
current quality assessment research focuses on evaluating static 3D models and
usually ignores motion distortions. Therefore, in this paper, we construct a
large-scale dynamic digital human quality assessment (DDH-QA) database with
diverse motion content as well as multiple distortions to comprehensively study
the perceptual quality of DDHs. Both model-based distortion (noise,
compression) and motion-based distortion (binding error, motion unnaturalness)
are taken into consideration. Ten types of common motion are employed to drive
the DDHs and a total of 800 DDHs are generated in the end. Afterward, we render
the video sequences of the distorted DDHs as the evaluation media and carry out
a well-controlled subjective experiment. Then a benchmark experiment is
conducted with the state-of-the-art video quality assessment (VQA) methods and
the experimental results show that existing VQA methods are limited in
assessing the perceptual loss of DDHs. The database will be made publicly
available to facilitate future research.
- Abstract(参考訳): 近年,動的デジタルヒューマン(DDH)の現実的応用を推し進めるために,多大な努力が払われている。
しかしながら、現在のほとんどの品質評価研究は静的な3Dモデルの評価に重点を置いており、通常、動きの歪みを無視する。
そこで本稿では,DDHの知覚品質を包括的に研究するために,多様な動作内容と複数の歪みを有する大規模動的デジタルヒューマン品質評価(DDH-QA)データベースを構築した。
モデルに基づく歪み(ノイズ、圧縮)と運動に基づく歪み(結合誤差、運動不自然性)の両方を考慮する。
DDHを駆動するために10種類の共通運動が使用され、最後に合計800個のDDHが生成される。
その後、歪んだDDHのビデオシーケンスを評価メディアとして描画し、よく制御された主観的実験を行う。
次に,最新の映像品質評価法(VQA)を用いてベンチマーク実験を行い,既存のVQA法はDDHの知覚的損失を評価する場合に限られていることを示す。
データベースは、将来の研究を促進するために公開されます。
関連論文リスト
- Perceptual Depth Quality Assessment of Stereoscopic Omnidirectional Images [10.382801621282228]
立体視全方位画像の高能率非参照(NR)深度品質評価のための目標品質評価モデルDQIを開発した。
人間の視覚システム(HVS)の知覚特性に触発されたDQIは,多色チャネル,適応型ビューポート選択,眼間不一致の特徴を基盤として構築されている。
論文 参考訳(メタデータ) (2024-08-19T16:28:05Z) - Aligning Human Motion Generation with Human Perceptions [51.831338643012444]
本研究では,大規模人間の知覚評価データセットであるMotionPerceptと,人間の動作批判モデルであるMotionCriticを導入することにより,ギャップを埋めるデータ駆動型アプローチを提案する。
我々の批評家モデルは、運動品質を評価するためのより正確な指標を提供しており、容易に運動生成パイプラインに統合することができる。
論文 参考訳(メタデータ) (2024-07-02T14:01:59Z) - THQA: A Perceptual Quality Assessment Database for Talking Heads [56.42738564463101]
音声駆動方式は、人間の口の形や表情を操作するための新しい道を提供する。
運転法が普及しているにもかかわらず、多くの音声ヘッド(TH)ビデオの品質が懸念されている。
本稿では,8種類の音声駆動方式を用いて800 THビデオを生成するTHQAデータベースについて紹介する。
論文 参考訳(メタデータ) (2024-04-13T13:08:57Z) - A No-Reference Quality Assessment Method for Digital Human Head [56.17852258306602]
我々は、デジタルヒューマン品質評価(DHQA)を扱うトランスフォーマーに基づく新しいノリフレクション(NR)手法を開発した。
具体的には、デジタル人間の前方2次元投影を入力として描画し、特徴抽出に視覚変換器(ViT)を用いる。
次に,歪み型を共同分類し,デジタル人間の知覚品質レベルを予測するマルチタスクモジュールを設計する。
論文 参考訳(メタデータ) (2023-10-25T16:01:05Z) - Geometry-Aware Video Quality Assessment for Dynamic Digital Human [56.17852258306602]
DDH-QAチャレンジのための新しい非参照(NR)幾何対応ビデオ品質評価手法を提案する。
提案手法はDDH-QAデータベース上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-24T16:34:03Z) - Advancing Zero-Shot Digital Human Quality Assessment through
Text-Prompted Evaluation [60.873105678086404]
SJTU-H3Dは、フルボディのデジタル人間向けに設計された主観的品質評価データベースである。
高品質なデジタル人間40人と、7種類の歪みで生成された1,120個のラベル付き歪曲した人物からなる。
論文 参考訳(メタデータ) (2023-07-06T06:55:30Z) - Perceptual Quality Assessment for Digital Human Heads [35.801468849447126]
3次元走査型デジタルヒューマンヘッド(DHHs)のための最初の大規模品質評価データベースを提案する。
構築されたデータベースは、55の参照DHHと1,540の歪んだDHHと、主観的知覚評価からなる。
実験の結果,本手法は主要なFR測定値の最先端性能を示すことがわかった。
論文 参考訳(メタデータ) (2022-09-20T06:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。