論文の概要: Screen-based 3D Subjective Experiment Software
- arxiv url: http://arxiv.org/abs/2308.03698v2
- Date: Tue, 8 Aug 2023 03:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 15:46:05.851926
- Title: Screen-based 3D Subjective Experiment Software
- Title(参考訳): スクリーンベース3次元主観実験ソフトウェア
- Authors: Songlin Fan and Wei Gao
- Abstract要約: ユーザが柔軟に3Dの主観的方法論を設計し、高品質なデータセットを構築できる強力なプラットフォームを開発する。
3D刺激の知覚的品質差を正確に説明するために,本ソフトウェアはソース刺激と障害刺激を同時にレンダリングすることができる。
アマチュアの3D視覚化ツールや画像/映像のレンダリング方式と比較して,本手法は一般的な3Dアプリケーションを具体化する。
- 参考スコア(独自算出の注目度): 4.6903969507852885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, widespread 3D graphics (e.g., point clouds and meshes) have drawn
considerable efforts from academia and industry to assess their perceptual
quality by conducting subjective experiments. However, lacking a handy software
for 3D subjective experiments complicates the construction of 3D graphics
quality assessment datasets, thus hindering the prosperity of relevant fields.
In this paper, we develop a powerful platform with which users can flexibly
design their 3D subjective methodologies and build high-quality datasets,
easing a broad spectrum of 3D graphics subjective quality study. To accurately
illustrate the perceptual quality differences of 3D stimuli, our software can
simultaneously render the source stimulus and impaired stimulus and allows both
stimuli to respond synchronously to viewer interactions. Compared with amateur
3D visualization tool-based or image/video rendering-based schemes, our
approach embodies typical 3D applications while minimizing cognitive overload
during subjective experiments. We organized a subjective experiment involving
40 participants to verify the validity of the proposed software. Experimental
analyses demonstrate that subjective tests on our software can produce
reasonable subjective quality scores of 3D models. All resources in this paper
can be found at https://openi.pcl.ac.cn/OpenDatasets/3DQA.
- Abstract(参考訳): 近年,多岐にわたる3dグラフィックス(ポイントクラウドやメッシュなど)が学界や産業から,主観的実験を行うことでその知覚的品質を評価するための多大な努力を集めている。
しかし、3Dの主観的実験のための便利なソフトウェアがないため、3Dグラフィック品質評価データセットの構築が複雑になり、関連する分野の繁栄を妨げる。
本稿では,ユーザが柔軟に3dの主観的方法論を設計でき,高品質なデータセットを構築することができる強力なプラットフォームを開発し,幅広い3dグラフィックの主観的品質研究を可能にした。
3d刺激の知覚的品質差を正確に示すために,本ソフトウェアは音源刺激と刺激障害を同時に描画し,両刺激が同時反応することを可能にする。
アマチュアの3d可視化ツールや画像/ビデオレンダリング方式と比較すると,主観実験時の認知的過負荷を最小限に抑えながら,典型的な3dアプリケーションを具現化する。
提案するソフトウェアの有効性を検証するために,40名を対象に主観実験を行った。
実験分析により,本ソフトウェアにおける主観的テストが3dモデルの合理的主観的品質スコアを生成できることが示されている。
この論文のすべてのリソースはhttps://openi.pcl.ac.cn/OpenDatasets/3DQAで見ることができる。
関連論文リスト
- PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - T$^3$Bench: Benchmarking Current Progress in Text-to-3D Generation [52.029698642883226]
テキストから3Dへの手法は、強力な事前学習拡散モデルを利用してNeRFを最適化する。
ほとんどの研究は、主観的なケーススタディとユーザ実験で結果を評価している。
最初の総合的なテキスト・ツー・3DベンチマークであるT$3$Benchを紹介する。
論文 参考訳(メタデータ) (2023-10-04T17:12:18Z) - Towards Robust and Smooth 3D Multi-Person Pose Estimation from Monocular
Videos in the Wild [10.849750765175754]
POTR-3Dは3DMPPEのためのシーケンスツーシーケンス2D-to-3Dリフトモデルである。
多様な見えないビューに強く一般化し、重いオクルージョンに対するポーズを強く回復し、より自然でスムーズなアウトプットを確実に生成する。
論文 参考訳(メタデータ) (2023-09-15T06:17:22Z) - SL3D: Self-supervised-Self-labeled 3D Recognition [89.19932178712065]
自己教師付き自己ラベル型3D認識(SL3D)フレームワークを提案する。
SL3Dはクラスタリングと学習機能表現という2つの結合した目的を同時に解決する。
分類、オブジェクト検出、セマンティックセグメンテーションなど、さまざまな3D認識タスクに応用することができる。
論文 参考訳(メタデータ) (2022-10-30T11:08:25Z) - An Empirical Study of Pseudo-Labeling for Image-based 3D Object
Detection [72.30883544352918]
異なる条件下で,擬似ラベルがベースラインモデルに対して効果的に監視できるかどうかを検討する。
ベルとホイッスルを使わずにKITTI-3Dテストセットの適度なレベルを20.23 APで達成し、ベースラインモデルを6.03 APで改善した。
この研究が、半教師付き環境下で画像に基づく3D検出コミュニティに洞察を与えてくれることを願っている。
論文 参考訳(メタデータ) (2022-08-15T12:17:46Z) - Interactive Annotation of 3D Object Geometry using 2D Scribbles [84.51514043814066]
本稿では,ポイントクラウドデータとRGB画像から3次元オブジェクト形状をアノテートする対話型フレームワークを提案する。
当社のフレームワークは,芸術的,グラフィック的専門知識のないナイーブユーザを対象としている。
論文 参考訳(メタデータ) (2020-08-24T21:51:29Z) - SAILenv: Learning in Virtual Visual Environments Made Simple [16.979621213790015]
仮想3Dシーンで視覚認識を実験できる新しいプラットフォームを提案する。
すべてのアルゴリズムを仮想世界とインターフェースするためには数行のコードが必要であり、非3Dグラフィックの専門家は容易に3D環境自体をカスタマイズできる。
我々のフレームワークはピクセルレベルのセマンティクスとインスタンスのラベル付け、深さ、そして私たちの知る限り、それは3Dエンジンから直接受け継がれるモーション関連情報を提供する唯一のものである。
論文 参考訳(メタデータ) (2020-07-16T09:50:23Z) - Differentiable Rendering: A Survey [22.35293459579154]
微分レンダリングは、画像を通して3Dオブジェクトの勾配を計算し伝播させる新しい分野である。
本稿では、既存の文献をレビューし、差別化可能なレンダリングの現状と応用、オープンな研究課題について論じる。
論文 参考訳(メタデータ) (2020-06-22T08:14:52Z) - Monocular Real-time Hand Shape and Motion Capture using Multi-modal Data [77.34069717612493]
本稿では,100fpsの単眼手形状とポーズ推定の新たな手法を提案する。
これは、利用可能なハンドトレーニングデータのソースをすべて活用できるように設計された、新しい学習ベースのアーキテクチャによって実現されている。
3次元手関節検出モジュールと逆キネマティクスモジュールを備えており、3次元手関節位置だけでなく、1つのフィードフォワードパスでそれらを関節回転にマッピングする。
論文 参考訳(メタデータ) (2020-03-21T03:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。