論文の概要: GMS-3DQA: Projection-based Grid Mini-patch Sampling for 3D Model Quality
Assessment
- arxiv url: http://arxiv.org/abs/2306.05658v2
- Date: Wed, 31 Jan 2024 09:30:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 18:05:47.501425
- Title: GMS-3DQA: Projection-based Grid Mini-patch Sampling for 3D Model Quality
Assessment
- Title(参考訳): GMS-3DQA:3次元モデル品質評価のための投影型グリッドミニパッチサンプリング
- Authors: Zicheng Zhang, Wei Sun, Houning Wu, Yingjie Zhou, Chunyi Li, Xiongkuo
Min, Guangtao Zhai, Weisi Lin
- Abstract要約: 従来のプロジェクションに基づく3DQA手法は,複数プロジェクションから特徴を直接抽出して品質予測精度を確保する。
我々は,Non-Reference (NR) projection-based textitunderlineGrid underlineMini-patch underlineSampling underline3D Model underlineQuality underlineAssessment (GMS-3DQA)法を提案する。
提案されたGMS-3DQAは、他の3Dよりもはるかに少ない計算資源と推論時間を必要とする
- 参考スコア(独自算出の注目度): 82.93561866101604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, most 3D model quality assessment (3DQA) methods have been aimed at
improving performance. However, little attention has been paid to the
computational cost and inference time required for practical applications.
Model-based 3DQA methods extract features directly from the 3D models, which
are characterized by their high degree of complexity. As a result, many
researchers are inclined towards utilizing projection-based 3DQA methods.
Nevertheless, previous projection-based 3DQA methods directly extract features
from multi-projections to ensure quality prediction accuracy, which calls for
more resource consumption and inevitably leads to inefficiency. Thus in this
paper, we address this challenge by proposing a no-reference (NR)
projection-based \textit{\underline{G}rid \underline{M}ini-patch
\underline{S}ampling \underline{3D} Model \underline{Q}uality
\underline{A}ssessment (GMS-3DQA)} method. The projection images are rendered
from six perpendicular viewpoints of the 3D model to cover sufficient quality
information. To reduce redundancy and inference resources, we propose a
multi-projection grid mini-patch sampling strategy (MP-GMS), which samples grid
mini-patches from the multi-projections and forms the sampled grid mini-patches
into one quality mini-patch map (QMM). The Swin-Transformer tiny backbone is
then used to extract quality-aware features from the QMMs. The experimental
results show that the proposed GMS-3DQA outperforms existing state-of-the-art
NR-3DQA methods on the point cloud quality assessment databases. The efficiency
analysis reveals that the proposed GMS-3DQA requires far less computational
resources and inference time than other 3DQA competitors. The code will be
available at https://github.com/zzc-1998/GMS-3DQA.
- Abstract(参考訳): 現在,ほとんどの3次元モデル品質評価手法は性能向上を目的としている。
しかし,実用的応用に必要な計算コストや推論時間にはほとんど注意が払われていない。
モデルに基づく3DQA法は,その複雑さを特徴とする3Dモデルから直接特徴を抽出する。
その結果,多くの研究者が投影型3DQA手法の活用に傾いている。
それにもかかわらず、従来のプロジェクションベースの3DQA手法は、複数のプロジェクションから特徴を直接抽出し、品質予測の精度を保証する。
そこで本稿では,Non-Reference (NR) プロジェクションベースの \textit{\underline{G}rid \underline{M}ini-patch \underline{S}ampling \underline{3D} Model \underline{Q}uality \underline{A}ssessment (GMS-3DQA)} 法を提案する。
投影画像は3次元モデルの垂直な6つの視点から描画され、十分な品質情報をカバーする。
冗長性と推論資源を低減するため,マルチプロジェクションからグリッドミニパッチをサンプリングし,サンプルグリッドミニパッチを1つの品質ミニパッチマップ(QMM)に形成するマルチプロジェクショングリッドミニパッチサンプリング戦略(MP-GMS)を提案する。
Swin-Transformerの小さなバックボーンはQMMから品質を認識した特徴を抽出するために使われる。
実験の結果,提案したGMS-3DQAは,ポイントクラウド品質評価データベース上で,既存のNR-3DQA手法よりも優れていることがわかった。
効率分析により,提案したGMS-3DQAは,他の3DQA競合よりも計算資源と推論時間をはるかに少なくすることがわかった。
コードはhttps://github.com/zzc-1998/GMS-3DQAで入手できる。
関連論文リスト
- Activating Frequency and ViT for 3D Point Cloud Quality Assessment
without Reference [0.49157446832511503]
与えられた3D-PCの非参照品質指標を提案する。
入力属性を品質スコアにマップするには、Deformable Convolutional Network(DCN)とViT(ViT)を組み合わせた軽量ハイブリッドディープモデルを用いる。
その結果,本手法は現在のNR-PCQA測度やPointXRのFR-PCQAよりも優れていた。
論文 参考訳(メタデータ) (2023-12-10T19:13:34Z) - EEP-3DQA: Efficient and Effective Projection-based 3D Model Quality
Assessment [58.16279881415622]
3次元モデルの高品質な特徴を抽出する効率的なモジュールを実現することは困難である。
提案手法は,Non-Reference (NR) underlineEfficient and UnderlineEffective UnderlineProjection-based Underline3D Model underlineQuality underlineAssessment (textbfEEP-3DQA) 法である。
提案されたEEP-3DQAとEEP-3DQA-t (tiny version)の実現
論文 参考訳(メタデータ) (2023-02-17T06:14:37Z) - MM-PCQA: Multi-Modal Learning for No-reference Point Cloud Quality
Assessment [32.495387943305204]
マルチモーダル方式で,新しい非参照点クラウド品質評価(NR-PCQA)指標を提案する。
具体的には、点雲を部分モデルに分割し、点シフトやダウンサンプリングのような局所的な幾何学的歪みを表す。
目標を達成するために、サブモデルと投影された画像は、ポイントベースおよびイメージベースニューラルネットワークで符号化される。
論文 参考訳(メタデータ) (2022-09-01T06:11:12Z) - From 2D to 3D: Re-thinking Benchmarking of Monocular Depth Prediction [80.67873933010783]
我々は,MDPが現在,3Dアプリケーションにおける予測の有用性を評価するのに有効な指標に頼っていることを論じる。
これにより、2Dベースの距離を最適化するのではなく、シーンの3D構造を正確に認識し、推定に向けて改善する新しい手法の設計と開発が制限される。
本稿では,MDP手法の3次元幾何評価に適した指標セットと,提案手法に不可欠な室内ベンチマークRIO-D3Dを提案する。
論文 参考訳(メタデータ) (2022-03-15T17:50:54Z) - No-Reference Quality Assessment for Colored Point Cloud and Mesh Based
on Natural Scene Statistics [36.017914479449864]
色付き3次元モデルに対するNASに基づくノン参照品質評価指標を提案する。
本手法は主に,カラーポイントクラウド品質評価データベース (SJTU-PCQA) とカラーメッシュ品質評価データベース (CMDM) で検証されている。
論文 参考訳(メタデータ) (2021-07-05T14:03:15Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。