論文の概要: A deep perceptual metric for 3D point clouds
- arxiv url: http://arxiv.org/abs/2102.12839v1
- Date: Thu, 25 Feb 2021 13:24:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 13:53:35.947287
- Title: A deep perceptual metric for 3D point clouds
- Title(参考訳): 3次元点雲の深い知覚指標
- Authors: Maurice Quach, Aladine Chetouani, Giuseppe Valenzise and Frederic
Dufaux
- Abstract要約: ポイントクラウド圧縮ネットワークのトレーニングに使用されるvoxelベースの典型的な損失関数の知覚品質を予測する能力を評価する。
ICIP2020の主観データセットにおける既存の損失関数を上回った3次元点群の知覚損失関数を提案する。
- 参考スコア(独自算出の注目度): 11.203560456033284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point clouds are essential for storage and transmission of 3D content. As
they can entail significant volumes of data, point cloud compression is crucial
for practical usage. Recently, point cloud geometry compression approaches
based on deep neural networks have been explored. In this paper, we evaluate
the ability to predict perceptual quality of typical voxel-based loss functions
employed to train these networks. We find that the commonly used focal loss and
weighted binary cross entropy are poorly correlated with human perception. We
thus propose a perceptual loss function for 3D point clouds which outperforms
existing loss functions on the ICIP2020 subjective dataset. In addition, we
propose a novel truncated distance field voxel grid representation and find
that it leads to sparser latent spaces and loss functions that are more
correlated with perceived visual quality compared to a binary representation.
The source code is available at
https://github.com/mauriceqch/2021_pc_perceptual_loss.
- Abstract(参考訳): ポイントクラウドは3Dコンテンツの保存と送信に不可欠である。
大量のデータを格納できるため、ポイントクラウド圧縮は実用的な使用に不可欠です。
近年,深層ニューラルネットワークに基づく点雲幾何圧縮手法が研究されている。
本稿では,これらのネットワークを訓練するために用いられるvoxel型損失関数の知覚品質を予測する能力を評価する。
一般に用いられる焦点損失と重み付き二元交叉エントロピーは、人間の知覚とあまり相関しないことがわかった。
そこで本研究では,ICIP2020の主観データセットにおける既存の損失関数を上回った3次元点群の知覚損失関数を提案する。
さらに,新しい切り離された距離場ボクセル格子表現を提案し,二項表現と比較して視覚的品質とより相関するスペーサー潜在空間や損失関数を導出することを示した。
ソースコードはhttps://github.com/mauriceqch/2021_pc_perceptual_lossで入手できる。
関連論文リスト
- Deep Loss Convexification for Learning Iterative Models [11.36644967267829]
点雲登録のための反復的最近点(ICP)のような反復的手法は、しばしば悪い局所最適性に悩まされる。
我々は,各地真実の周囲に凸景観を形成する学習を提案する。
論文 参考訳(メタデータ) (2024-11-16T01:13:04Z) - GRASP-Net: Geometric Residual Analysis and Synthesis for Point Cloud
Compression [16.98171403698783]
損失点クラウド幾何圧縮のための深層学習を用いた異種アプローチを提案する。
具体的には、粗い点雲上に存在する不規則な特徴に局所的詳細を変換するために、点ベースネットワークを適用する。
論文 参考訳(メタデータ) (2022-09-09T17:09:02Z) - Shape-invariant 3D Adversarial Point Clouds [111.72163188681807]
逆境と不可視性は、逆境の摂動の2つの基本的だが矛盾する性格である。
3Dポイントのクラウド認識に対する以前の敵対的攻撃は、しばしば目立ったポイントアウトリーチによって批判された。
本稿では,点摂動の効率性と非受容性を両立させる新しい点-クラウド感度マップを提案する。
論文 参考訳(メタデータ) (2022-03-08T12:21:35Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - VR3Dense: Voxel Representation Learning for 3D Object Detection and
Monocular Dense Depth Reconstruction [0.951828574518325]
3次元物体検出と単眼深層再構成ニューラルネットワークを共同トレーニングする方法を紹介します。
推論中に入力、LiDARポイントクラウド、単一のRGBイメージとして取得し、オブジェクトポーズ予測と密に再構築された深度マップを生成します。
物体検出は教師付き方式で訓練されるが,自己教師型と教師型の両方の損失関数を用いて深度予測ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-04-13T04:25:54Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - 3D Point Cloud Feature Explanations Using Gradient-Based Methods [11.355723874379317]
我々は、3Dデータを扱うために画像データに作用することが示されているサリエンシ手法を拡張した。
3Dデータは本質的に疎いという洞察に基づいて、ボクセルベースの分類ネットワークによって学習された特徴を可視化する。
以上の結果から,Voxception-ResNetモデルではパラメータの5%まで精度を損なうことが可能であることが示唆された。
論文 参考訳(メタデータ) (2020-06-09T23:17:24Z) - Associate-3Ddet: Perceptual-to-Conceptual Association for 3D Point Cloud
Object Detection [64.2159881697615]
3Dポイント雲からの物体検出は依然として難しい課題だが、最近の研究ではディープラーニング技術によって封筒を推し進めている。
本稿では,特徴表現の堅牢性を高めるために,ドメイン適応のようなアプローチを提案する。
我々の単純で効果的なアプローチは、3Dポイントクラウドオブジェクト検出の性能を根本的に向上させ、最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-06-08T05:15:06Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。