論文の概要: A Lennard-Jones Layer for Distribution Normalization
- arxiv url: http://arxiv.org/abs/2402.03287v1
- Date: Mon, 5 Feb 2024 18:43:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 14:22:49.721819
- Title: A Lennard-Jones Layer for Distribution Normalization
- Title(参考訳): 分布正規化のためのレナード・ジョーンズ層
- Authors: Mulun Na and Jonathan Klein and Biao Zhang and Wojtek Pa{\l}ubicki and
S\"oren Pirk and Dominik L. Michels
- Abstract要約: 2次元および3次元点雲の密度の等化にLJL(Lennard-Jones layer)を導入する。
LJLは、個々の点間の反発的および弱誘惑的な相互作用の散逸過程をシミュレートする。
ランダム化された一様分布にランダムに生成された点雲を再分配するためにLJLを適用する。
- 参考スコア(独自算出の注目度): 11.691405579381511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the Lennard-Jones layer (LJL) for the equalization of the
density of 2D and 3D point clouds through systematically rearranging points
without destroying their overall structure (distribution normalization). LJL
simulates a dissipative process of repulsive and weakly attractive interactions
between individual points by considering the nearest neighbor of each point at
a given moment in time. This pushes the particles into a potential valley,
reaching a well-defined stable configuration that approximates an equidistant
sampling after the stabilization process. We apply LJLs to redistribute
randomly generated point clouds into a randomized uniform distribution.
Moreover, LJLs are embedded in the generation process of point cloud networks
by adding them at later stages of the inference process. The improvements in 3D
point cloud generation utilizing LJLs are evaluated qualitatively and
quantitatively. Finally, we apply LJLs to improve the point distribution of a
score-based 3D point cloud denoising network. In general, we demonstrate that
LJLs are effective for distribution normalization which can be applied at
negligible cost without retraining the given neural network.
- Abstract(参考訳): 本稿では, 2次元および3次元点雲の密度の等化を, 全体構造を損なうことなく, 系統的に再配置する手法としてレナード・ジョーンズ層(LJL)を導入する。
ljlは、与えられた時点における各点の最も近い近傍を考慮し、個々の点間の反発的かつ弱い相互作用の散逸過程をシミュレートする。
これは粒子をポテンシャル谷に押し込み、安定化過程の後に等距離サンプリングに近似するよく定義された安定な配置に達する。
ランダムに生成された点雲を再分配するためにLJLを適用する。
さらに、LJLは、推測プロセスの後期にそれらを追加することにより、ポイントクラウドネットワークの生成プロセスに埋め込まれる。
LJLを用いた3次元点雲生成の改善を質的,定量的に評価した。
最後に,LJLを適用して,スコアベースの3Dポイントクラウド denoising ネットワークの点分布を改善する。
一般に、LJLは、与えられたニューラルネットワークを再トレーニングすることなく、無視可能なコストで適用できる分布正規化に有効であることを示す。
関連論文リスト
- Diffusion-Occ: 3D Point Cloud Completion via Occupancy Diffusion [5.189790379672664]
拡散点クラウドコンプリートのための新しいフレームワークである textbfDiffusion-Occ を紹介する。
占有領域をしきい値にすることで、それを完全点雲に変換する。
実験の結果,Diffusion-Occは既存の差別的・生成的手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-27T07:57:58Z) - Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - Density-invariant Features for Distant Point Cloud Registration [29.68594463362292]
Group-wise Contrastive Learning (GCL) スキームは密度不変な幾何学的特徴を抽出する。
我々は,同じ空間位置にある複数の点雲の特徴を類似させる,シンプルで効果的な訓練手法を提案する。
結果として得られる完全畳み込み特徴抽出器は、最先端の手法よりも強力で密度不変である。
論文 参考訳(メタデータ) (2023-07-19T07:11:45Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - PU-Flow: a Point Cloud Upsampling Networkwith Normalizing Flows [58.96306192736593]
本稿では,正規化フローを組み込んだPU-Flowについて述べる。
具体的には、重みが局所的な幾何学的文脈から適応的に学習される潜在空間において、アップサンプリング過程を点として定式化する。
提案手法は, 再現性, 近接精度, 計算効率の観点から, 最先端の深層学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-13T07:45:48Z) - Midpoint Regularization: from High Uncertainty Training to Conservative
Classification [19.252319300590653]
Label Smoothing (LS)は、過信出力分布の生成からモデルをペナライズすることでモデル一般化を改善する。
PLSはまず、ランダムなサンプルペアを平均化して中点サンプルを作成し、その後、各中点サンプルのトレーニング中に滑らかな分布を学習し、その結果、トレーニングのための高い不確実性ラベルを持つ中点を学習する。
論文 参考訳(メタデータ) (2021-06-26T00:31:46Z) - Point Cloud Upsampling via Disentangled Refinement [86.3641957163818]
3Dスキャンによって生成された点雲は、しばしばスパース、非均一、ノイズである。
近年のアップサンプリング手法は, 分布均一性と近接場を両立させながら, 密度の高い点集合を生成することを目的としている。
2つのカスケードサブネットワーク、高密度ジェネレータ、空間精錬器を定式化する。
論文 参考訳(メタデータ) (2021-06-09T02:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。