論文の概要: Point Cloud Classification via Deep Set Linearized Optimal Transport
- arxiv url: http://arxiv.org/abs/2401.01460v1
- Date: Tue, 2 Jan 2024 23:26:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 15:32:12.768804
- Title: Point Cloud Classification via Deep Set Linearized Optimal Transport
- Title(参考訳): ディープセット線形最適輸送による点雲分類
- Authors: Scott Mahan, Caroline Moosm\"uller, Alexander Cloninger
- Abstract要約: 我々は,点雲をL2-$spaceに効率的に同時埋め込むアルゴリズムであるDeep Set Linearized Optimal Transportを紹介した。
この埋め込みはワッサーシュタイン空間内の特定の低次元構造を保持し、点雲の様々なクラスを区別する分類器を構成する。
我々は,有限個のラベル付き点雲を持つフローデータセットの実験を通じて,標準的な深層集合アプローチに対するアルゴリズムの利点を実証する。
- 参考スコア(独自算出の注目度): 51.99765487172328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Deep Set Linearized Optimal Transport, an algorithm designed for
the efficient simultaneous embedding of point clouds into an $L^2-$space. This
embedding preserves specific low-dimensional structures within the Wasserstein
space while constructing a classifier to distinguish between various classes of
point clouds. Our approach is motivated by the observation that $L^2-$distances
between optimal transport maps for distinct point clouds, originating from a
shared fixed reference distribution, provide an approximation of the
Wasserstein-2 distance between these point clouds, under certain assumptions.
To learn approximations of these transport maps, we employ input convex neural
networks (ICNNs) and establish that, under specific conditions, Euclidean
distances between samples from these ICNNs closely mirror Wasserstein-2
distances between the true distributions. Additionally, we train a
discriminator network that attaches weights these samples and creates a
permutation invariant classifier to differentiate between different classes of
point clouds. We showcase the advantages of our algorithm over the standard
deep set approach through experiments on a flow cytometry dataset with a
limited number of labeled point clouds.
- Abstract(参考訳): 本稿では,点雲をL^2-$spaceに効率的に同時埋め込むアルゴリズムであるDeep Set Linearized Optimal Transportを紹介する。
この埋め込みはワッサーシュタイン空間内の特定の低次元構造を保持し、点雲の様々なクラスを区別する分類器を構成する。
本手法は,共有固定参照分布を起点とする異なる点雲に対する最適輸送写像間の$l^2-$ distancesの観測により,これらの点雲間のwaserstein-2距離を一定の仮定で近似する。
これらのトランスポートマップの近似を学習するために、入力凸ニューラルネットワーク(ICNN)を用い、特定の条件下では、これらのICNNのサンプル間のユークリッド距離が、真の分布間のワッサーシュタイン-2距離を密接に反映していることを確立する。
さらに、これらのサンプルの重み付けを行い、異なる点雲のクラスを区別する置換不変種別化器を作成する識別器ネットワークを訓練する。
本研究は,フローサイトメトリーデータセットにラベル付き点群を限定した実験を行うことにより,標準的な深層集合アプローチに対するアルゴリズムの利点を示す。
関連論文リスト
- Canonical Variates in Wasserstein Metric Space [16.668946904062032]
We use the Wasserstein metric to measure distances between distributions, then used by distance-based classification algorithm。
我々の研究の中心は、分類精度を高めるために、ワッサーシュタイン計量空間内の次元の減少である。
本稿では,クラス間変動からクラス内変動への商として定義されたフィッシャー比を最大化する原理に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-24T17:59:21Z) - Multiway Point Cloud Mosaicking with Diffusion and Global Optimization [74.3802812773891]
マルチウェイポイントクラウドモザイクのための新しいフレームワーク(水曜日)を紹介する。
我々のアプローチの核心は、重複を識別し、注意点を洗練する学習されたペアワイズ登録アルゴリズムODINである。
4つの多種多様な大規模データセットを用いて、我々の手法は、全てのベンチマークにおいて大きなマージンで、最先端のペアとローテーションの登録結果を比較した。
論文 参考訳(メタデータ) (2024-03-30T17:29:13Z) - Density-invariant Features for Distant Point Cloud Registration [29.68594463362292]
Group-wise Contrastive Learning (GCL) スキームは密度不変な幾何学的特徴を抽出する。
我々は,同じ空間位置にある複数の点雲の特徴を類似させる,シンプルで効果的な訓練手法を提案する。
結果として得られる完全畳み込み特徴抽出器は、最先端の手法よりも強力で密度不変である。
論文 参考訳(メタデータ) (2023-07-19T07:11:45Z) - Diffeomorphic Mesh Deformation via Efficient Optimal Transport for Cortical Surface Reconstruction [40.73187749820041]
メッシュ変形は、動的シミュレーション、レンダリング、再構成を含む多くの3次元視覚タスクにおいて重要な役割を果たす。
現在のディープラーニングにおける一般的なアプローチは、2つのメッシュからランダムにサンプリングされた2つの点雲とシャンファーの擬似距離を比較することで、2つの面間の差を測定するセットベースアプローチである。
本稿では,メッシュのスライスされたワッサーシュタイン距離を,セットベースアプローチを一般化する確率測度として表現したメッシュ変形の学習指標を提案する。
論文 参考訳(メタデータ) (2023-05-27T19:10:19Z) - Efficient Graph Field Integrators Meet Point Clouds [59.27295475120132]
点雲を符号化するグラフ上での効率的な場積分のためのアルゴリズムを2種類提案する。
第1のクラスであるSeparatorFactorization(SF)は、ポイントメッシュグラフの有界属を利用するが、第2のクラスであるRFDiffusion(RFD)は、ポイントクラウドの一般的なepsilon-nearest-neighborグラフ表現を使用する。
論文 参考訳(メタデータ) (2023-02-02T08:33:36Z) - GeONet: a neural operator for learning the Wasserstein geodesic [13.468026138183623]
本稿では、初期分布と終端分布の入力対から2つのエンドポイント分布を接続するワッサーシュタイン測地線への非線形マッピングを学習するメッシュ不変なディープニューラルネットワークであるGeONetを提案する。
シミュレーション例では,GeONet が標準 OT ソルバと同等の精度で,MNIST データセットに比較して,予測段階の計算コストを桁違いに大幅に削減することを示した。
論文 参考訳(メタデータ) (2022-09-28T21:55:40Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - Differentiable Convolution Search for Point Cloud Processing [114.66038862207118]
本稿では,点雲上での新しい差分畳み込み探索パラダイムを提案する。
純粋にデータ駆動型であり、幾何学的形状モデリングに適した畳み込みのグループを自動生成することができる。
また,内部畳み込みと外部アーキテクチャの同時探索のための共同最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-29T14:42:03Z) - PU-Flow: a Point Cloud Upsampling Networkwith Normalizing Flows [58.96306192736593]
本稿では,正規化フローを組み込んだPU-Flowについて述べる。
具体的には、重みが局所的な幾何学的文脈から適応的に学習される潜在空間において、アップサンプリング過程を点として定式化する。
提案手法は, 再現性, 近接精度, 計算効率の観点から, 最先端の深層学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-13T07:45:48Z) - DeepCLR: Correspondence-Less Architecture for Deep End-to-End Point
Cloud Registration [12.471564670462344]
この研究は、ディープニューラルネットワークを用いたポイントクラウド登録の問題に対処する。
重なり合うデータ内容を持つ2つの点雲間のアライメントを予測する手法を提案する。
提案手法は,最先端の精度と比較手法の最低実行時間を実現する。
論文 参考訳(メタデータ) (2020-07-22T08:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。