論文の概要: RipsNet: a general architecture for fast and robust estimation of the
persistent homology of point clouds
- arxiv url: http://arxiv.org/abs/2202.01725v1
- Date: Thu, 3 Feb 2022 17:40:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 15:17:59.627777
- Title: RipsNet: a general architecture for fast and robust estimation of the
persistent homology of point clouds
- Title(参考訳): RipsNet: 点雲の永続的ホモロジーを高速かつ堅牢に推定するための汎用アーキテクチャ
- Authors: Thibault de Surrel, Felix Hensel, Mathieu Carri\`ere, Th\'eo Lacombe,
Yuichi Ike, Hiroaki Kurihara, Marc Glisse, Fr\'ed\'eric Chazal
- Abstract要約: テストデータのトポロジ的記述子を一般化能力で効率的に推定できることを示す。
我々は、RipsNetが1-ワッサーシュタイン距離の点で摂動入力に頑健であることを証明する。
合成データと実世界のデータの両方にRipsNetが使われていることを示す。
- 参考スコア(独自算出の注目度): 4.236277880658203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of topological descriptors in modern machine learning applications,
such as Persistence Diagrams (PDs) arising from Topological Data Analysis
(TDA), has shown great potential in various domains. However, their practical
use in applications is often hindered by two major limitations: the
computational complexity required to compute such descriptors exactly, and
their sensitivity to even low-level proportions of outliers. In this work, we
propose to bypass these two burdens in a data-driven setting by entrusting the
estimation of (vectorization of) PDs built on top of point clouds to a neural
network architecture that we call RipsNet. Once trained on a given data set,
RipsNet can estimate topological descriptors on test data very efficiently with
generalization capacity. Furthermore, we prove that RipsNet is robust to input
perturbations in terms of the 1-Wasserstein distance, a major improvement over
the standard computation of PDs that only enjoys Hausdorff stability, yielding
RipsNet to substantially outperform exactly-computed PDs in noisy settings. We
showcase the use of RipsNet on both synthetic and real-world data. Our
open-source implementation is publicly available at
https://github.com/hensel-f/ripsnet and will be included in the Gudhi library.
- Abstract(参考訳): トポロジカルデータ分析(TDA)から生じるパーシステンス図(PD)など、現代の機械学習アプリケーションにおけるトポロジカル記述子の使用は、様々な領域において大きな可能性を示している。
しかしながら、それらのアプリケーションにおける実用的利用は、そのような記述子を正確に計算するのに要する計算の複雑さと、低レベルのオフレイアの比率に対する感度の2つの大きな制限によって妨げられることが多い。
本研究では、点クラウド上に構築されたPDの(ベクトル化)推定をRipsNetと呼ぶニューラルネットワークアーキテクチャに委ねることで、これらの2つの負担をデータ駆動環境で回避することを提案する。
与えられたデータセットでトレーニングされると、ripsnetは一般化能力を持って、テストデータのトポロジカル記述子を非常に効率的に見積もることができる。
さらに,1-ワッサーシュタイン距離の点でRipsNetが入力摂動に頑健であることが証明された。これはハウスドルフ安定性のみを享受するPDの標準計算よりも大きく改善され,ノイズ条件下では精度良く計算されたPDよりも大幅に優れる。
合成データと実世界のデータの両方にRipsNetが使われていることを示す。
私たちのオープンソース実装はhttps://github.com/hensel-f/ripsnetで公開されています。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Training Robust Deep Models for Time-Series Domain: Novel Algorithms and
Theoretical Analysis [32.45387153404849]
時系列分類タスクのための堅牢なDNNを作成するために,RObust Training for Time-Series (RO-TS) と呼ばれる新しいフレームワークを提案する。
時系列アライメントによる和構造を用いた定式化の一般化と利点を示す。
実世界のベンチマーク実験により, RO-TSは, 対戦型トレーニングと比較して, より堅牢なDNNを生成することが示された。
論文 参考訳(メタデータ) (2022-07-09T17:21:03Z) - Smooth densities and generative modeling with unsupervised random
forests [1.433758865948252]
密度推定器の重要な応用は合成データ生成である。
パラメータ制約を伴わない任意の次元における滑らかな密度を推定するための,教師なしランダム森林に基づく新しい手法を提案する。
提案手法の整合性を証明し,既存の木質密度推定器に対する利点を実証する。
論文 参考訳(メタデータ) (2022-05-19T09:50:25Z) - RED++ : Data-Free Pruning of Deep Neural Networks via Input Splitting
and Output Merging [36.027765880474526]
Pruning Deep Neural Networks (DNN) は、推論ランタイムアクセラレーションの目標において、顕著な研究分野である。
本稿では,新しいデータフリープルーニングプロトコルRED++を紹介する。
ハッシュによる精度の保存に関する理論的および実証的な保証について検討する。
論文 参考訳(メタデータ) (2021-09-30T09:31:11Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - Neural Pruning via Growing Regularization [82.9322109208353]
プルーニングの2つの中心的な問題:プルーニングのスケジュールと重み付けの重要度だ。
具体的には, ペナルティ要因が増大するL2正規化変種を提案し, 精度が著しく向上することを示した。
提案アルゴリズムは,構造化プルーニングと非構造化プルーニングの両方において,大規模データセットとネットワークの実装が容易かつスケーラブルである。
論文 参考訳(メタデータ) (2020-12-16T20:16:28Z) - Statistical Mechanical Analysis of Neural Network Pruning [6.029526715675584]
DPPに基づくノードプルーニング法は,実データセット上でテストした場合,競合するアプローチよりも優れていることを示す。
提案手法は,提案手法を理論的に検証し,ベースラインのランダムエッジプルーニング法でさえ,DPPノードプルーニング法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-06-30T09:15:25Z) - Boundary-assisted Region Proposal Networks for Nucleus Segmentation [89.69059532088129]
大量の核が混在しているため、機械学習モデルはうまく機能しない。
我々は、堅牢なインスタンスレベルの核分割を実現する境界支援領域提案ネットワーク(BRP-Net)を考案する。
論文 参考訳(メタデータ) (2020-06-04T08:26:38Z) - A Model-driven Deep Neural Network for Single Image Rain Removal [52.787356046951494]
完全解釈可能なネットワーク構造を持つモデル駆動型ディープニューラルネットワークを提案する。
雨を表現するための畳み込み辞書学習機構に基づいて,新しい単一画像デレーニングモデルを提案する。
すべてのレインカーネルとオペレータは自動的に抽出され、レイン層とクリーンなバックグラウンド層の両方の特徴を忠実に特徴付けることができる。
論文 参考訳(メタデータ) (2020-05-04T09:13:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。