論文の概要: Diffeomorphic interpolation for efficient persistence-based topological optimization
- arxiv url: http://arxiv.org/abs/2405.18820v1
- Date: Wed, 29 May 2024 07:00:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 18:28:55.402999
- Title: Diffeomorphic interpolation for efficient persistence-based topological optimization
- Title(参考訳): 効率的な持続型位相最適化のための微分型補間法
- Authors: Mathieu Carriere, Marc Theveneau, Théo Lacombe,
- Abstract要約: トポロジカルデータ分析(TDA)は、構造化オブジェクトから定量的トポロジカル記述子を抽出するパイプラインを提供する。
提案手法は, サブサンプル上で計算された勾配から導出される微分同相を, 完全な入力対象の座標を更新するために有効であることを示す。
我々はまた,ブラックボックスオートエンコーダ(AE)正則化に対する我々のアプローチの妥当性を示す。そこでは,固定,事前学習,ブラックボックスAEモデルに関連する潜伏空間のトポロジ的先行を強制することを目的としている。
- 参考スコア(独自算出の注目度): 3.7550827441501844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Topological Data Analysis (TDA) provides a pipeline to extract quantitative topological descriptors from structured objects. This enables the definition of topological loss functions, which assert to what extent a given object exhibits some topological properties. These losses can then be used to perform topological optimizationvia gradient descent routines. While theoretically sounded, topological optimization faces an important challenge: gradients tend to be extremely sparse, in the sense that the loss function typically depends on only very few coordinates of the input object, yielding dramatically slow optimization schemes in practice.Focusing on the central case of topological optimization for point clouds, we propose in this work to overcome this limitation using diffeomorphic interpolation, turning sparse gradients into smooth vector fields defined on the whole space, with quantifiable Lipschitz constants. In particular, we show that our approach combines efficiently with subsampling techniques routinely used in TDA, as the diffeomorphism derived from the gradient computed on a subsample can be used to update the coordinates of the full input object, allowing us to perform topological optimization on point clouds at an unprecedented scale. Finally, we also showcase the relevance of our approach for black-box autoencoder (AE) regularization, where we aim at enforcing topological priors on the latent spaces associated to fixed, pre-trained, black-box AE models, and where we show thatlearning a diffeomorphic flow can be done once and then re-applied to new data in linear time (while vanilla topological optimization has to be re-run from scratch). Moreover, reverting the flow allows us to generate data by sampling the topologically-optimized latent space directly, yielding better interpretability of the model.
- Abstract(参考訳): トポロジカルデータ分析(TDA)は、構造化オブジェクトから定量的トポロジカル記述子を抽出するパイプラインを提供する。
これにより、ある対象が幾らかの位相的性質を示す範囲を主張する位相的損失函数の定義が可能になる。
これらの損失は、トポロジカル最適化勾配降下ルーチンの実行に使用できる。
勾配は極めてスパースである傾向があるが、一般に損失関数は入力対象のごくわずかな座標にのみ依存するので、実際は劇的に遅い最適化スキームが得られるので、点雲の位相最適化の中心的なケースに着目して、微分型補間を用いてこの制限を克服し、スパース勾配を空間全体上で定義された滑らかなベクトル場に、量子化リプシッツ定数で変換する。
特に,本手法は,TDAで日常的に使用されるサブサンプリング手法と効率的に組み合わせることで,サブサンプル上で計算された勾配から導出される微分同相法を用いて,全入力オブジェクトの座標を更新し,前例のないスケールで点雲の位相最適化を行うことができることを示す。
最後に,ブラックボックスオートエンコーダ(AE)正則化に対する我々のアプローチの妥当性を示すとともに,固定,事前学習,ブラックボックスAEモデルに関連する潜在空間のトポロジ的事前適用を目標とし,微分型フローの学習を一度に行うことができ,線形時間で新たなデータに再適用可能であることを示す(ただし,バニラトポロジ的最適化はスクラッチから再実行する必要がある)。
さらに、フローを反転させることで、トポロジ的に最適化された潜在空間を直接サンプリングすることでデータを生成することができ、モデルのより優れた解釈可能性が得られる。
関連論文リスト
- A Practical Solver for Scalar Data Topological Simplification [7.079737824450954]
本稿では,トポロジカル単純化の最適化のための実践的アプローチを提案する。
フィラメントループを除去する標準的なトポロジカル手法よりも,本手法が優れていることを示す。
また,本手法は表面処理における遺伝子欠陥の修復にも有効であることを示す。
論文 参考訳(メタデータ) (2024-07-17T08:25:32Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Differentially Private Optimization with Sparse Gradients [60.853074897282625]
微分プライベート(DP)最適化問題を個人勾配の空間性の下で検討する。
これに基づいて、スパース勾配の凸最適化にほぼ最適な速度で純粋および近似DPアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-04-16T20:01:10Z) - Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - Topology-Preserving Dimensionality Reduction via Interleaving
Optimization [10.097180927318703]
本稿では, インターリーブ距離を最小化する最適化手法を次元還元アルゴリズムに組み込む方法について述べる。
データビジュアライゼーションにおけるこのフレームワークの有用性を実証する。
論文 参考訳(メタデータ) (2022-01-31T06:11:17Z) - A Gradient Sampling Algorithm for Stratified Maps with Applications to
Topological Data Analysis [0.0]
我々は、よく知られた勾配サンプリング手法を拡張した新しい勾配降下アルゴリズムを提案する。
次に、低星フィルタ上で計算された永続ホモロジー写像に基づいて、目的関数に本手法を適用する。
論文 参考訳(メタデータ) (2021-09-01T14:07:44Z) - Stochasticity helps to navigate rough landscapes: comparing
gradient-descent-based algorithms in the phase retrieval problem [8.164433158925593]
本研究では,動的降下,永続勾配,ランジュバン景観降下などの解析ベースアルゴリズムについて検討する。
統計的軌道からの統計場理論をアルゴリズムにフルタイムで適用し、開始時と大規模なシステムサイズで適用します。
論文 参考訳(メタデータ) (2021-03-08T17:06:18Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - A Fast and Robust Method for Global Topological Functional Optimization [70.11080854486953]
本稿では, より高速で, より安定で, より堅牢なバックプロパゲーション手法を提案する。
このスキームは、永続化ダイアグラム内のドットの安定な可視化を、データ構造におけるクリティカルでほぼクリティカルな簡易な分布として作成するためにも使用できる。
論文 参考訳(メタデータ) (2020-09-17T18:46:16Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。