論文の概要: Regularization of Persistent Homology Gradient Computation
- arxiv url: http://arxiv.org/abs/2011.05804v2
- Date: Sat, 14 Nov 2020 12:50:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 23:24:50.451593
- Title: Regularization of Persistent Homology Gradient Computation
- Title(参考訳): 定常ホモロジー勾配計算の正規化
- Authors: Padraig Corcoran, Bailin Deng
- Abstract要約: 本稿では,グループ化項の追加による永続的ホモロジー計算の正規化手法を提案する。
これは、勾配が個々の点ではなくより大きな実体に対して定義されることを保証するのに役立つ効果がある。
- 参考スコア(独自算出の注目度): 8.7314407902481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Persistent homology is a method for computing the topological features
present in a given data. Recently, there has been much interest in the
integration of persistent homology as a computational step in neural networks
or deep learning. In order for a given computation to be integrated in such a
way, the computation in question must be differentiable. Computing the
gradients of persistent homology is an ill-posed inverse problem with
infinitely many solutions. Consequently, it is important to perform
regularization so that the solution obtained agrees with known priors. In this
work we propose a novel method for regularizing persistent homology gradient
computation through the addition of a grouping term. This has the effect of
helping to ensure gradients are defined with respect to larger entities and not
individual points.
- Abstract(参考訳): 永続ホモロジー(Persistent homology)は、与えられたデータに存在する位相的特徴を計算する方法である。
近年、ニューラルネットワークやディープラーニングにおける計算ステップとしての持続的ホモロジーの統合に多くの関心が寄せられている。
与えられた計算をそのような方法で統合するためには、問題の計算は微分可能である必要がある。
永続ホモロジーの勾配を計算することは無限に多くの解を持つ逆問題である。
したがって、得られた解が既知の先行と一致するように正則化を行うことが重要である。
本研究では,グループ化項の追加による永続的ホモロジー勾配計算の正規化手法を提案する。
これは、勾配が個々の点ではなくより大きな実体に対して定義されることを保証するのに役立つ。
関連論文リスト
- Taming Score-Based Diffusion Priors for Infinite-Dimensional Nonlinear Inverse Problems [4.42498215122234]
本研究では,関数空間におけるベイズ逆問題の解法を提案する。
可能性の対数共空性は仮定せず、非線型逆問題と互換性がある。
従来の正規化法で確立された固定点法に着想を得た新しい収束解析を行う。
論文 参考訳(メタデータ) (2024-05-24T16:17:01Z) - Neural incomplete factorization: learning preconditioners for the conjugate gradient method [2.899792823251184]
我々は、効率的なプレコンディショナーの生成を加速するためのデータ駆動型アプローチを開発する。
一般的に手動のプリコンディショナーをグラフニューラルネットワークの出力に置き換える。
本手法は, 行列の不完全分解を発生させ, 神経不完全分解(NeuralIF)と呼ばれる。
論文 参考訳(メタデータ) (2023-05-25T11:45:46Z) - Posterior and Computational Uncertainty in Gaussian Processes [52.26904059556759]
ガウスのプロセスはデータセットのサイズとともに違法にスケールする。
多くの近似法が開発されており、必然的に近似誤差を導入している。
この余分な不確実性の原因は、計算が限られているため、近似後部を使用すると完全に無視される。
本研究では,観測された有限個のデータと有限個の計算量の両方から生じる組合せ不確実性を一貫した推定を行う手法の開発を行う。
論文 参考訳(メタデータ) (2022-05-30T22:16:25Z) - An application of the splitting-up method for the computation of a
neural network representation for the solution for the filtering equations [68.8204255655161]
フィルタ方程式は、数値天気予報、金融、工学など、多くの現実の応用において中心的な役割を果たす。
フィルタリング方程式の解を近似する古典的なアプローチの1つは、分割法と呼ばれるPDEにインスパイアされた方法を使うことである。
我々はこの手法をニューラルネットワーク表現と組み合わせて、信号プロセスの非正規化条件分布の近似を生成する。
論文 参考訳(メタデータ) (2022-01-10T11:01:36Z) - Random-reshuffled SARAH does not need a full gradient computations [61.85897464405715]
StochAstic Recursive grAdientritHm (SARAH)アルゴリズムは、Gradient Descent (SGD)アルゴリズムのばらつき低減版である。
本稿では,完全勾配の必要性を除去する。
集約された勾配は、SARAHアルゴリズムの完全な勾配の見積もりとなる。
論文 参考訳(メタデータ) (2021-11-26T06:00:44Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z) - On the Iteration Complexity of Hypergradient Computation [38.409444179509705]
機械学習では、上層目標(過度)の勾配は、正確に計算するのは難しいか、あるいは不可能である。
逆モード反復微分と近似的暗黙的微分に基づく過次微分を計算するための一般的なアプローチについて検討する。
この分析は, 共役勾配に基づく近似的暗黙差を最良とする, 上記の手法の計算効率の階層性を示す。
論文 参考訳(メタデータ) (2020-06-29T17:32:47Z) - A Relational Gradient Descent Algorithm For Support Vector Machine
Training [15.338931971492288]
我々は、データをリレーショナル形式にする場合に、SVM(Support Vector Machine)トレーニングのためのアルゴリズムのような勾配勾配を考える。
まず、SVM の目的関数の勾配の定数近似が非巡回結合に対しても$#P$-hardであることを示すことによって、減算問題を克服できないことを示す。
我々は、実際の勾配を用いて達成されたものと同等の速度で安定したインスタンスの収束を保証する疑似勾配'を計算する効率的なアルゴリズムを与える。
論文 参考訳(メタデータ) (2020-05-11T17:50:36Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。