論文の概要: Reconstruction of univariate functions from directional persistence
diagrams
- arxiv url: http://arxiv.org/abs/2203.01894v1
- Date: Thu, 3 Mar 2022 18:19:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 16:39:16.928183
- Title: Reconstruction of univariate functions from directional persistence
diagrams
- Title(参考訳): 方向持続図による不定値関数の再構成
- Authors: Aina Ferr\`a, Carles Casacuberta, Oriol Pujol
- Abstract要約: 我々は、断片的線形ケースと滑らかなケースに対するアルゴリズムを提供する。
永続図による関数の近似は、機械学習における重要属性の研究によって動機づけられる。
- 参考スコア(独自算出の注目度): 0.5156484100374058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe a method for approximating a single-variable function $f$ using
persistence diagrams of sublevel sets of $f$ from height functions in different
directions. We provide algorithms for the piecewise linear case and for the
smooth case. Three directions suffice to locate all local maxima and minima of
a piecewise linear continuous function from its collection of directional
persistence diagrams, while five directions are needed in the case of smooth
functions with non-degenerate critical points.
Our approximation of functions by means of persistence diagrams is motivated
by a study of importance attribution in machine learning, where one seeks to
reduce the number of critical points of signal functions without a significant
loss of information for a neural network classifier.
- Abstract(参考訳): 単変数関数 $f$ を高さ関数から異なる方向のサブレベル集合の永続化図を用いて近似する方法を述べる。
我々は、断片的線形ケースと滑らかなケースに対するアルゴリズムを提供する。
非退化臨界点を持つ滑らかな関数の場合、5つの方向が必要となる一方、3つの方向は、その方向持続図の集まりから分断線形連続関数のすべての局所極大と極小を見つけるのに十分である。
パーシステンスダイアグラムによる関数の近似は、ニューラルネットワーク分類器の情報を失うことなく、信号関数の臨界点の数を減らすことを目的とした機械学習における重要帰属の研究に動機づけられている。
関連論文リスト
- Gradient Boosting Mapping for Dimensionality Reduction and Feature Extraction [2.778647101651566]
教師あり学習における根本的な問題は、優れた特徴や距離尺度を見つけることである。
本稿では,弱い学習者の出力が埋め込みを定義する,教師付き次元削減手法を提案する。
組込み座標は教師付き学習タスクにより良い機能を提供することを示す。
論文 参考訳(メタデータ) (2024-05-14T10:23:57Z) - Riemannian Stochastic Approximation for Minimizing Tame Nonsmooth
Objective Functions [3.4483987421251516]
本研究では, 多様体上の成層関数の性質と退化降下, 勾配, 段数減少の挙動について検討し, それらの関数を最小化する。
本稿では、多様体上のそのような成層関数の性質と、その関数を最小化するために、段差を小さくした引き算降下、勾配の挙動について検討する。
論文 参考訳(メタデータ) (2023-02-01T19:03:00Z) - A Functional approach for Two Way Dimension Reduction in Time Series [13.767812547998735]
機能的エンコーダと機能的デコーダからなる非線形関数オンファンクション手法を提案する。
提案手法は,関数が観測される時間点だけでなく,機能的特徴の数を減らし,低次元の潜在表現を与える。
論文 参考訳(メタデータ) (2023-01-01T06:09:15Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Multiway Non-rigid Point Cloud Registration via Learned Functional Map
Synchronization [105.14877281665011]
我々は、点雲上に定義された学習関数に関する地図を同期させることにより、複数の非剛体形状を登録する新しい方法であるSyNoRiMを提案する。
提案手法は,登録精度において最先端の性能を達成できることを実証する。
論文 参考訳(メタデータ) (2021-11-25T02:37:59Z) - Nearly Optimal Regret for Learning Adversarial MDPs with Linear Function
Approximation [92.3161051419884]
我々は、敵対的な報酬と完全な情報フィードバックで有限正方体エピソディックマルコフ決定プロセスのための強化学習を研究します。
我々は、$tildeO(dHsqrtT)$ regretを達成できることを示し、$H$はエピソードの長さである。
また、対数因子までの$tildeOmega(dHsqrtT)$の値が一致することを証明する。
論文 参考訳(メタデータ) (2021-02-17T18:54:08Z) - Learning the Linear Quadratic Regulator from Nonlinear Observations [135.66883119468707]
我々は、LQR with Rich Observations(RichLQR)と呼ばれる連続制御のための新しい問題設定を導入する。
本設定では, 線形力学と二次的コストを有する低次元連続潜伏状態によって環境を要約する。
本結果は,システムモデルと一般関数近似における未知の非線形性を持つ連続制御のための,最初の証明可能なサンプル複雑性保証である。
論文 参考訳(メタデータ) (2020-10-08T07:02:47Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z) - Ill-Posedness and Optimization Geometry for Nonlinear Neural Network
Training [4.7210697296108926]
ネットワーク構築における非線形活性化関数は、損失景観の定常点の分類において重要な役割を担っていることを示す。
浅密度ネットワークの場合、非線形活性化関数は大域ミニマ近傍のヘッセンヌル空間を決定する。
これらの結果を高密度ニューラルネットワークに拡張することにより、最終活性化関数が定常点の分類において重要な役割を果たすことを示す。
論文 参考訳(メタデータ) (2020-02-07T16:33:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。