論文の概要: Deep Invertible Approximation of Topologically Rich Maps between
Manifolds
- arxiv url: http://arxiv.org/abs/2210.00577v1
- Date: Sun, 2 Oct 2022 17:14:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 17:29:12.150103
- Title: Deep Invertible Approximation of Topologically Rich Maps between
Manifolds
- Title(参考訳): 多様体間の位相リッチ写像の深い可逆近似
- Authors: Michael Puthawala, Matti Lassas, Ivan Dokmanic, Pekka Pankka, Maarten
de Hoop
- Abstract要約: 位相的に興味深い多様体間の写像を安定に近似できるニューラルネットワークの設計法を示す。
局所ビリプシッツ写像、被覆空間、局所同相写像の間の位相的平行性を利用して、$mathcalT circ p circ MathcalE$ という形の新しいネットワークが局所微分同相の普遍近似器であることが分かる。
また、分子の分子イメージングを対称性で処理するためのアーキテクチャの拡張の可能性についても概説する。
- 参考スコア(独自算出の注目度): 17.60434807901964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How can we design neural networks that allow for stable universal
approximation of maps between topologically interesting manifolds? The answer
is with a coordinate projection. Neural networks based on topological data
analysis (TDA) use tools such as persistent homology to learn topological
signatures of data and stabilize training but may not be universal
approximators or have stable inverses. Other architectures universally
approximate data distributions on submanifolds but only when the latter are
given by a single chart, making them unable to learn maps that change topology.
By exploiting the topological parallels between locally bilipschitz maps,
covering spaces, and local homeomorphisms, and by using universal approximation
arguments from machine learning, we find that a novel network of the form
$\mathcal{T} \circ p \circ \mathcal{E}$, where $\mathcal{E}$ is an injective
network, $p$ a fixed coordinate projection, and $\mathcal{T}$ a bijective
network, is a universal approximator of local diffeomorphisms between compact
smooth submanifolds embedded in $\mathbb{R}^n$. We emphasize the case when the
target map changes topology. Further, we find that by constraining the
projection $p$, multivalued inversions of our networks can be computed without
sacrificing universality. As an application, we show that learning a group
invariant function with unknown group action naturally reduces to the question
of learning local diffeomorphisms for finite groups. Our theory permits us to
recover orbits of the group action. We also outline possible extensions of our
architecture to address molecular imaging of molecules with symmetries.
Finally, our analysis informs the choice of topologically expressive starting
spaces in generative problems.
- Abstract(参考訳): 位相的に興味深い多様体間の地図の安定な普遍近似を可能にするニューラルネットワークをどのように設計するか。
答えは座標射影である。
トポロジカルデータ分析(TDA)に基づくニューラルネットワークは、永続ホモロジーのようなツールを使用してデータのトポロジカルシグネチャを学習し、トレーニングを安定化するが、普遍的な近似子ではないかもしれない。
他のアーキテクチャでは、部分多様体上のデータ分布を普遍的に近似するが、後者が単一のチャートによって与えられるときのみ、トポロジーを変更するマップを学べなくなる。
By exploiting the topological parallels between locally bilipschitz maps, covering spaces, and local homeomorphisms, and by using universal approximation arguments from machine learning, we find that a novel network of the form $\mathcal{T} \circ p \circ \mathcal{E}$, where $\mathcal{E}$ is an injective network, $p$ a fixed coordinate projection, and $\mathcal{T}$ a bijective network, is a universal approximator of local diffeomorphisms between compact smooth submanifolds embedded in $\mathbb{R}^n$.
ターゲットマップがトポロジを変える場合のケースを強調します。
さらに、プロジェクション$p$を制約することにより、ネットワークの多値反転を普遍性を犠牲にすることなく計算できることが分かる。
応用として、未知群作用を持つ群不変関数の学習は、有限群に対する局所微分同相を学習する問題に自然に還元されることを示す。
我々の理論は、群作用の軌道を回復することを許している。
また, 対称性を有する分子の分子イメージングへの拡張の可能性についても概説する。
最後に,本解析は,生成問題における位相表現開始空間の選択を知らせる。
関連論文リスト
- A rank decomposition for the topological classification of neural representations [0.0]
この研究では、ニューラルネットワークが連続的なピースワイズアフィンマップと等価であるという事実を活用している。
多様体 $mathcalM$ と部分集合 $A$ の商のホモロジー群を研究し、これらの空間上のいくつかの極小性質を仮定する。
ランダムに狭いネットワークでは、データ多様体の(コ)ホモロジー群が変化する領域が存在することを示す。
論文 参考訳(メタデータ) (2024-04-30T17:01:20Z) - Improving embedding of graphs with missing data by soft manifolds [51.425411400683565]
グラフ埋め込みの信頼性は、連続空間の幾何がグラフ構造とどの程度一致しているかに依存する。
我々は、この問題を解決することができる、ソフト多様体と呼ばれる新しい多様体のクラスを導入する。
グラフ埋め込みにソフト多様体を用いることで、複雑なデータセット上のデータ解析における任意のタスクを追求するための連続空間を提供できる。
論文 参考訳(メタデータ) (2023-11-29T12:48:33Z) - An Approximation Theory for Metric Space-Valued Functions With A View
Towards Deep Learning [25.25903127886586]
任意のポーランド計量空間 $mathcalX$ と $mathcalY$ の間の連続写像の普遍函数近似器を構築する。
特に、必要なディラック測度数は $mathcalX$ と $mathcalY$ の構造によって決定されることを示す。
論文 参考訳(メタデータ) (2023-04-24T16:18:22Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - The decomposition of the higher-order homology embedding constructed
from the $k$-Laplacian [5.076419064097734]
k$-階ラプラシアン $mathbfmathcal L_k$ の零空間は、多様体やネットワークの非自明な位相を符号化する。
多様体の最も単純な位相成分に対応する部分空間に埋め込まれたホモロジーを分解するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-23T00:40:01Z) - Geometric Deep Learning and Equivariant Neural Networks [0.9381376621526817]
幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
論文 参考訳(メタデータ) (2021-05-28T15:41:52Z) - A deep network construction that adapts to intrinsic dimensionality
beyond the domain [79.23797234241471]
本稿では,ReLUを活性化したディープネットワークを用いて,2層合成の近似を$f(x) = g(phi(x))$で検討する。
例えば、低次元埋め込み部分多様体への射影と、低次元集合の集合への距離である。
論文 参考訳(メタデータ) (2020-08-06T09:50:29Z) - MDP Homomorphic Networks: Group Symmetries in Reinforcement Learning [90.20563679417567]
本稿では,深層強化学習のためのMDP準同型ネットワークを提案する。
MDP準同型ネットワーク(英: MDP homomorphic network)は、MDPの結合状態-作用空間における対称性の下で不変なニューラルネットワークである。
このようなネットワークは,グリッドワールドであるCartPoleとPongの非構造化ネットワークよりも高速に収束することを示す。
論文 参考訳(メタデータ) (2020-06-30T15:38:37Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。