論文の概要: Coupling-based Invertible Neural Networks Are Universal Diffeomorphism
Approximators
- arxiv url: http://arxiv.org/abs/2006.11469v2
- Date: Wed, 4 Nov 2020 01:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 21:53:12.078739
- Title: Coupling-based Invertible Neural Networks Are Universal Diffeomorphism
Approximators
- Title(参考訳): 結合型可逆ニューラルネットワークは普遍微分同相近似器である
- Authors: Takeshi Teshima, Isao Ishikawa, Koichi Tojo, Kenta Oono, Masahiro
Ikeda, and Masashi Sugiyama
- Abstract要約: 結合フロー(CF-INN)に基づく可逆ニューラルネットワークは、画像合成や表現学習など、さまざまな機械学習応用を有する。
CF-INNは可逆関数に対する普遍近似器か?
我々は、ある微分同相類に対する普遍性の同値性を示す一般的な定理を証明する。
- 参考スコア(独自算出の注目度): 72.62940905965267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Invertible neural networks based on coupling flows (CF-INNs) have various
machine learning applications such as image synthesis and representation
learning. However, their desirable characteristics such as analytic
invertibility come at the cost of restricting the functional forms. This poses
a question on their representation power: are CF-INNs universal approximators
for invertible functions? Without a universality, there could be a well-behaved
invertible transformation that the CF-INN can never approximate, hence it would
render the model class unreliable. We answer this question by showing a
convenient criterion: a CF-INN is universal if its layers contain affine
coupling and invertible linear functions as special cases. As its corollary, we
can affirmatively resolve a previously unsolved problem: whether normalizing
flow models based on affine coupling can be universal distributional
approximators. In the course of proving the universality, we prove a general
theorem to show the equivalence of the universality for certain diffeomorphism
classes, a theoretical insight that is of interest by itself.
- Abstract(参考訳): 結合フロー(CF-INN)に基づく可逆ニューラルネットワークは、画像合成や表現学習など、さまざまな機械学習応用を有する。
しかし、解析的可逆性のようなそれらの望ましい特性は、関数形式を制限するコストで得られる。
cf-inns は可逆関数に対する普遍近似子なのか?
普遍性がなければ、cf-inn が決して近似できないような可逆変換が存在しうるため、モデルクラスは信頼できない。
cf-inn が普遍的であるとは、その層がアフィンカップリングと可逆線型関数を特別な場合として含むことである。
アフィンカップリングに基づくフローモデルの正規化が普遍分布近似器であるかどうかという、未解決の問題を肯定的に解決することができる。
普遍性を証明する過程で、ある微分同相類に対する普遍性の同値性を示す一般定理を証明し、これはそれ自体が興味を持つ理論的な洞察である。
関連論文リスト
- Homogeneous Artificial Neural Network [0.6526824510982799]
本稿では,機能クラスのグローバルな近似器として,人工知能ニューラルネットワーク(ANN)を提案する。
等質性(英: homogeneity)とは、拡大の位相的特徴を持つ変換群に対する函数の対称性をいう。
論文 参考訳(メタデータ) (2023-11-29T16:16:32Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - A tradeoff between universality of equivariant models and learnability
of symmetries [0.0]
特定の条件下で対称性と関数を同時に学習することは不可能であることを示す。
我々は、ニューラルネットワークの特定のファミリーを分析し、それらが不合理な結果の条件を満たすかどうかを判断する。
実用面では、グループ畳み込みニューラルネットワークの分析により、よく知られた畳み込みを一般化することができる。
論文 参考訳(メタデータ) (2022-10-17T21:23:22Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Learning normal form autoencoders for data-driven discovery of
universal,parameter-dependent governing equations [3.769860395223177]
複雑系は、自然界において正則である少数の不安定性と分岐を示す。
このようなパラメトリック不安定性は、数学的には普遍的アンフォールディング(un-folding)または正規形式力学によって特徴づけられる。
本稿では,基礎となるパラメトリック依存を捉える座標変換を発見するためのディープラーニングオートエンコーダを提案する。
論文 参考訳(メタデータ) (2021-06-09T14:25:18Z) - Approximation Theory of Tree Tensor Networks: Tensorized Multivariate Functions [0.0]
目的関数の任意の滑らか度順序に対して、TN が $h$-uniform と $h$-adaptive 近似を最適に複製できることが示される。
TNは、問題のある特定のクラスに適応することなく、(ほぼ)多くの関数クラスを最適に近似する能力を持っている。
論文 参考訳(メタデータ) (2021-01-28T11:09:40Z) - Universal Approximation Property of Neural Ordinary Differential
Equations [19.861764482790544]
我々は NODE が一定の条件下で連続写像に対して$Lp$-universal approximator を形成することを示す。
また、それらのより強い近似特性、すなわち、大きな微分同相類を近似する$sup$-ユニバーサリティを示す。
論文 参考訳(メタデータ) (2020-12-04T05:53:21Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。