論文の概要: FineMorphs: Affine-diffeomorphic sequences for regression
- arxiv url: http://arxiv.org/abs/2305.17255v1
- Date: Fri, 26 May 2023 20:54:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 20:51:17.441106
- Title: FineMorphs: Affine-diffeomorphic sequences for regression
- Title(参考訳): FineMorphs:回帰のためのアフィン微分型配列
- Authors: Michele Lohr, Laurent Younes
- Abstract要約: モデル状態は学習中に滑らかなベクトル場によって生成される微分同相によって最適に「再形」される。
アフィン変換とベクトル場は最適制御設定内で最適化される。
このモデルは次元を自然に減らし(あるいは増大させる)、最適なベクトル場を通して大きなデータセットに適応することができる。
- 参考スコア(独自算出の注目度): 1.1421942894219896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A multivariate regression model of affine and diffeomorphic transformation
sequences - FineMorphs - is presented. Leveraging concepts from shape analysis,
model states are optimally "reshaped" by diffeomorphisms generated by smooth
vector fields during learning. Affine transformations and vector fields are
optimized within an optimal control setting, and the model can naturally reduce
(or increase) dimensionality and adapt to large datasets via suboptimal vector
fields. An existence proof of solution and necessary conditions for optimality
for the model are derived. Experimental results on real datasets from the UCI
repository are presented, with favorable results in comparison with
state-of-the-art in the literature and densely-connected neural networks in
TensorFlow.
- Abstract(参考訳): アフィンおよび微分同相変換列(ファインモルフ)の多変量回帰モデルを示す。
形状解析から概念を取り入れたモデル状態は、学習中に滑らかなベクトル場によって生成される微分同相によって最適に「再形」される。
アフィン変換とベクトル場は最適制御設定内で最適化され、モデルは自然に次元を減少(あるいは増大)し、最適ベクトル場を介して大きなデータセットに適応することができる。
解の存在証明とモデルに対する最適性に必要な条件が導出される。
UCIレポジトリの実際のデータセットに関する実験結果は、文献の最先端とTensorFlowの高密度に接続されたニューラルネットワークと比較して好意的な結果である。
関連論文リスト
- Optimal Matrix-Mimetic Tensor Algebras via Variable Projection [0.0]
行列緩和性(Matrix mimeticity)は、テンソルを、行列に類似した乗算、分解、解析が可能な作用素として解釈することから生じる。
我々は、データの事前の知識に頼ることなく、最適線形写像と対応するテンソル表現を学習する。
可変射影型アルゴリズムの変換と収束解析の独創性理論を提供する。
論文 参考訳(メタデータ) (2024-06-11T04:52:23Z) - NIVeL: Neural Implicit Vector Layers for Text-to-Vector Generation [27.22029199085009]
NIVeL はこの問題をベクトルグラフィックスの望ましい特性を保存する別の中間領域で再解釈する。
実験の結果,NIVeL はテキストからベクターまでのグラフィクスの結果を,最先端のグラフィクスよりもはるかに高い品質で生成した。
論文 参考訳(メタデータ) (2024-05-24T05:15:45Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Graph Polynomial Convolution Models for Node Classification of
Non-Homophilous Graphs [52.52570805621925]
本研究では,高階グラフ畳み込みからの効率的な学習と,ノード分類のための隣接行列から直接学習する。
得られたモデルが新しいグラフと残留スケーリングパラメータをもたらすことを示す。
提案手法は,非親和性パラメータのノード分類における精度の向上を実証する。
論文 参考訳(メタデータ) (2022-09-12T04:46:55Z) - Using Shape Constraints for Improving Symbolic Regression Models [0.0]
形状制約付きシンボル回帰のためのアルゴリズムを記述・解析する。
物理教科書の一連のモデルを用いてアルゴリズムをテストする。
その結果、全てのアルゴリズムが全ての形状制約に適合するモデルを見つけることができることがわかった。
論文 参考訳(メタデータ) (2021-07-20T12:53:28Z) - Efficient Semi-Implicit Variational Inference [65.07058307271329]
効率的でスケーラブルな半単純外挿 (SIVI) を提案する。
本手法はSIVIの証拠を低勾配値の厳密な推測にマッピングする。
論文 参考訳(メタデータ) (2021-01-15T11:39:09Z) - Learning Convex Optimization Models [0.5524804393257919]
凸最適化モデルは、凸最適化問題を解くことにより、入力からの出力を予測する。
入力-出力ペアのデータセットが与えられた凸最適化モデルにおいて,パラメータを学習する手法を提案する。
論文 参考訳(メタデータ) (2020-06-07T20:01:51Z) - Analysis of Bayesian Inference Algorithms by the Dynamical Functional
Approach [2.8021833233819486]
学生自明なシナリオにおいて,大ガウス潜在変数モデルを用いて近似推論のアルゴリズムを解析する。
完全データモデルマッチングの場合、レプリカ法から派生した静的順序パラメータの知識により、効率的なアルゴリズム更新が得られる。
論文 参考訳(メタデータ) (2020-01-14T17:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。