論文の概要: Application of machine learning regression models to inverse eigenvalue
problems
- arxiv url: http://arxiv.org/abs/2212.04279v1
- Date: Thu, 8 Dec 2022 14:15:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:26:39.726004
- Title: Application of machine learning regression models to inverse eigenvalue
problems
- Title(参考訳): 機械学習回帰モデルの逆固有値問題への応用
- Authors: Nikolaos Pallikarakis and Andreas Ntargaras
- Abstract要約: 機械学習の観点から逆固有値問題の数値解について検討する。
対称ポテンシャルの逆ストラム・リウヴィル固有値問題と球対称屈折率の逆透過固有値問題とがある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we study the numerical solution of inverse eigenvalue problems
from a machine learning perspective. Two different problems are considered: the
inverse Strum-Liouville eigenvalue problem for symmetric potentials and the
inverse transmission eigenvalue problem for spherically symmetric refractive
indices. Firstly, we solve the corresponding direct problems to produce the
required eigenvalues datasets in order to train the machine learning
algorithms. Next, we consider several examples of inverse problems and compare
the performance of each model to predict the unknown potentials and refractive
indices respectively, from a given small set of the lowest eigenvalues. The
supervised regression models we use are k-Nearest Neighbours, Random Forests
and Multi-Layer Perceptron. Our experiments show that these machine learning
methods, under appropriate tuning on their parameters, can numerically solve
the examined inverse eigenvalue problems.
- Abstract(参考訳): 本研究では,機械学習の観点から逆固有値問題の数値解法について検討する。
対称ポテンシャルに対する逆スラム=リオウヴィル固有値問題と、球対称屈折率に対する逆伝達固有値問題である。
まず、機械学習アルゴリズムをトレーニングするために、対応する直接問題を解き、必要な固有値データセットを生成する。
次に、逆問題のいくつかの例を考察し、各モデルの性能を比較して、与えられた最小固有値の小さな集合から、未知のポテンシャルと屈折率をそれぞれ予測する。
私たちが使用する教師付き回帰モデルは、k-ネアレスト近傍、ランダムフォレスト、多層パーセプトロンである。
実験の結果,これらの機械学習手法はパラメータを適切に調整することで,逆固有値問題を数値的に解くことができることがわかった。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - A Guide to Stochastic Optimisation for Large-Scale Inverse Problems [4.926711494319977]
最適化アルゴリズムは、大量のデータを持つ機械学習のデファクトスタンダードです。
我々は、逆問題の観点から、最適化における最先端の総合的な説明を提供する。
私たちは、機械学習で一般的に遭遇しない、ユニークな最適化の課題に焦点を合わせています。
論文 参考訳(メタデータ) (2024-06-10T15:02:30Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - QUBO transformation using Eigenvalue Decomposition [0.5439020425819]
本稿では,基礎となるQ行列の固有値分解を利用して探索過程を変化させ,改良する。
支配的固有値を持つ問題に対して, 顕著な性能向上を示す。
論文 参考訳(メタデータ) (2021-06-19T16:58:15Z) - Analysis of Truncated Orthogonal Iteration for Sparse Eigenvector
Problems [78.95866278697777]
本研究では,多元的固有ベクトルを分散制約で同時に計算するTruncated Orthogonal Iterationの2つの変種を提案する。
次に,我々のアルゴリズムを適用して,幅広いテストデータセットに対するスパース原理成分分析問題を解く。
論文 参考訳(メタデータ) (2021-03-24T23:11:32Z) - Machine Learning for Initial Value Problems of Parameter-Dependent
Dynamical Systems [0.0]
物理パラメータを含む非線形力学系の初期値問題を考察する。
パラメータの集合から軌道の離散値へのマッピングについて検討する。
我々は、軌道のサンプルデータに適合するフィードフォワードニューラルネットワークを採用している。
論文 参考訳(メタデータ) (2021-01-12T16:50:58Z) - Consistency analysis of bilevel data-driven learning in inverse problems [1.0705399532413618]
本稿では,データからの正規化パラメータの適応学習を最適化により検討する。
線形逆問題に対する我々のフレームワークの実装方法を示す。
勾配降下法を用いてオンライン数値スキームを導出する。
論文 参考訳(メタデータ) (2020-07-06T12:23:29Z) - Total Deep Variation: A Stable Regularizer for Inverse Problems [71.90933869570914]
本稿では,データ駆動型汎用全深度変動正規化器について紹介する。
コアでは、畳み込みニューラルネットワークが複数のスケールや連続したブロックで局所的な特徴を抽出する。
我々は多数の画像処理タスクに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-15T21:54:15Z) - Joint learning of variational representations and solvers for inverse
problems with partially-observed data [13.984814587222811]
本稿では,教師付き環境において,逆問題に対する実際の変分フレームワークを学習するためのエンドツーエンドフレームワークを設計する。
変動コストと勾配に基づく解法はどちらも、後者の自動微分を用いたニューラルネットワークとして記述される。
これにより、データ駆動による変分モデルの発見につながる。
論文 参考訳(メタデータ) (2020-06-05T19:53:34Z) - Eigendecomposition-Free Training of Deep Networks for Linear
Least-Square Problems [107.3868459697569]
我々は、ディープネットワークのトレーニングに固有分解のないアプローチを導入する。
この手法は固有分解の明示的な微分よりもはるかに堅牢であることを示す。
我々の手法は収束特性が良く、最先端の結果が得られます。
論文 参考訳(メタデータ) (2020-04-15T04:29:34Z) - Total Deep Variation for Linear Inverse Problems [71.90933869570914]
本稿では,近年のアーキテクチャ設計パターンを深層学習から活用する,学習可能な汎用正規化手法を提案する。
本稿では,古典的画像復元と医用画像再構成問題に対する最先端の性能について述べる。
論文 参考訳(メタデータ) (2020-01-14T19:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。