論文の概要: Deep Learning for Subspace Regression
- arxiv url: http://arxiv.org/abs/2509.23249v2
- Date: Wed, 01 Oct 2025 12:37:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 14:33:21.800823
- Title: Deep Learning for Subspace Regression
- Title(参考訳): 部分空間回帰のための深層学習
- Authors: Vladimir Fanaskov, Vladislav Trifonov, Alexander Rudikov, Ekaterina Muravleva, Ivan Oseledets,
- Abstract要約: そのようなスキームを適用する実践的な方法は、計算的に要求されるオフラインステージにおいて、選択されたパラメータセットのサブスペースを計算することである。
現実的な問題に対して、パラメータの空間は高次元であり、古典的な戦略は実現不可能か信頼できない。
本稿では, 回帰問題を緩和し, 部分空間データに適したいくつかの損失関数を導入し, ニューラルネットワークを高次元目標関数の近似として用いることを提案する。
- 参考スコア(独自算出の注目度): 42.94349364701736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is often possible to perform reduced order modelling by specifying linear subspace which accurately captures the dynamics of the system. This approach becomes especially appealing when linear subspace explicitly depends on parameters of the problem. A practical way to apply such a scheme is to compute subspaces for a selected set of parameters in the computationally demanding offline stage and in the online stage approximate subspace for unknown parameters by interpolation. For realistic problems the space of parameters is high dimensional, which renders classical interpolation strategies infeasible or unreliable. We propose to relax the interpolation problem to regression, introduce several loss functions suitable for subspace data, and use a neural network as an approximation to high-dimensional target function. To further simplify a learning problem we introduce redundancy: in place of predicting subspace of a given dimension we predict larger subspace. We show theoretically that this strategy decreases the complexity of the mapping for elliptic eigenproblems with constant coefficients and makes the mapping smoother for general smooth function on the Grassmann manifold. Empirical results also show that accuracy significantly improves when larger-than-needed subspaces are predicted. With the set of numerical illustrations we demonstrate that subspace regression can be useful for a range of tasks including parametric eigenproblems, deflation techniques, relaxation methods, optimal control and solution of parametric partial differential equations.
- Abstract(参考訳): システムの力学を正確に捉えた線形部分空間を指定することで、縮小順序モデリングを行うことが可能である。
線形部分空間が問題のパラメータに明示的に依存する場合、このアプローチは特に魅力的になる。
そのようなスキームを適用する実践的な方法は、計算的に要求されるオフラインステージおよび未知パラメータのオンラインステージ近似サブスペースにおいて、選択されたパラメータの集合に対する部分空間を補間によって計算することである。
現実的な問題に対して、パラメータの空間は高次元であり、古典的な補間戦略は実現不可能か信頼できない。
本稿では、補間問題を回帰に緩和し、部分空間データに適したいくつかの損失関数を導入し、ニューラルネットワークを高次元目標関数の近似として用いることを提案する。
学習問題をさらに単純化するために、与えられた次元の部分空間を予測する代わりに、より大きな部分空間を予測するという冗長性を導入する。
この戦略が定数係数を持つ楕円固有プロブレムの写像の複雑さを減らし、グラスマン多様体上の一般滑らかな函数に対する写像をより滑らかにすることを示す。
実験の結果、より大きい部分空間が予測されると精度が大幅に向上することが示された。
数値図解の集合を用いて、部分空間回帰はパラメトリック固有確率、デフレ法、緩和法、最適制御およびパラメトリック偏微分方程式の解を含む様々なタスクに有用であることを示す。
関連論文リスト
- Adapting Projection-Based Reduced-Order Models using Projected Gaussian Process [5.492716202049269]
パラメータ空間から最適部分空間を含むグラスマン多様体への写像を学習するための射影ガウス過程(pGP)を提案する。
統計的学習手法として、提案したpGPは、データからモデルパラメータを最適に推定(あるいは調整)し、予測に関連する統計的不確かさを定量化する。
論文 参考訳(メタデータ) (2024-10-18T00:02:43Z) - On Learning Gaussian Multi-index Models with Gradient Flow [57.170617397894404]
高次元ガウスデータに対する多次元回帰問題の勾配流について検討する。
低階射影をパラメトリする部分空間よりも、非パラメトリックモデルで低次元リンク関数を無限に高速に学習する2時間スケールのアルゴリズムを考える。
論文 参考訳(メタデータ) (2023-10-30T17:55:28Z) - Nonparametric Linear Feature Learning in Regression Through Regularisation [0.0]
連立線形特徴学習と非パラメトリック関数推定のための新しい手法を提案する。
代替最小化を用いることで、データを反復的に回転させ、先頭方向との整合性を改善する。
提案手法の予測リスクは,最小限の仮定と明示的なレートで最小限のリスクに収束することを確認した。
論文 参考訳(メタデータ) (2023-07-24T12:52:55Z) - Distributed Sketching for Randomized Optimization: Exact
Characterization, Concentration and Lower Bounds [54.51566432934556]
我々はヘシアンの形成が困難である問題に対する分散最適化法を検討する。
ランダム化されたスケッチを利用して、問題の次元を減らし、プライバシを保ち、非同期分散システムにおけるストラグラーレジリエンスを改善します。
論文 参考訳(メタデータ) (2022-03-18T05:49:13Z) - Gaussian Process Subspace Regression for Model Reduction [7.41244589428771]
部分空間値関数はパラメトリック・リダクション・オーダー・モデリング(PROM)を含む幅広い問題に現れる。
PROM では、各パラメータ点は、大きな系行列のペトロフ・ガレルキン射影に使用される部分空間に関連付けることができる。
本稿では,サブスペース予測のための新しいベイズ非モデルとして,ガウス過程部分空間回帰(GPS)モデルを提案する。
論文 参考訳(メタデータ) (2021-07-09T20:41:23Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。