論文の概要: Active Sampling of Interpolation Points to Identify Dominant Subspaces for Model Reduction
- arxiv url: http://arxiv.org/abs/2409.03892v1
- Date: Thu, 5 Sep 2024 19:59:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-09 17:30:22.581359
- Title: Active Sampling of Interpolation Points to Identify Dominant Subspaces for Model Reduction
- Title(参考訳): モデル縮小のための支配部分空間の同定のための補間点のアクティブサンプリング
- Authors: Celine Reddig, Pawan Goyal, Igor Pontes Duff, Peter Benner,
- Abstract要約: 支配的到達可能部分空間と観測可能部分空間を用いた線形構造系のモデル削減について検討する。
すべての可能な点が $-$ であるようなトレーニングセット $-$ が大きければ、これらの部分空間は多くの大規模線形系を解くことで決定できる。
本研究では,与えられたトレーニングセットから数点のみをサンプリングし,それらの部分空間を正確に推定できるアクティブサンプリング戦略を提案する。
- 参考スコア(独自算出の注目度): 7.818201674097184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model reduction is an active research field to construct low-dimensional surrogate models of high fidelity to accelerate engineering design cycles. In this work, we investigate model reduction for linear structured systems using dominant reachable and observable subspaces. When the training set $-$ containing all possible interpolation points $-$ is large, then these subspaces can be determined by solving many large-scale linear systems. However, for high-fidelity models, this easily becomes computationally intractable. To circumvent this issue, in this work, we propose an active sampling strategy to sample only a few points from the given training set, which can allow us to estimate those subspaces accurately. To this end, we formulate the identification of the subspaces as the solution of the generalized Sylvester equations, guiding us to select the most relevant samples from the training set to achieve our goals. Consequently, we construct solutions of the matrix equations in low-rank forms, which encode subspace information. We extensively discuss computational aspects and efficient usage of the low-rank factors in the process of obtaining reduced-order models. We illustrate the proposed active sampling scheme to obtain reduced-order models via dominant reachable and observable subspaces and present its comparison with the method where all the points from the training set are taken into account. It is shown that the active sample strategy can provide us $17$x speed-up without sacrificing any noticeable accuracy.
- Abstract(参考訳): モデル縮小は、工学設計サイクルを加速するために、高忠実度の低次元サロゲートモデルを構築するための活発な研究分野である。
本研究では,支配的到達可能部分空間と観測可能部分空間を用いた線形構造系のモデル還元について検討する。
可能な補間点を全て含むトレーニングセット $-$ が大きければ、これらの部分空間は多くの大規模線形系を解くことで決定できる。
しかし、高忠実度モデルでは、これは容易に計算的に難解になる。
この問題を回避するため,本研究では,与えられたトレーニングセットから数点のみをサンプリングし,それらの部分空間を正確に推定できるアクティブサンプリング戦略を提案する。
この目的のために、一般化されたシルヴェスター方程式の解として部分空間の同定を定式化し、目標を達成するためにトレーニングセットから最も関連性の高いサンプルを選択するように指示する。
その結果、サブスペース情報をエンコードする低ランク形式の行列方程式の解を構築した。
縮小次数モデルを得る過程における低ランク因子の計算的側面と効率的な利用について論じる。
提案手法は, 有界かつ観測可能な部分空間を経由した低次モデルの探索と, トレーニングセットから得られるすべての点を考慮に入れた手法との比較を行う。
アクティブなサンプル戦略は、顕著な精度を犠牲にすることなく、17ドル(約1,300円)のスピードアップを提供できる。
関連論文リスト
- On Sampling Strategies for Spectral Model Sharding [7.185534285278903]
本研究では,そのようなシャーディングのための2つのサンプリング戦略を提案する。
第1は元の重みの偏りのない推定器を生成し、第2は正方形の近似誤差を最小限にすることを目的としている。
これら2つの手法が,様々な一般的なデータセットの性能向上につながることを実証した。
論文 参考訳(メタデータ) (2024-10-31T16:37:25Z) - Dynamical Measure Transport and Neural PDE Solvers for Sampling [77.38204731939273]
本研究では, 対象物へのトラクタブル密度関数の移動として, 確率密度からサンプリングする作業に取り組む。
物理インフォームドニューラルネットワーク(PINN)を用いて各偏微分方程式(PDE)の解を近似する。
PINNはシミュレーションと離散化のない最適化を可能にし、非常に効率的に訓練することができる。
論文 参考訳(メタデータ) (2024-07-10T17:39:50Z) - Model-Free Active Exploration in Reinforcement Learning [53.786439742572995]
強化学習における探索問題について検討し,新しいモデルフリーソリューションを提案する。
我々の戦略は、最先端の探査アプローチよりも高速に効率的な政策を特定できる。
論文 参考訳(メタデータ) (2024-06-30T19:00:49Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - K-band: Self-supervised MRI Reconstruction via Stochastic Gradient Descent over K-space Subsets [16.785465381844435]
我々はkバンドと呼ばれる新しい数学的枠組みを導入し、部分的かつ限定的なk空間データのみを用いてDLモデルを訓練する。
各トレーニングイテレーションでは、完全にサンプリングされたk-空間を勾配を計算する代わりに、小さなk-空間の部分のみを使用する。
生MRIデータを用いた数値実験により、kバンドは限定分解能データで訓練された他の2つの方法より優れていることが示された。
論文 参考訳(メタデータ) (2023-08-05T22:07:37Z) - MILO: Model-Agnostic Subset Selection Framework for Efficient Model
Training and Tuning [68.12870241637636]
モデル学習からサブセット選択を分離するモデルに依存しないサブセット選択フレームワークMILOを提案する。
実験結果から、MILOはモデルを3ドル(約3,300円)でトレーニングし、ハイパーパラメータを20ドル(約2,300円)でチューニングできます。
論文 参考訳(メタデータ) (2023-01-30T20:59:30Z) - The Neural Network shifted-Proper Orthogonal Decomposition: a Machine
Learning Approach for Non-linear Reduction of Hyperbolic Equations [0.0]
本研究では,統計的学習フレームワークにおいて,正しい前処理変換を自動的に検出する問題にアプローチする。
純粋にデータ駆動方式により、線形部分空間操作の既存のアプローチを未知の対流場を持つ非線形双曲問題に一般化することができる。
提案アルゴリズムは、その性能をベンチマークするために単純なテストケースに対して検証され、その後、多相シミュレーションに成功している。
論文 参考訳(メタデータ) (2021-08-14T15:13:35Z) - Manifold learning-based polynomial chaos expansions for high-dimensional
surrogate models [0.0]
システム記述における不確実性定量化(UQ)のための多様体学習に基づく手法を提案する。
提案手法は高精度な近似を達成でき、UQタスクの大幅な高速化につながる。
論文 参考訳(メタデータ) (2021-07-21T00:24:15Z) - Sample-Efficient Reinforcement Learning Is Feasible for Linearly
Realizable MDPs with Limited Revisiting [60.98700344526674]
線形関数表現のような低複雑度モデルがサンプル効率のよい強化学習を可能にする上で重要な役割を果たしている。
本稿では,オンライン/探索的な方法でサンプルを描画するが,制御不能な方法で以前の状態をバックトラックし,再訪することができる新しいサンプリングプロトコルについて検討する。
この設定に合わせたアルゴリズムを開発し、特徴次元、地平線、逆の準最適ギャップと実際にスケールするサンプル複雑性を実現するが、状態/作用空間のサイズではない。
論文 参考訳(メタデータ) (2021-05-17T17:22:07Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。