論文の概要: Streaming Operator Inference for Model Reduction of Large-Scale Dynamical Systems
- arxiv url: http://arxiv.org/abs/2601.12161v1
- Date: Sat, 17 Jan 2026 20:46:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.491071
- Title: Streaming Operator Inference for Model Reduction of Large-Scale Dynamical Systems
- Title(参考訳): 大規模力学系のモデル削減のためのストリーミング演算子推論
- Authors: Tomoki Koike, Prakash Mohan, Marc T. Henry de Frahan, Julie Bessac, Elizabeth Qian,
- Abstract要約: 本稿では,データストリームの逐次到着から縮小モデルを学習するStreaming OpInfを提案する。
提案手法は,メモリ要求を99%以上削減し,次元を31,000倍以上削減しながら,バッチOpInfに匹敵する精度を実現する。
- 参考スコア(独自算出の注目度): 0.2609784101826761
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Projection-based model reduction enables efficient simulation of complex dynamical systems by constructing low-dimensional surrogate models from high-dimensional data. The Operator Inference (OpInf) approach learns such reduced surrogate models through a two-step process: constructing a low-dimensional basis via Singular Value Decomposition (SVD) to compress the data, then solving a linear least-squares (LS) problem to infer reduced operators that govern the dynamics in this compressed space, all without access to the underlying code or full model operators, i.e., non-intrusively. Traditional OpInf operates as a batch learning method, where both the SVD and LS steps process all data simultaneously. This poses a barrier to deployment of the approach on large-scale applications where dataset sizes prevent the loading of all data into memory at once. Additionally, the traditional batch approach does not naturally allow model updates using new data acquired during online computation. To address these limitations, we propose Streaming OpInf, which learns reduced models from sequentially arriving data streams. Our approach employs incremental SVD for adaptive basis construction and recursive LS for streaming operator updates, eliminating the need to store complete data sets while enabling online model adaptation. The approach can flexibly combine different choices of streaming algorithms for numerical linear algebra: we systematically explore the impact of these choices both analytically and numerically to identify effective combinations for accurate reduced model learning. Numerical experiments on benchmark problems and a large-scale turbulent channel flow demonstrate that Streaming OpInf achieves accuracy comparable to batch OpInf while reducing memory requirements by over 99% and enabling dimension reductions exceeding 31,000x, resulting in orders-of-magnitude faster predictions.
- Abstract(参考訳): 投影に基づくモデル還元は、高次元データから低次元サロゲートモデルを構築することにより、複雑な力学系の効率的なシミュレーションを可能にする。
演算子推論(OpInf)アプローチは、データ圧縮のためにSingular Value Decomposition(SVD)を介して低次元基底を構築し、次に線形最小二乗問題(LS)を解き、この圧縮空間のダイナミクスを管理する縮小作用素を推論する。
従来のOpsInfはバッチ学習メソッドとして動作し、SVDとLSの両方が同時にすべてのデータを処理します。
これは、データセットサイズがすべてのデータを一度にメモリにロードするのを防ぐような、大規模なアプリケーションにアプローチをデプロイする上で、障壁となる。
さらに、従来のバッチアプローチでは、オンライン計算中に取得した新しいデータを使ったモデル更新が自然に可能である訳ではない。
このような制限に対処するため,データストリームの逐次到着から縮小モデルを学ぶStreaming OpInfを提案する。
提案手法では,適応ベース構築のためのインクリメンタルSVDと,ストリーミング演算子更新のための再帰的LSを用いて,オンラインモデル適応を実現するとともに,完全なデータセットを格納する必要がなくなる。
解析的および数値的にこれらの選択の影響を体系的に検討し、精度の低いモデル学習のための効果的な組み合わせを同定する。
ベンチマーク問題と大規模乱流流の数値実験により、Streaming OpInfは、バッチOpInfに匹敵する精度を達成し、メモリ要求を99%以上削減し、31,000倍以上の次元削減を可能にした。
関連論文リスト
- Scaling LLM Speculative Decoding: Non-Autoregressive Forecasting in Large-Batch Scenarios [76.85739138203014]
本稿では,一方向および注目メカニズムを加速する新しいアーキテクチャであるSpecFormerを紹介する。
また,SpecFormerはトレーニング要求の低減と計算コストの削減を実現している。
論文 参考訳(メタデータ) (2025-11-25T14:20:08Z) - Model Inversion with Layer-Specific Modeling and Alignment for Data-Free Continual Learning [19.12792297140574]
継続的な学習は、以前のタスクのパフォーマンスを維持しながら、一連のタスクでモデルを漸進的にトレーニングすることを目的としています。
データの保存と再生は、プライバシやセキュリティ上の制約によって不可能になることが多い。
単層最適化における高速収束にインスパイアされたPMI(Per-layer Model Inversion)を提案する。
論文 参考訳(メタデータ) (2025-10-30T09:58:48Z) - Provably Efficient Online RLHF with One-Pass Reward Modeling [70.82499103200402]
人間のフィードバックからの強化学習は、大規模言語モデルと人間の好みを合わせることに顕著な成功を収めた。
オンラインRLHFは有望な方向性として現れ、反復的なデータ収集と改善を可能にしている。
本稿では,過去のデータを保存する必要をなくし,反復毎に一定時間更新を行うワンパス報酬モデリング手法を提案する。
論文 参考訳(メタデータ) (2025-02-11T02:36:01Z) - Adaptive Data Optimization: Dynamic Sample Selection with Scaling Laws [59.03420759554073]
本稿では,オンライン手法でデータ分散を最適化するアルゴリズムであるAdaptive Data Optimization (ADO)を導入する。
ADOは外部の知識やプロキシモデル、モデル更新の変更を必要としない。
ADOは、ドメインごとのスケーリング法則を使用して、トレーニング中の各ドメインの学習ポテンシャルを推定し、データ混合を調整する。
論文 参考訳(メタデータ) (2024-10-15T17:47:44Z) - High-Dimensional Distributed Sparse Classification with Scalable Communication-Efficient Global Updates [50.406127962933915]
我々はコミュニケーション効率のよい分散ロジスティック回帰モデルを学ぶことができる問題に対する解決策を開発する。
実験では、いくつかの分散更新ステップだけで、分散アルゴリズムよりも精度が大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-07-08T19:34:39Z) - Solving Inverse Problems with Model Mismatch using Untrained Neural Networks within Model-based Architectures [14.551812310439004]
モデルベースアーキテクチャでは,各インスタンスの計測領域におけるデータの一貫性を一致させるために,トレーニングされていないフォワードモデル残差ブロックを導入する。
提案手法は,パラメータ感受性が低く,追加データを必要としない統一解を提供し,前方モデルの同時適用と1パスの再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-07T19:02:13Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Generalised Latent Assimilation in Heterogeneous Reduced Spaces with
Machine Learning Surrogate Models [10.410970649045943]
我々は,低次サロゲートモデルと新しいデータ同化手法を組み合わせたシステムを開発した。
一般化された潜在同化は、低次モデリングによって提供される効率とデータ同化の精度の両方の恩恵を受けることができる。
論文 参考訳(メタデータ) (2022-04-07T15:13:12Z) - Non-linear manifold ROM with Convolutional Autoencoders and Reduced
Over-Collocation method [0.0]
非アフィンパラメトリックな依存、非線形性、興味のモデルにおける対流支配的な規則は、ゆっくりとしたコルモゴロフ n-幅の崩壊をもたらす。
我々は,Carlbergらによって導入された非線形多様体法を,オーバーコロケーションの削減とデコーダの教師/学生による学習により実現した。
本研究では,2次元非線形保存法と2次元浅水モデルを用いて方法論を検証し,時間とともに動的に進化する純粋データ駆動型手法と長期記憶ネットワークとの比較を行った。
論文 参考訳(メタデータ) (2022-03-01T11:16:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。