論文の概要: Weighted Birkhoff Averages Accelerate Data-Driven Methods
- arxiv url: http://arxiv.org/abs/2511.17772v1
- Date: Fri, 21 Nov 2025 20:38:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.414975
- Title: Weighted Birkhoff Averages Accelerate Data-Driven Methods
- Title(参考訳): 軽量なBirkhoffがデータ駆動メソッドを高速化
- Authors: Maria Bou-Sakr-El-Tayar, Jason J. Bramburger, Matthew J. Colbrook,
- Abstract要約: 重み付けされたバーホフ平均はより速く収束できる(時としてスーパーポリノミカル、指数関数的にさえも)
重み付き動的モード分解(wtDMD)、重み付き拡張MD(wtEDMD)、重み付きスパース同定(wtSINDy)、重み付き拡散予測という5つの重み付きアルゴリズムを用いてこれを実証した。
フローからEl Nioデータまで、さまざまな例において、メッセージは明確である: 重み付けは何のコストもかからず、実装が容易で、しばしば同じデータから著しく優れた結果をもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many data-driven algorithms in dynamical systems rely on ergodic averages that converge painfully slowly. One simple idea changes this: taper the ends. Weighted Birkhoff averages can converge much faster (sometimes superpolynomially, even exponentially) and can be incorporated seamlessly into existing methods. We demonstrate this with five weighted algorithms: weighted Dynamic Mode Decomposition (wtDMD), weighted Extended DMD (wtEDMD), weighted Sparse Identification of Nonlinear Dynamics (wtSINDy), weighted spectral measure estimation, and weighted diffusion forecasting. Across examples ranging from fluid flows to El Niño data, the message is clear: weighting costs nothing, is easy to implement, and often delivers markedly better results from the same data.
- Abstract(参考訳): 力学系における多くのデータ駆動アルゴリズムは、苦痛にゆっくりと収束するエルゴディック平均に依存している。
端をタップする、というシンプルなアイデアがこれを変えます。
重み付きバーホフ平均はより速く収束し(時として超ポリノミカル、指数関数的にさえも)、既存の方法にシームレスに組み込むことができる。
重み付き動的モード分解(wtDMD)、重み付き拡張MD(wtEDMD)、重み付き非線形ダイナミクスのスパース同定(wtSINDy)、重み付きスペクトル測度推定、重み付き拡散予測の5つのアルゴリズムを用いてこれを実証した。
フローからエルニーニョのデータまで、さまざまな例において、メッセージは明確である: 重み付けは何のコストもかからず、実装が容易で、しばしば同じデータから著しく優れた結果をもたらす。
関連論文リスト
- Critically-Damped Higher-Order Langevin Dynamics for Generative Modeling [9.395262542018235]
拡散確率モデル(DDPM)は完全に新しい生成AI手法のクラスを表す。
彼らは、微分方程式として表現されるランゲヴィン力学を用いて、データをノイズに変換するプロセス、前方プロセス、およびノイズを生成されたデータに変換するプロセスを記述する。
クリティカルダンピングは、Critical-Damped Langevin Dynamics (CLD)とCritical-Damped Third-Order Langevin Dynamics (TOLD++)で成功している。
論文 参考訳(メタデータ) (2025-06-26T19:50:53Z) - Deep Data Consistency: a Fast and Robust Diffusion Model-based Solver for Inverse Problems [0.0]
本研究では,拡散モデルを用いた逆問題解法において,データ一貫性ステップをディープラーニングモデルで更新するディープデータ一貫性(DDC)を提案する。
線形および非線形タスクにおける最先端手法と比較して、DDCは類似度と実性の両方の指標の優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-17T12:54:43Z) - DynGMA: a robust approach for learning stochastic differential equations from data [13.858051019755283]
パラメータ化されたSDEの遷移密度に新しい近似を導入する。
本手法は, 完全に未知のドリフト拡散関数の学習において, ベースライン法と比較して精度が高い。
低時間解像度と可変、さらには制御不能な時間ステップサイズでデータを処理できる。
論文 参考訳(メタデータ) (2024-02-22T12:09:52Z) - Deep Ensembles Meets Quantile Regression: Uncertainty-aware Imputation for Time Series [45.76310830281876]
量子回帰に基づくタスクネットワークのアンサンブルを用いて不確実性を推定する新しい手法であるQuantile Sub-Ensemblesを提案する。
提案手法は,高い損失率に頑健な高精度な計算法を生成するだけでなく,非生成モデルの高速な学習により,計算効率も向上する。
論文 参考訳(メタデータ) (2023-12-03T05:52:30Z) - Fast Diffusion Model [122.36693015093041]
拡散モデル(DM)は、複雑なデータ分布を捉える能力を持つ様々な分野に採用されている。
本稿では,DM最適化の観点から,高速拡散モデル (FDM) を提案する。
論文 参考訳(メタデータ) (2023-06-12T09:38:04Z) - Orthogonal polynomial approximation and Extended Dynamic Mode Decomposition in chaos [0.0]
拡張動的モード分解(EDMD)は、ダイナミックスの予測とモデル縮小のためのデータ駆動型ツールである。
特に、EDMDがカオスシステムが作用する微分可能な関数のクラスをどのように扱うかは明らかになっていない。
我々は、カオス写像の最も単純な例に基づいて、EDMDの汎用的で厳密な理論を初めて開発する。
論文 参考訳(メタデータ) (2023-05-14T05:14:51Z) - Pseudo Numerical Methods for Diffusion Models on Manifolds [77.40343577960712]
Denoising Diffusion Probabilistic Models (DDPM) は、画像やオーディオサンプルなどの高品質なサンプルを生成することができる。
DDPMは最終的なサンプルを生成するために数百から数千のイテレーションを必要とする。
拡散モデル(PNDM)の擬似数値法を提案する。
PNDMは、1000段DDIM(20倍の高速化)と比較して、50段の精度で高品質な合成画像を生成することができる
論文 参考訳(メタデータ) (2022-02-20T10:37:52Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Dynamic Scale Training for Object Detection [111.33112051962514]
本稿では,オブジェクト検出におけるスケール変動問題を軽減するために,動的スケールトレーニングパラダイム(DST)を提案する。
提案したDSTのスケール変動処理に対する有効性を示す実験結果を得た。
推論オーバーヘッドを導入せず、一般的な検出設定のための無料ランチとして機能する。
論文 参考訳(メタデータ) (2020-04-26T16:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。