論文の概要: BULL-ODE: Bullwhip Learning with Neural ODEs and Universal Differential Equations under Stochastic Demand
- arxiv url: http://arxiv.org/abs/2509.18105v1
- Date: Tue, 09 Sep 2025 10:02:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-28 15:30:14.357979
- Title: BULL-ODE: Bullwhip Learning with Neural ODEs and Universal Differential Equations under Stochastic Demand
- Title(参考訳): BULL-ODE:確率的需要下でのニューラルネットワークと普遍微分方程式を用いたブルウィップ学習
- Authors: Nachiket N. Naik, Prathamesh Dinesh Joshi, Raj Abhijit Dandekar, Rajat Dandekar, Sreedath Panat,
- Abstract要約: 本研究では,需要条件下での継続的な在庫動態の学習と,ブルウィップ効果の予測に構造が役立ったり損なわれたりした場合の定量化について検討する。
BULL-ODEは、右側全体をモデル化する完全に学習されたニューラル・オードと、物理インフォームドな普遍微分方程式(UDE)を比較する。
以上の結果から,ノイズが軽微な場合や時間的に相関する場合には構造を強制する,極端な事象が支配する場合には構造を緩和する,という具体的なガイダンスが得られた。
- 参考スコア(独自算出の注目度): 4.285464959472458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study learning of continuous-time inventory dynamics under stochastic demand and quantify when structure helps or hurts forecasting of the bullwhip effect. BULL-ODE compares a fully learned Neural ODE (NODE) that models the entire right-hand side against a physics-informed Universal Differential Equation (UDE) that preserves conservation and order-up-to structure while learning a small residual policy term. Classical supply chain models explain the bullwhip through control/forecasting choices and information sharing, while recent physics-informed and neural differential equation methods blend domain constraints with learned components. It is unclear whether structural bias helps or hinders forecasting under different demand regimes. We address this by using a single-echelon testbed with three demand regimes - AR(1) (autocorrelated), i.i.d. Gaussian, and heavy-tailed lognormal. Training is done on varying fractions of each trajectory, followed by evaluation of multi-step forecasts for inventory I, order rate O, and demand D. Across the structured regimes, UDE consistently generalizes better: with 90% of the training horizon, inventory RMSE drops from 4.92 (NODE) to 0.26 (UDE) under AR(1) and from 5.96 to 0.95 under Gaussian demand. Under heavy-tailed lognormal shocks, the flexibility of NODE is better. These trends persist as train18 ing data shrinks, with NODE exhibiting phase drift in extrapolation while UDE remains stable but underreacts to rare spikes. Our results provide concrete guidance: enforce structure when noise is light-tailed or temporally correlated; relax structure when extreme events dominate. Beyond inventory control, the results offer guidance for hybrid modeling in scientific and engineering systems: enforce known structure when conservation laws and modest noise dominate, and relax structure to capture extremes in settings where rare events drive dynamics.
- Abstract(参考訳): 本研究では, 確率的需要下での継続的な在庫動態の学習と, ブルウィップ効果の予測に役立つか, 損なうかの定量化について検討する。
BULL-ODEは、完全に学習されたニューラルネットワーク(NODE)を、物理で表現された普遍微分方程式(UDE)と比較する。
古典的なサプライチェーンモデルは、制御/予測の選択と情報共有を通じてブルウィップを説明し、一方、最近の物理学インフォームドおよびニューラル微分方程式法は、学習されたコンポーネントとドメイン制約をブレンドする。
構造バイアスが異なる需要体制下での予測を妨げているかどうかは不明だ。
我々は、AR(1)(オートコラージュ)、すなわちガウス、重尾対数正規という3つの需要レジームを備えた単一エケロンテストベッドを用いてこの問題に対処する。
UDEは、構成された体制全体にわたって、トレーニングの地平線の90%で、在庫RMSEはAR(1)の下で4.92(NODE)から0.26(UDE)、ガウス需要下では5.96~0.95(UDE)に低下する。
重い尾の対数正規ショックの下では、NODEの柔軟性は優れている。
NODEは外挿で位相ドリフトを示し、UDEは安定だが、稀なスパイクには不十分である。
以上の結果から,ノイズが軽微な場合や時間的に相関する場合には構造を強制する,極端な事象が支配する場合には構造を緩和する,という具体的なガイダンスが得られた。
在庫管理の他に、科学的および工学的なシステムにおけるハイブリッドモデリングのためのガイダンスとして、保存法則や質素なノイズが支配されるときの既知の構造を強制し、稀な事象がダイナミクスを駆動する状況において極端なものを捉えるために構造を緩和する。
関連論文リスト
- Entropy-Reservoir Bregman Projection: An Information-Geometric Unification of Model Collapse [3.533187668612022]
本稿では,これらの現象を統一する情報幾何学的枠組みであるEntropyReser Bregman Projection- ERBPを提案する。
我々の理論は崩壊に必要な条件、(ii)非言語エントロピーフロアを保証する十分な条件、(iii)サンプルサイズに依存する閉形式率をもたらす。
論文 参考訳(メタデータ) (2025-12-16T19:50:03Z) - RRAEDy: Adaptive Latent Linearization of Nonlinear Dynamical Systems [2.4662459762262894]
本稿では,潜在空間における低次元力学の学習モデルであるRRAEDyを紹介する。
我々はRRAEDyが正確かつ堅牢な予測を実現することを示す。
私たちのコードはオープンソースで、https://github.com/JadM133/RRAEDy.comで公開しています。
論文 参考訳(メタデータ) (2025-12-08T13:23:12Z) - Sparse-to-Field Reconstruction via Stochastic Neural Dynamic Mode Decomposition [12.812771670043212]
風力場や海流のような現実世界のシステムの多くは、動的でモデル化が難しい。
動的モード分解(DMD)は、単純でデータ駆動の近似を提供するが、実用性はスパース/ノイズの観測によって制限される。
DMDの確率的拡張であるNODE-DMDを導入する。
論文 参考訳(メタデータ) (2025-11-25T18:39:50Z) - CODE: A global approach to ODE dynamics learning [1.1499574149885023]
データ駆動設定では、ODEの右辺(RHS)を学習する。
この作業では、多項Chaos ODE拡張であるChaosODE(CODE)を紹介します。
Lotka-Volterra システムにおける CODE の性能評価を行った。
論文 参考訳(メタデータ) (2025-11-19T17:04:24Z) - Physics-Based Machine Learning Closures and Wall Models for Hypersonic Transition-Continuum Boundary Layer Predictions [0.9320657506524149]
我々は、輸送モデルと境界条件を強化する物理制約付き機械学習フレームワークを開発する。
この2次元超音速平板流れをマッハ数とクヌーゼン数で評価した。
その結果,スキュート・ガウス分布関数壁モデルと組み合わせた無微量異方性粘度モデルにより,精度が大幅に向上した。
論文 参考訳(メタデータ) (2025-07-11T19:40:00Z) - Scaling Collapse Reveals Universal Dynamics in Compute-Optimally Trained Neural Networks [59.552873049024775]
計算最適化モデルでは, 極めて高精度な普遍性を示すことを示す。
学習速度が減衰すると、崩壊は非常に厳しくなり、モデル間の正規化曲線の差はノイズフロアより下になる。
これらの現象は、典型的なニューラルスケーリング法則において、崩壊とパワー・ロー構造を結びつけることによって説明される。
論文 参考訳(メタデータ) (2025-07-02T20:03:34Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Learning Neural Constitutive Laws From Motion Observations for
Generalizable PDE Dynamics [97.38308257547186]
多くのNNアプローチは、支配的PDEと物質モデルの両方を暗黙的にモデル化するエンドツーエンドモデルを学ぶ。
PDEの管理はよく知られており、学習よりも明示的に実施されるべきである、と私たちは主張する。
そこで我々は,ネットワークアーキテクチャを利用したニューラル構成則(Neural Constitutive Laws,NCLaw)と呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-04-27T17:42:24Z) - Stabilized Neural Ordinary Differential Equations for Long-Time
Forecasting of Dynamical Systems [1.001737665513683]
衝撃やカオス力学を正確に捉えたデータ駆動モデリング手法を提案する。
我々は、線形項と非線形項を学習する2つのNNの出力を加えることで、ODEの右辺(SRH)を学習する。
具体的には、疎線形畳み込みNNを訓練して線形項と高密度完全連結非線形NNを学習し、非線形項を学習する。
論文 参考訳(メタデータ) (2022-03-29T16:10:34Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Direction Matters: On the Implicit Bias of Stochastic Gradient Descent
with Moderate Learning Rate [105.62979485062756]
本稿では,中等度学習におけるSGDの特定の正規化効果を特徴付けることを試みる。
SGDはデータ行列の大きな固有値方向に沿って収束し、GDは小さな固有値方向に沿って収束することを示す。
論文 参考訳(メタデータ) (2020-11-04T21:07:52Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。