論文の概要: COAST: Intelligent Time-Adaptive Neural Operators
- arxiv url: http://arxiv.org/abs/2502.08574v1
- Date: Wed, 12 Feb 2025 17:09:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 18:10:01.081317
- Title: COAST: Intelligent Time-Adaptive Neural Operators
- Title(参考訳): COAST: インテリジェントな時間適応型ニューラル演算子
- Authors: Zhikai Wu, Shiyang Zhang, Sizhuang He, Sifan Wang, Min Zhu, Anran Jiao, Lu Lu, David van Dijk,
- Abstract要約: 本稿では,時間ステップを動的に適応するニューラル演算子学習法を提案する。
COASTはシステム固有の特性と相関する可変ステップサイズを生成する。
COASTは様々なダイナミクスを持つ多様なシステムでベンチマークされ、常に最先端のメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 5.282722051530654
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce Causal Operator with Adaptive Solver Transformer (COAST), a novel neural operator learning method that leverages a causal language model (CLM) framework to dynamically adapt time steps. Our method predicts both the evolution of a system and its optimal time step, intelligently balancing computational efficiency and accuracy. We find that COAST generates variable step sizes that correlate with the underlying system intrinsicities, both within and across dynamical systems. Within a single trajectory, smaller steps are taken in regions of high complexity, while larger steps are employed in simpler regions. Across different systems, more complex dynamics receive more granular time steps. Benchmarked on diverse systems with varied dynamics, COAST consistently outperforms state-of-the-art methods, achieving superior performance in both efficiency and accuracy. This work underscores the potential of CLM-based intelligent adaptive solvers for scalable operator learning of dynamical systems.
- Abstract(参考訳): 本稿では、因果言語モデル(CLM)フレームワークを利用して動的に時間ステップを適応する新しいニューラル演算子学習法である、適応ソルバー変換器(COAST)を用いた因果演算子を提案する。
本手法は,システムの進化と最適時間ステップの両方を予測し,計算効率と精度をインテリジェントにバランスさせる。
また, COASTは, 動的システム内および動的システム間において, 基礎となるシステム固有の特性と相関する, 可変ステップサイズを生成する。
単一の軌道内では、より複雑な領域ではより小さなステップが、より単純な領域ではより大きなステップが使われる。
異なるシステム全体において、より複雑なダイナミクスはよりきめ細かい時間ステップを受け取る。
COASTは様々なダイナミクスを持つ多様なシステムでベンチマークされ、常に最先端の手法より優れており、効率と精度の両方で優れた性能を実現している。
この研究は、動的システムのスケーラブルな演算子学習のためのCLMベースのインテリジェント適応解法の可能性を明らかにする。
関連論文リスト
- Adaptive Time-step Training for Enhancing Spike-Based Neural Radiance Fields [6.66530903309279]
PATA(Pretrain-Adaptive Time-step Adjustment)と呼ばれる動的時間ステップトレーニング戦略を備えたスパイクベースのNeRFフレームワークを提案する。
PATAはレンダリングの忠実さを保ちつつ、推論時間ステップを64%減らし、電力を61.55%減らすことができることを示す。
論文 参考訳(メタデータ) (2025-07-30T18:56:24Z) - MesaNet: Sequence Modeling by Locally Optimal Test-Time Training [67.45211108321203]
我々は,最近提案されたMesa層の数値的に安定かつチャンクワイズ可能な並列化版を導入する。
テストタイムの最適トレーニングにより、従来のRNNよりも言語モデリングの難易度が低く、ダウンストリームベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2025-06-05T16:50:23Z) - TI-DeepONet: Learnable Time Integration for Stable Long-Term Extrapolation [0.0]
TI-DeepONetは、ニューラルネットワークと適応的な数値タイムステッピング技術を統合するフレームワークである。
本研究は,ニューラルネットワークを数値解析でブリッジする物理認識演算子学習パラダイムを確立する。
論文 参考訳(メタデータ) (2025-05-22T23:24:31Z) - Fast Training of Recurrent Neural Networks with Stationary State Feedbacks [48.22082789438538]
リカレントニューラルネットワーク(RNN)は最近、Transformerよりも強力なパフォーマンスと高速な推論を実証している。
BPTTを固定勾配フィードバック機構で置き換える新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-29T14:45:52Z) - Efficient Transformed Gaussian Process State-Space Models for Non-Stationary High-Dimensional Dynamical Systems [49.819436680336786]
本研究では,高次元非定常力学系のスケーラブルかつ柔軟なモデリングのための効率的な変換ガウス過程状態空間モデル(ETGPSSM)を提案する。
具体的には、ETGPSSMは、単一の共有GPと入力依存の正規化フローを統合し、複雑な非定常遷移ダイナミクスを捉える前に、表現的な暗黙のプロセスを生成する。
ETGPSSMは、計算効率と精度の観点から、既存のGPSSMとニューラルネットワークベースのSSMより優れています。
論文 参考訳(メタデータ) (2025-03-24T03:19:45Z) - A Local Information Aggregation based Multi-Agent Reinforcement Learning for Robot Swarm Dynamic Task Allocation [4.144893164317513]
分散化された部分観測可能なマルコフ決定プロセス(Dec_POMDP)を用いた新しいフレームワークを提案する。
我々の方法論の核心は、局所情報集約多元決定政策勾配(LIA_MADDPG)アルゴリズムである。
実験により,LIAモジュールは様々なCTDEベースのMARL法にシームレスに統合可能であることが示された。
論文 参考訳(メタデータ) (2024-11-29T07:53:05Z) - Adaptive variational low-rank dynamics for open quantum systems [0.0]
低エントロピーシステムの効率的なシミュレーションのための新しいモデル非依存手法を提案する。
本研究は,本手法の汎用性と効率性を強調し,多種多様なシステムに適用可能であることを示す。
論文 参考訳(メタデータ) (2023-12-21T08:57:41Z) - Estimating Post-Synaptic Effects for Online Training of Feed-Forward
SNNs [0.27016900604393124]
スパイクニューラルネットワーク(SNN)におけるオンライン学習の実現は、イベントベースのモデルを開発する上で重要なステップである。
本稿では, フィードフォワードSNNのトレーニングのためのOTPE(Online Training with Postsynaptic Estimates)を提案する。
本研究では, 時間的効果の新たな近似法を用いて, マルチ層ネットワークのスケーリング改善を示す。
論文 参考訳(メタデータ) (2023-11-07T16:53:39Z) - Towards Hyperparameter-Agnostic DNN Training via Dynamical System
Insights [4.513581513983453]
本稿では,ディープニューラルネットワーク(DNN),ECCO-DNNに特化した一階最適化手法を提案する。
本手法は, 最適変数軌道を動的システムとしてモデル化し, 軌道形状に基づいてステップサイズを適応的に選択する離散化アルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-10-21T03:45:13Z) - Active Learning of Discrete-Time Dynamics for Uncertainty-Aware Model Predictive Control [46.81433026280051]
本稿では,非線形ロボットシステムの力学を積極的にモデル化する自己教師型学習手法を提案する。
我々のアプローチは、目に見えない飛行条件に一貫して適応することで、高いレジリエンスと一般化能力を示す。
論文 参考訳(メタデータ) (2022-10-23T00:45:05Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Learning effective dynamics from data-driven stochastic systems [2.4578723416255754]
この研究は、低速力学系に対する効果的な力学の研究に費やされている。
遅い多様体を学習するために,Auto-SDEと呼ばれるニューラルネットワークを含む新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-09T09:56:58Z) - Gradient-Based Trajectory Optimization With Learned Dynamics [80.41791191022139]
データからシステムの微分可能なダイナミクスモデルを学習するために、機械学習技術を使用します。
ニューラルネットワークは、大規模な時間的地平線に対して、非常に非線形な振る舞いを正確にモデル化できることが示される。
ハードウェア実験において、学習したモデルがSpotとRadio- controlled (RC)の両方の複雑な力学を表現できることを実証した。
論文 参考訳(メタデータ) (2022-04-09T22:07:34Z) - Taylor-Lagrange Neural Ordinary Differential Equations: Toward Fast
Training and Evaluation of Neural ODEs [22.976119802895017]
ニューラル常微分方程式(NODE)の学習のためのデータ駆動型アプローチを提案する。
提案手法は,低階テイラー展開のみを用いながら,適応的なステップサイズスキームと同じ精度を実現する。
一連の数値実験により、TL-NODEは最先端のアプローチよりも桁違いに高速に訓練できることが示されている。
論文 参考訳(メタデータ) (2022-01-14T23:56:19Z) - Neural Stochastic Dual Dynamic Programming [99.80617899593526]
我々は、問題インスタンスを断片的線形値関数にマッピングすることを学ぶトレーニング可能なニューラルモデルを導入する。
$nu$-SDDPは、ソリューションの品質を犠牲にすることなく、問題解決コストを大幅に削減できる。
論文 参考訳(メタデータ) (2021-12-01T22:55:23Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Adaptive Gradient Method with Resilience and Momentum [120.83046824742455]
レジリエンスとモメンタム(AdaRem)を用いた適応勾配法を提案する。
AdaRemは、過去の1つのパラメータの変化方向が現在の勾配の方向と一致しているかどうかに応じてパラメータワイズ学習率を調整する。
本手法は,学習速度とテスト誤差の観点から,従来の適応学習率に基づくアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-10-21T14:49:00Z) - Reinforcement Learning with Fast Stabilization in Linear Dynamical
Systems [91.43582419264763]
未知の安定化線形力学系におけるモデルベース強化学習(RL)について検討する。
本研究では,環境を効果的に探索することで,基盤システムの高速安定化を証明できるアルゴリズムを提案する。
提案アルゴリズムはエージェント環境相互作用の時間ステップで$tildemathcalO(sqrtT)$ regretを達成した。
論文 参考訳(メタデータ) (2020-07-23T23:06:40Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。