論文の概要: How deep is your network? Deep vs. shallow learning of transfer operators
- arxiv url: http://arxiv.org/abs/2509.19930v1
- Date: Wed, 24 Sep 2025 09:38:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.759402
- Title: How deep is your network? Deep vs. shallow learning of transfer operators
- Title(参考訳): ネットワークの深さはどれくらいか? 転送オペレータの深層学習と浅部学習
- Authors: Mohammad Tabish, Benedict Leimkuhler, Stefan Klus,
- Abstract要約: 我々は、データから転送演算子とそのスペクトル分解を学習するためのRaNNDyと呼ばれるランダム化ニューラルネットワークアプローチを提案する。
主な利点は、精度の顕著な低下がなければ、このアプローチがトレーニング時間とリソースを大幅に削減することです。
複素力学系の挙動解析に重要な応用があるクープマン作用素やペロン・フロベニウス作用素など、様々な力学作用素に対する結果を示す。
- 参考スコア(独自算出の注目度): 0.4473327661758546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a randomized neural network approach called RaNNDy for learning transfer operators and their spectral decompositions from data. The weights of the hidden layers of the neural network are randomly selected and only the output layer is trained. The main advantage is that without a noticeable reduction in accuracy, this approach significantly reduces the training time and resources while avoiding common problems associated with deep learning such as sensitivity to hyperparameters and slow convergence. Additionally, the proposed framework allows us to compute a closed-form solution for the output layer which directly represents the eigenfunctions of the operator. Moreover, it is possible to estimate uncertainties associated with the computed spectral properties via ensemble learning. We present results for different dynamical operators, including Koopman and Perron-Frobenius operators, which have important applications in analyzing the behavior of complex dynamical systems, and the Schr\"odinger operator. The numerical examples, which highlight the strengths but also weaknesses of the proposed framework, include several stochastic dynamical systems, protein folding processes, and the quantum harmonic oscillator.
- Abstract(参考訳): 我々は、データから転送演算子とそのスペクトル分解を学習するためのRaNNDyと呼ばれるランダム化ニューラルネットワークアプローチを提案する。
ニューラルネットワークの隠蔽層の重みをランダムに選択し、出力層のみをトレーニングする。
主な利点は、精度の顕著な低下がなければ、このアプローチはトレーニング時間とリソースを著しく削減すると同時に、ハイパーパラメータに対する感度や収束の遅いといったディープラーニングに関連する一般的な問題を回避することができることである。
さらに,提案フレームワークでは,演算子の固有関数を直接表現する出力層に対する閉形式解を計算することができる。
さらに、アンサンブル学習により、計算されたスペクトル特性に関連する不確実性を推定することができる。
複素力学系の挙動解析に重要な応用を持つクープマン作用素やペロン・フロベニウス作用素、シュリンガー作用素など、様々な力学作用素に対する結果を示す。
いくつかの確率力学系、タンパク質の折り畳み過程、量子調和振動子などである。
関連論文リスト
- An Evolutionary Multi-objective Optimization for Replica-Exchange-based Physics-informed Operator Learning Network [7.1950116347185995]
本稿では,レプリカに基づく物理インフォームド演算子学習ネットワークのための進化的多目的最適化を提案する。
我々のフレームワークは、精度、ノイズ、不確実性を定量化する能力において、一般的な演算子学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-31T02:17:59Z) - Stochastic Fractional Neural Operators: A Symmetrized Approach to Modeling Turbulence in Complex Fluid Dynamics [0.0]
我々は、メモリ効果とランダム性が中心的な役割を果たす問題に対処するために設計されたニューラルネットワーク演算子の新しいクラスを導入する。
提案手法は近似品質の理論的保証を提供し,これらのニューラル演算子が複雑なシステムの解析とシミュレーションに有効なツールとなることを示唆している。
論文 参考訳(メタデータ) (2025-05-12T13:11:08Z) - DeepONet Augmented by Randomized Neural Networks for Efficient Operator Learning in PDEs [5.84093922354671]
精度と効率のバランスをとるために設計されたハイブリッドアーキテクチャであるRaNN-DeepONetsを提案する。
RaNN-DeepONetsは計算コストを桁違いに削減しながら、同等の精度を達成する。
これらの結果は、PDEシステムにおける演算子学習の効率的な代替手段としてのRaNN-DeepONetsの可能性を強調している。
論文 参考訳(メタデータ) (2025-03-01T03:05:29Z) - Efficient Training of Deep Neural Operator Networks via Randomized Sampling [0.0]
本稿では,DeepONetのトレーニングに採用するランダムサンプリング手法を提案する。
従来のトレーニングアプローチと比較して、テスト全体のエラーを同等あるいは低いものにしながら、トレーニング時間の大幅な削減を実証する。
この結果から,訓練中のトランクネットワーク入力にランダム化を組み込むことで,DeepONetの効率性とロバスト性を高めることが示唆された。
論文 参考訳(メタデータ) (2024-09-20T07:18:31Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Neural Galerkin Schemes with Active Learning for High-Dimensional
Evolution Equations [44.89798007370551]
本研究では,高次元偏微分方程式を数値的に解くために,能動的学習を用いた学習データを生成するディープラーニングに基づくニューラル・ガレルキンスキームを提案する。
ニューラル・ガレルキンスキームはディラック・フランケル変分法に基づいて、残余を時間とともに最小化することで、ネットワークを訓練する。
提案したニューラル・ガレルキン・スキームの学習データ収集は,高次元におけるネットワークの表現力を数値的に実現するための鍵となる。
論文 参考訳(メタデータ) (2022-03-02T19:09:52Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Self-Organized Operational Neural Networks with Generative Neurons [87.32169414230822]
ONNは、任意の非線型作用素をカプセル化できる一般化されたニューロンモデルを持つ異種ネットワークである。
我々は,各接続の結節演算子を適応(最適化)できる生成ニューロンを有する自己組織型ONN(Self-ONNs)を提案する。
論文 参考訳(メタデータ) (2020-04-24T14:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。