論文の概要: A Bridge between Dynamical Systems and Machine Learning: Engineered
Ordinary Differential Equations as Classification Algorithm (EODECA)
- arxiv url: http://arxiv.org/abs/2311.10387v1
- Date: Fri, 17 Nov 2023 08:30:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-20 15:23:02.106346
- Title: A Bridge between Dynamical Systems and Machine Learning: Engineered
Ordinary Differential Equations as Classification Algorithm (EODECA)
- Title(参考訳): 動的システムと機械学習の橋渡し:工学的正規微分方程式を分類アルゴリズム(EODECA)として
- Authors: Raffaele Marino, Lorenzo Giambagli, Lorenzo Chicchi, Lorenzo Buffoni,
Duccio Fanelli
- Abstract要約: 本研究は,機械学習と動的システムを橋渡しすることを目的とする。
連続常微分方程式を基盤とするニューラルネットワークとして設計されたEODECAは、力学系のよく確立されたツールキットを活用することを目的としている。
しばしば不透明感に悩まされる従来のディープラーニングモデルとは異なり、EODECAは高い分類性能と本質的な解釈性の両方を約束する。
- 参考スコア(独自算出の注目度): 1.0499611180329806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a world increasingly reliant on machine learning, the interpretability of
these models remains a substantial challenge, with many equating their
functionality to an enigmatic black box. This study seeks to bridge machine
learning and dynamical systems. Recognizing the deep parallels between dense
neural networks and dynamical systems, particularly in the light of
non-linearities and successive transformations, this manuscript introduces the
Engineered Ordinary Differential Equations as Classification Algorithms
(EODECAs). Uniquely designed as neural networks underpinned by continuous
ordinary differential equations, EODECAs aim to capitalize on the
well-established toolkit of dynamical systems. Unlike traditional deep learning
models, which often suffer from opacity, EODECAs promise both high
classification performance and intrinsic interpretability. They are naturally
invertible, granting them an edge in understanding and transparency over their
counterparts. By bridging these domains, we hope to usher in a new era of
machine learning models where genuine comprehension of data processes
complements predictive prowess.
- Abstract(参考訳): 機械学習にますます依存する世界では、これらのモデルの解釈性は依然として大きな課題であり、多くの人は機能を謎めいたブラックボックスと同一視している。
本研究では,機械学習と動的システムを橋渡しする。
密度の強いニューラルネットワークと力学系、特に非線形性や連続的な変換の光の深い並列性を認識した本写本では、工学的正規微分方程式を分類アルゴリズム(EODECA)として導入する。
連続常微分方程式を基盤とするニューラルネットワークとして設計されたEODECAは、力学系のよく確立されたツールキットを活用することを目的としている。
しばしば不透明感に悩まされる従来のディープラーニングモデルとは異なり、EODECAは高い分類性能と本質的な解釈性の両方を約束する。
それらは自然に可逆的であり、彼らに対して理解と透明性の最先端を与える。
これらのドメインをブリッジすることで、データプロセスの真の理解が予測能力を補完する、機械学習モデルの新たな時代を開拓したいと考えています。
関連論文リスト
- Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - AI-Lorenz: A physics-data-driven framework for black-box and gray-box
identification of chaotic systems with symbolic regression [2.07180164747172]
複雑な動的挙動をモデル化した数学的表現を学習するフレームワークを開発する。
私たちは、システムのダイナミクス、時間の変化率、モデル用語の欠如を学ぶために、小さなニューラルネットワークをトレーニングします。
これにより、動的挙動の将来的な進化を予測することができる。
論文 参考訳(メタデータ) (2023-12-21T18:58:41Z) - On Robust Numerical Solver for ODE via Self-Attention Mechanism [82.95493796476767]
我々は,内在性雑音障害を緩和し,AIによって強化された数値解法を,データサイズを小さくする訓練について検討する。
まず,教師付き学習における雑音を制御するための自己認識機構の能力を解析し,さらに微分方程式の数値解に付加的な自己認識機構を導入し,簡便かつ有効な数値解法であるAttrを提案する。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics [6.829711787905569]
本稿では,時系列データの非定常および非線形の複雑なダイナミクスを表現した新しい分解力学系モデルを提案する。
我々のモデルは辞書学習によって訓練され、最近の結果を利用してスパースベクトルを時間とともに追跡する。
連続時間と離散時間の両方の指導例において、我々のモデルは元のシステムによく近似できることを示した。
論文 参考訳(メタデータ) (2022-06-07T02:25:38Z) - On Neural Differential Equations [13.503274710499971]
特に、ニューラル微分方程式(NDE)は、ニューラルネットワークと微分方程式が同じコインの両側であることを示す。
NDEは生成問題、動的システム、時系列を扱うのに適している。
NDEは高容量関数近似、モデル空間への強い先行性、不規則なデータを扱う能力、メモリ効率、そして両サイドで利用可能な豊富な理論を提供する。
論文 参考訳(メタデータ) (2022-02-04T23:32:29Z) - Supervised DKRC with Images for Offline System Identification [77.34726150561087]
現代の力学系はますます非線形で複雑なものになりつつある。
予測と制御のためのコンパクトで包括的な表現でこれらのシステムをモデル化するフレームワークが必要である。
本手法は,教師付き学習手法を用いてこれらの基礎関数を学習する。
論文 参考訳(メタデータ) (2021-09-06T04:39:06Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - DyNODE: Neural Ordinary Differential Equations for Dynamics Modeling in
Continuous Control [0.0]
本稿では,ニューラル常微分方程式の枠組みに制御を組み込むことにより,システムの基盤となる力学を捉える新しい手法を提案する。
以上の結果から,アクター批判強化学習アルゴリズムと組み合わせた単純なDyNODEアーキテクチャが,標準ニューラルネットワークより優れていることが示唆された。
論文 参考訳(メタデータ) (2020-09-09T12:56:58Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Constrained Neural Ordinary Differential Equations with Stability
Guarantees [1.1086440815804224]
代数的非線形性を持つ離散常微分方程式をディープニューラルネットワークとしてモデル化する方法を示す。
我々は、重みの固有値に課される暗黙の制約に基づいて、ネットワーク層の安定性を保証する。
オープンループシミュレーションを用いて,学習したニューラルネットワークの予測精度を検証した。
論文 参考訳(メタデータ) (2020-04-22T22:07:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。