論文の概要: Discovering conservation laws from trajectories via machine learning
- arxiv url: http://arxiv.org/abs/2102.04008v1
- Date: Mon, 8 Feb 2021 05:51:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 05:03:05.882535
- Title: Discovering conservation laws from trajectories via machine learning
- Title(参考訳): 機械学習による軌道からの保全法則の発見
- Authors: Seungwoong Ha and Hawoong Jeong
- Abstract要約: 不変量と保存法則は、システムの基盤となる力学に関する重要な情報を伝達する。
本研究では,この目的を達成するためにConservNetを提案する。
実世界の二重振り子軌道だけでなく不変量を持つシミュレートシステムを用いたモデルの有効性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Invariants and conservation laws convey critical information about the
underlying dynamics of a system, yet it is generally infeasible to find them
without any prior knowledge. We propose ConservNet to achieve this goal, a
neural network that extracts a conserved quantity from grouped data where the
members of each group share invariants. As a neural network trained with a
novel and intuitive loss function called noise-variance loss, ConservNet learns
the hidden invariants in each group of multi-dimensional observables in a
data-driven, end-to-end manner. We demonstrate the capability of our model with
simulated systems having invariants as well as a real-world double pendulum
trajectory. ConservNet successfully discovers underlying invariants from the
systems from a small number of data points, namely less than several thousand.
Since the model is robust to noise and data conditions compared to baseline,
our approach is directly applicable to experimental data for discovering hidden
conservation laws and relationships between variables.
- Abstract(参考訳): 不変量と保存則はシステムの根底にある力学に関する重要な情報を伝えるが、事前の知識なしにそれらを見つけることは一般に不可能である。
この目的を達成するためにConservNetを提案する。これは、各グループのメンバーが不変量を共有するグループデータから保存された量を抽出するニューラルネットワークである。
ノイズ分散損失と呼ばれる新しい直感的な損失関数で訓練されたニューラルネットワークとして、conservnetはデータ駆動のエンドツーエンドの方法で、各多次元観測可能群の隠れた不変量を学ぶ。
実世界の二重振り子軌道と同様に不変量を持つシミュレートシステムによるモデルの能力を実証する。
conservnetは、少数のデータポイント、すなわち数千未満のシステムから、基礎となる不変量の発見に成功している。
このモデルは、ベースラインと比較してノイズやデータ条件に強いため、隠れた保存法則や変数間の関係を発見するための実験データに直接適用されます。
関連論文リスト
- ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - FUNCK: Information Funnels and Bottlenecks for Invariant Representation
Learning [7.804994311050265]
データから不変表現を学習すると主張する一連の関連する情報漏えいとボトルネック問題について検討する。
本稿では,この情報理論の目的である「側情報付き条件付きプライバシ・ファンネル」の新たな要素を提案する。
一般に難解な目的を考慮し、ニューラルネットワークによってパラメータ化された補正変分推論を用いて、抽出可能な近似を導出する。
論文 参考訳(メタデータ) (2022-11-02T19:37:55Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Transfer Learning via Test-Time Neural Networks Aggregation [11.42582922543676]
ディープニューラルネットワークが従来の機械学習より優れていることが示されている。
ディープ・ネットワークは一般性に欠けており、異なる分布から引き出された新しい(テスト)セットでは性能が良くない。
論文 参考訳(メタデータ) (2022-06-27T15:46:05Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Discretization Invariant Networks for Learning Maps between Neural
Fields [3.09125960098955]
離散化不変ニューラルネットワーク(DI-Net)の理解と設計のための新しいフレームワークを提案する。
我々の分析は、異なる有限離散化の下でのモデル出力の偏差の上限を確立する。
構成により、DI-Netsは可積分函数空間間の大きな写像のクラスを普遍的に近似することが証明される。
論文 参考訳(メタデータ) (2022-06-02T17:44:03Z) - Learning Dynamics from Noisy Measurements using Deep Learning with a
Runge-Kutta Constraint [9.36739413306697]
そこで本研究では,雑音と疎サンプルを用いた微分方程式の学習手法について論じる。
我々の方法論では、ディープニューラルネットワークと古典的な数値積分法の統合において、大きな革新が見られる。
論文 参考訳(メタデータ) (2021-09-23T15:43:45Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。