論文の概要: Neural NID Rules
- arxiv url: http://arxiv.org/abs/2202.06036v1
- Date: Sat, 12 Feb 2022 10:47:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 08:09:42.710196
- Title: Neural NID Rules
- Title(参考訳): ニューラルNID規則
- Authors: Luca Viano and Johanni Brea
- Abstract要約: 対象物間の抽象的特性と関係を,適切に正規化されたグラフニューラルネットワークを用いて学習する手法であるNeural NIDを導入する。
モデルにより学習された遷移ダイナミクスを評価するために特別に設計された単純なベンチマーク上で、ニューラルNIDのより広範な一般化能力を検証する。
- 参考スコア(独自算出の注目度): 2.1030878979833467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Abstract object properties and their relations are deeply rooted in human
common sense, allowing people to predict the dynamics of the world even in
situations that are novel but governed by familiar laws of physics. Standard
machine learning models in model-based reinforcement learning are inadequate to
generalize in this way. Inspired by the classic framework of noisy
indeterministic deictic (NID) rules, we introduce here Neural NID, a method
that learns abstract object properties and relations between objects with a
suitably regularized graph neural network. We validate the greater
generalization capability of Neural NID on simple benchmarks specifically
designed to assess the transition dynamics learned by the model.
- Abstract(参考訳): 抽象オブジェクトの性質とその関係性は人間の常識に深く根付いており、新しい物理の法則によって支配されている状況でも世界のダイナミクスを予測することができる。
モデルに基づく強化学習における標準的な機械学習モデルは、このように一般化するには不十分である。
ノイズ非決定論的deictic(nid)規則の古典的な枠組みに触発されて,ニューラルネットワークを用いたオブジェクト間の抽象的オブジェクト特性と関係を学習する手法であるneural nidを紹介する。
モデルにより学習された遷移ダイナミクスを評価するために特別に設計された単純なベンチマークにおいて、ニューラルNIDのさらなる一般化能力を検証する。
関連論文リスト
- Predicting and explaining nonlinear material response using deep
Physically Guided Neural Networks with Internal Variables [0.0]
我々は、内部変数を用いた物理ガイドニューラルネットワーク(PGNNIV)の概念を用いて法則を探索する。
PGNNIVは特定の隠された層に制約を課すために、問題の物理を特に利用している。
PGNNIVは、未確認の負荷シナリオ下で、内部変数と外部変数の両方を予測することができることを示す。
論文 参考訳(メタデータ) (2023-08-07T21:20:24Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Learning Neural Constitutive Laws From Motion Observations for
Generalizable PDE Dynamics [97.38308257547186]
多くのNNアプローチは、支配的PDEと物質モデルの両方を暗黙的にモデル化するエンドツーエンドモデルを学ぶ。
PDEの管理はよく知られており、学習よりも明示的に実施されるべきである、と私たちは主張する。
そこで我々は,ネットワークアーキテクチャを利用したニューラル構成則(Neural Constitutive Laws,NCLaw)と呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-04-27T17:42:24Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - What Can the Neural Tangent Kernel Tell Us About Adversarial Robustness? [0.0]
ニューラルネットワークとカーネルメソッドを接続する最近の理論の進歩によって得られた分析ツールを用いて、トレーニングされたニューラルネットワークの逆例について研究する。
NTKがいかにして、トレーニングフリーのやり方で敵の例を生成できるかを示し、遅延のやり方で、有限幅のニューラルネットを騙すために移行することを実証する。
論文 参考訳(メタデータ) (2022-10-11T16:11:48Z) - Physics Embedded Neural Network Vehicle Model and Applications in
Risk-Aware Autonomous Driving Using Latent Features [6.33280703577189]
非ホロノミック車両運動は物理学に基づくモデルを用いて広く研究されている。
本稿では,ディープラーニングと完全に微分可能な物理モデルとをシームレスに組み合わせ,ニューラルネットワークに事前知識を付与する。
論文 参考訳(メタデータ) (2022-07-16T12:06:55Z) - Standalone Neural ODEs with Sensitivity Analysis [5.565364597145569]
本稿では,完全深部ニューラルネットワークを記述可能な連続深部ニューラルネットワークモデルを提案する。
神経感受性問題の一般的な定式化を行い,NCGトレーニングでどのように使用されるかを示す。
我々の新しい定式化がResNetモデルと比較してロバスト性や性能の向上につながることを示す。
論文 参考訳(メタデータ) (2022-05-27T12:16:53Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Model-Based Robust Deep Learning: Generalizing to Natural,
Out-of-Distribution Data [104.69689574851724]
本稿では,摂動に基づく逆方向の強靭性からモデルに基づく頑健な深層学習へのパラダイムシフトを提案する。
我々の目標は、深層ニューラルネットワークを訓練し、データの自然な変動に対して堅牢にするための一般的なトレーニングアルゴリズムを提供することです。
論文 参考訳(メタデータ) (2020-05-20T13:46:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。