論文の概要: Incorporating Symmetry into Deep Dynamics Models for Improved
Generalization
- arxiv url: http://arxiv.org/abs/2002.03061v4
- Date: Mon, 15 Mar 2021 23:00:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 22:39:02.150382
- Title: Incorporating Symmetry into Deep Dynamics Models for Improved
Generalization
- Title(参考訳): 一般化のためのディープダイナミクスモデルへの対称性の導入
- Authors: Rui Wang, Robin Walters, Rose Yu
- Abstract要約: 本稿では,畳み込みニューラルネットワークに対称性を組み込むことにより,精度の向上と一般化を提案する。
我々のモデルは、対称性群変換による分布シフトに対して理論的かつ実験的に堅牢である。
画像やテキストアプリケーションと比較して、我々の研究は、高次元システムに同変ニューラルネットワークを適用するための重要なステップである。
- 参考スコア(独自算出の注目度): 24.363954435050264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has shown deep learning can accelerate the prediction of physical
dynamics relative to numerical solvers. However, limited physical accuracy and
an inability to generalize under distributional shift limit its applicability
to the real world. We propose to improve accuracy and generalization by
incorporating symmetries into convolutional neural networks. Specifically, we
employ a variety of methods each tailored to enforce a different symmetry. Our
models are both theoretically and experimentally robust to distributional shift
by symmetry group transformations and enjoy favorable sample complexity. We
demonstrate the advantage of our approach on a variety of physical dynamics
including Rayleigh B\'enard convection and real-world ocean currents and
temperatures. Compared with image or text applications, our work is a
significant step towards applying equivariant neural networks to
high-dimensional systems with complex dynamics. We open-source our simulation,
data, and code at \url{https://github.com/Rose-STL-Lab/Equivariant-Net}.
- Abstract(参考訳): 近年の研究では、深層学習が数値解法と比較して物理力学の予測を加速できることが示されている。
しかし、物理的精度の制限と分布シフトの下で一般化できないことは、実世界への適用性を制限している。
本稿では,畳み込みニューラルネットワークに対称性を組み込むことにより,精度の向上と一般化を提案する。
具体的には、それぞれ異なる対称性を強制するために調整された様々な方法を用いる。
我々のモデルは理論上も実験上も対称群変換による分布シフトに対して堅牢であり、良好なサンプル複雑性を享受する。
我々は,rayleigh b\'enard対流や実世界の海流や温度など,様々な物理力学における我々のアプローチの利点を実証する。
画像やテキストアプリケーションと比較して,本研究は,複雑なダイナミクスを持つ高次元システムに対して等変ニューラルネットワークを適用するための重要なステップである。
我々は、シミュレーション、データ、コードを、 \url{https://github.com/Rose-STL-Lab/Equivariant-Net}でオープンソース化します。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Physics-informed UNets for Discovering Hidden Elasticity in
Heterogeneous Materials [0.0]
弾性インバージョンのための新しいUNetベースニューラルネットワークモデル(El-UNet)を開発した。
完全接続された物理インフォームドニューラルネットワークと比較して,El-UNetによる精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-01T23:35:03Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Spatial Attention Kinetic Networks with E(n)-Equivariance [0.951828574518325]
回転、翻訳、反射、n次元幾何学空間上の置換と等価なニューラルネットワークは、物理モデリングにおいて有望であることを示している。
本稿では, エッジベクトルの線形結合をニューラルネットワークでパラメトリケートし, 等価性を実現するための, 簡易な代替関数形式を提案する。
E(n)-等価性を持つ空間的注意運動ネットワーク(SAKE)を設計する。
論文 参考訳(メタデータ) (2023-01-21T05:14:29Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Machine learning for rapid discovery of laminar flow channel wall
modifications that enhance heat transfer [56.34005280792013]
任意の, 平坦な, 非平坦なチャネルの正確な数値シミュレーションと, ドラッグ係数とスタントン数を予測する機械学習モデルを組み合わせる。
畳み込みニューラルネットワーク(CNN)は,数値シミュレーションのわずかな時間で,目標特性を正確に予測できることを示す。
論文 参考訳(メタデータ) (2021-01-19T16:14:02Z) - Neural Mechanics: Symmetry and Broken Conservation Laws in Deep Learning
Dynamics [26.485269202381932]
トレーニング中のニューラルネットワークパラメータのダイナミクスを理解することは、ディープラーニングの理論基盤を構築する上で重要な課題のひとつだ。
このような対称性は勾配やヘッシアンに厳密な幾何学的制約を課し、関連する保存則を導く。
SGDが有限学習速度で行った数値軌道をよりよく近似する差分方程式である修正勾配流の導出に有限差分法からツールを適用します。
論文 参考訳(メタデータ) (2020-12-08T20:33:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。