論文の概要: SE(3)-equivariant Graph Neural Networks for Learning Glassy Liquids
Representations
- arxiv url: http://arxiv.org/abs/2211.03226v1
- Date: Sun, 6 Nov 2022 22:05:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 19:26:40.080792
- Title: SE(3)-equivariant Graph Neural Networks for Learning Glassy Liquids
Representations
- Title(参考訳): ガラス液体表現学習のためのSE(3)-同変グラフニューラルネットワーク
- Authors: Francesco Saverio Pezzicoli, Guillaume Charpiat, Fran\c{c}ois P.
Landes
- Abstract要約: ガラスの静的構造の堅牢な表現を学習するグラフニューラルネットワーク(GNN)を構築する。
この制約は予測能力を大幅に向上するだけでなく、解釈可能性を改善しながらパラメータ数を削減できることを示す。
- 参考スコア(独自算出の注目度): 1.3190581566723918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Within the glassy liquids community, the use of Machine Learning (ML) to
model particles' static structure in order to predict their future dynamics is
currently a hot topic. The actual state of the art consists in Graph Neural
Networks (GNNs) (Bapst 2020) which, beside having a great expressive power, are
heavy models with numerous parameters and lack interpretability. Inspired by
recent advances (Thomas 2018), we build a GNN that learns a robust
representation of the glass' static structure by constraining it to preserve
the roto-translation (SE(3)) equivariance. We show that this constraint not
only significantly improves the predictive power but also allows to reduce the
number of parameters while improving the interpretability. Furthermore, we
relate our learned equivariant features to well-known invariant expert
features, which are easily expressible with a single layer of our network.
- Abstract(参考訳): glassy liquidsコミュニティ内では、粒子の静的構造をモデル化して将来のダイナミクスを予測する機械学習(ml)が、現在ホットなトピックである。
実際の技術状況はグラフニューラルネットワーク(GNN) (Bapst 2020) で構成されており、表現力が非常に高い一方、多くのパラメータを持ち、解釈性に欠ける重いモデルである。
近年の進歩(Thomas 2018)に触発されて、ガラスの静的構造の堅牢な表現を、ロト翻訳(SE(3))同値を維持するために制約することで学習するGNNを構築した。
この制約は予測能力を大幅に向上するだけでなく、解釈可能性を改善しながらパラメータ数を削減できることを示す。
さらに、学習した同変特徴を、ネットワークの単一層で容易に表現可能な、よく知られた不変専門家特徴に関連付ける。
関連論文リスト
- Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - Predicting and Interpreting Energy Barriers of Metallic Glasses with
Graph Neural Networks [43.26868436093931]
グラフニューラルネットワーク(GNN)を用いて、原子グラフ構造をモデル化し、その構造と対応する局所エネルギー障壁との間の接続を研究する。
我々の重要な貢献の一つは、エネルギー障壁を予測するための新しいSymmetrized GNN(SymGNN)モデルを提案することである。
我々はSymGNNが他のGNNや非グラフ機械学習モデルよりもエネルギー障壁予測を大幅に改善できることを実験で実証した。
論文 参考訳(メタデータ) (2023-12-08T04:27:11Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Meta-learning using privileged information for dynamics [66.32254395574994]
Neural ODE Processモデルを拡張して、Learning Using Privileged Information設定内の追加情報を使用します。
シミュレーション動的タスクの精度とキャリブレーションを向上した実験により拡張性を検証する。
論文 参考訳(メタデータ) (2021-04-29T12:18:02Z) - Parameterized Hypercomplex Graph Neural Networks for Graph
Classification [1.1852406625172216]
我々は超複雑特徴変換の特性を利用するグラフニューラルネットワークを開発した。
特に、提案したモデルのクラスでは、代数自身を特定する乗法則は、トレーニング中にデータから推測される。
提案するハイパーコンプレックスgnnをいくつかのオープングラフベンチマークデータセット上でテストし,そのモデルが最先端の性能に達することを示す。
論文 参考訳(メタデータ) (2021-03-30T18:01:06Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z) - A deep learning framework for solution and discovery in solid mechanics [1.4699455652461721]
本稿では,物理情報ニューラルネットワーク(PINN)と呼ばれるディープラーニングのクラスを,固体力学の学習と発見に応用する。
本稿では, 運動量バランスと弾性の関係をPINNに組み込む方法について解説し, 線形弾性への応用について詳細に検討する。
論文 参考訳(メタデータ) (2020-02-14T08:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。