論文の概要: E(n)-equivariant Graph Neural Cellular Automata
- arxiv url: http://arxiv.org/abs/2301.10497v1
- Date: Wed, 25 Jan 2023 10:17:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 15:28:12.787333
- Title: E(n)-equivariant Graph Neural Cellular Automata
- Title(参考訳): e(n)-同変グラフニューラルセルオートマトン
- Authors: Gennaro Gala, Daniele Grattarola and Erik Quaeghebeur
- Abstract要約: 我々は、E(n)-GNCAsと呼ばれる等方的オートマトンを提案する。
これらのモデルは軽量だが、それでも大きなグラフを扱い、複雑なダイナミクスを捉え、創発的な自己組織化行動を示すことができる。
3つのタスクにおいて,E(n)-GNCAの広範かつ良好な適用性を示す。
- 参考スコア(独自算出の注目度): 4.168157981135698
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Cellular automata (CAs) are computational models exhibiting rich dynamics
emerging from the local interaction of cells arranged in a regular lattice.
Graph CAs (GCAs) generalise standard CAs by allowing for arbitrary graphs
rather than regular lattices, similar to how Graph Neural Networks (GNNs)
generalise Convolutional NNs. Recently, Graph Neural CAs (GNCAs) have been
proposed as models built on top of standard GNNs that can be trained to
approximate the transition rule of any arbitrary GCA. Existing GNCAs are
anisotropic in the sense that their transition rules are not equivariant to
translation, rotation, and reflection of the nodes' spatial locations. However,
it is desirable for instances related by such transformations to be treated
identically by the model. By replacing standard graph convolutions with
E(n)-equivariant ones, we avoid anisotropy by design and propose a class of
isotropic automata that we call E(n)-GNCAs. These models are lightweight, but
can nevertheless handle large graphs, capture complex dynamics and exhibit
emergent self-organising behaviours. We showcase the broad and successful
applicability of E(n)-GNCAs on three different tasks: (i) pattern formation,
(ii) graph auto-encoding, and (iii) simulation of E(n)-equivariant dynamical
systems.
- Abstract(参考訳): セルオートマトン(セルオートマトン、Cellular Automatica)は、通常の格子に配列された細胞の局所的相互作用から生じるリッチなダイナミクスを示す計算モデルである。
グラフCA(GCAs)は、グラフニューラルネットワーク(GNN)が畳み込みNNを一般化する方法と同様に、正規格子ではなく任意のグラフを許容することで標準CAを一般化する。
近年,任意のGCAの遷移規則を近似するためにトレーニング可能な標準GNN上に構築されたモデルとして,グラフニューラルCA(GNCA)が提案されている。
既存のGNCAは、それらの遷移規則がノードの空間的位置の翻訳、回転、反射に等しくないという意味で異方的である。
しかし、そのような変換によって関連づけられたインスタンスはモデルによって等しく扱われることが望ましい。
標準グラフの畳み込みをE(n)-同変グラフに置き換えることで、設計による異方性を避け、E(n)-GNCAsと呼ぶ等方的オートマトン群を提案する。
これらのモデルは軽量だが、それでも大きなグラフを扱い、複雑なダイナミクスを捉え、創発的な自己組織化行動を示すことができる。
3つの異なるタスクにおけるE(n)-GNCAの適用性について紹介する。
(i)パターン形成
(ii)グラフの自動エンコーディング、及び
(iii) e(n)-同変力学系のシミュレーション
関連論文リスト
- Relaxing Continuous Constraints of Equivariant Graph Neural Networks for Physical Dynamics Learning [39.25135680793105]
離散同変グラフニューラルネットワーク(DEGNN)を提案する。
具体的には、幾何学的特徴を置換不変な埋め込みに変換することによって、このような離散同変メッセージパッシングを構築することができることを示す。
DEGNNはデータ効率が良く、少ないデータで学習でき、観測不能な向きなどのシナリオをまたいで一般化できることを示す。
論文 参考訳(メタデータ) (2024-06-24T03:37:51Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - SEGNO: Generalizing Equivariant Graph Neural Networks with Physical
Inductive Biases [66.61789780666727]
等変性を維持しながら, 2階連続性をGNNに組み込む方法を示す。
また、SEGNOに関する理論的知見も提供し、隣接する状態間の一意の軌跡を学習できることを強調している。
我々のモデルは最先端のベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-08-25T07:15:58Z) - Learning Graph Cellular Automata [25.520299226767946]
我々は、典型的なセルオートマトン(GCA)の一般化バージョンに焦点を当てる。
特に,従来のGAAの遷移規則を学習するために畳み込みニューラルネットワークを用いた以前の研究を拡張した。
有限かつ離散的な状態空間を持つ任意の GCA を表現可能であることを示す。
論文 参考訳(メタデータ) (2021-10-27T07:42:48Z) - Orthogonal Graph Neural Networks [53.466187667936026]
グラフニューラルネットワーク(GNN)は,ノード表現の学習において優れていたため,大きな注目を集めている。
より畳み込み層を積み重ねることで、GNNのパフォーマンスが大幅に低下する。
本稿では,モデルトレーニングの安定化とモデル一般化性能の向上のために,既存のGNNバックボーンを拡張可能なOrtho-GConvを提案する。
論文 参考訳(メタデータ) (2021-09-23T12:39:01Z) - Continuous-Depth Neural Models for Dynamic Graph Prediction [16.89981677708299]
連続深度グラフニューラルネットワーク(GNN)の枠組みを紹介する。
ニューラルグラフ微分方程式(ニューラルグラフ微分方程式)は、GNNに対抗して形式化される。
その結果、遺伝的制御ネットワークにおけるトラフィック予測や予測など、アプリケーション全体にわたって提案されたモデルの有効性が証明された。
論文 参考訳(メタデータ) (2021-06-22T07:30:35Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Gauge Equivariant Mesh CNNs: Anisotropic convolutions on geometric
graphs [81.12344211998635]
メッシュ上の畳み込みを定義する一般的なアプローチは、それらをグラフとして解釈し、グラフ畳み込みネットワーク(GCN)を適用することである。
本稿では、GCNを一般化して異方性ゲージ同変カーネルを適用するGauge Equivariant Mesh CNNを提案する。
本実験は,従来のGCNおよび他の手法と比較して,提案手法の表現性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-11T17:21:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。