論文の概要: Periodic Graph Transformers for Crystal Material Property Prediction
- arxiv url: http://arxiv.org/abs/2209.11807v1
- Date: Fri, 23 Sep 2022 18:57:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 16:51:31.368244
- Title: Periodic Graph Transformers for Crystal Material Property Prediction
- Title(参考訳): 結晶特性予測のための周期グラフ変換器
- Authors: Keqiang Yan, Yi Liu, Yuchao Lin, Shuiwang Ji
- Abstract要約: 結晶をコードする周期グラフの表現学習について検討する。
正則グラフと異なり、周期グラフは3次元空間の正則格子上を繰り返す最小単位セルからなる。
本研究では,周期グラフ表現学習のための変換器アーキテクチャであるMatformerを提案する。
- 参考スコア(独自算出の注目度): 39.01618096831294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider representation learning on periodic graphs encoding crystal
materials. Different from regular graphs, periodic graphs consist of a minimum
unit cell repeating itself on a regular lattice in 3D space. How to effectively
encode these periodic structures poses unique challenges not present in regular
graph representation learning. In addition to being E(3) invariant, periodic
graph representations need to be periodic invariant. That is, the learned
representations should be invariant to shifts of cell boundaries as they are
artificially imposed. Furthermore, the periodic repeating patterns need to be
captured explicitly as lattices of different sizes and orientations may
correspond to different materials. In this work, we propose a transformer
architecture, known as Matformer, for periodic graph representation learning.
Our Matformer is designed to be invariant to periodicity and can capture
repeating patterns explicitly. In particular, Matformer encodes periodic
patterns by efficient use of geometric distances between the same atoms in
neighboring cells. Experimental results on multiple common benchmark datasets
show that our Matformer outperforms baseline methods consistently. In addition,
our results demonstrate the importance of periodic invariance and explicit
repeating pattern encoding for crystal representation learning.
- Abstract(参考訳): 結晶をコードする周期グラフの表現学習について検討する。
正則グラフとは異なり、周期グラフは3次元空間の正則格子上で自身を繰り返す最小単位セルからなる。
これらの周期構造を効果的にエンコードする方法は、正規グラフ表現学習に存在しないユニークな課題をもたらす。
E(3)不変であることに加えて、周期グラフ表現は周期不変である必要がある。
すなわち、学習された表現は、人工的に強制される細胞の境界の変化に不変であるべきである。
さらに、周期的な繰り返しパターンは、異なる大きさと向きの格子が異なる材料に対応するように明示的に捉える必要がある。
本研究では,周期グラフ表現学習のための変換器アーキテクチャであるMatformerを提案する。
私たちのMatformerは周期性に不変で、繰り返しパターンを明示的にキャプチャできるように設計されています。
特に、マトフォーマーは隣接する細胞の同じ原子間の幾何学的距離を効率的に利用することで周期パターンを符号化する。
複数の共通ベンチマークデータセットの実験結果から、我々のMatformerはベースラインメソッドを一貫して上回ります。
さらに, 結晶表現学習における周期的不変性と明示的な反復パターンエンコーディングの重要性を示す。
関連論文リスト
- Graph Generation via Spectral Diffusion [51.60814773299899]
本稿では,1)グラフラプラシア行列のスペクトル分解と2)拡散過程に基づく新しいグラフ生成モデルGRASPを提案する。
具体的には、固有ベクトルと固有値のサンプリングにデノナイジングモデルを用い、グラフラプラシアン行列と隣接行列を再構成する。
我々の置換不変モデルは各ノードの固有ベクトルに連結することでノードの特徴を扱える。
論文 参考訳(メタデータ) (2024-02-29T09:26:46Z) - Accelerating Material Property Prediction using Generically Complete
Isometry Invariants [3.4069627091757178]
学習アルゴリズムの表現として,周期点集合に対して連続的かつ汎用的に完備な等距離不変量であるポイントワイド距離分布(PDD)を適応する。
本研究では,PDDを利用して空間符号化手法を用いて構成情報を組み込むことができる自己認識機構を改良したトランスフォーマーモデルを開発した。
このモデルは、Material ProjectとJarvis-DFTデータベースの結晶上でテストされ、最先端の手法に匹敵する精度を示す。
論文 参考訳(メタデータ) (2024-01-22T15:14:22Z) - CycleCL: Self-supervised Learning for Periodic Videos [5.9647924003148365]
本稿では,周期データを扱うための自己教師付き学習手法であるCycleCLを提案する。
ビデオの繰り返しを利用して,三重項損失に基づく新しいコントラスト学習手法を設計する。
提案手法では, ほぼ同じ位相のフレーム対と異なる位相の負のフレーム対をサンプリングするために, 事前学習した特徴を用いる。
論文 参考訳(メタデータ) (2023-11-05T17:40:10Z) - Curve Your Attention: Mixed-Curvature Transformers for Graph
Representation Learning [77.1421343649344]
本稿では,一定曲率空間の積を完全に操作するトランスフォーマーの一般化を提案する。
また、非ユークリッド注意に対するカーネル化されたアプローチを提供し、ノード数とエッジ数に線形に時間とメモリコストでモデルを実行できるようにします。
論文 参考訳(メタデータ) (2023-09-08T02:44:37Z) - Towards Symmetry-Aware Generation of Periodic Materials [64.21777911715267]
本稿では,周期構造体の物理対称性を捉える新しい物質生成手法であるSyMatを提案する。
SyMatは、変分オートエンコーダモデルを用いて、原子タイプセット、格子長、格子角を生成することによって、材料の原子タイプと格子を生成する。
我々は,SyMatが材料上のすべての対称性変換に理論的に不変であることを示し,SyMatがランダム生成および特性最適化タスクにおいて有望な性能を達成することを示す。
論文 参考訳(メタデータ) (2023-07-06T01:05:34Z) - Time Series as Images: Vision Transformer for Irregularly Sampled Time
Series [32.99466250557855]
本稿では,不規則なサンプル時系列を線グラフ画像に変換することによって,新しい視点を提案する。
次に、画像分類と同様に、時系列分類に強力な事前学習型視覚変換器を利用する。
注目すべきは、その単純さにもかかわらず、私たちのアプローチは、いくつかの一般的な医療および人間の活動データセットに関する最先端の特殊アルゴリズムよりも優れていることです。
論文 参考訳(メタデータ) (2023-03-01T22:42:44Z) - Nonparametric Factor Trajectory Learning for Dynamic Tensor
Decomposition [20.55025648415664]
動的テンソル分解(NONFAT)のためのNON FActor Trajectory Learningを提案する。
我々は第2レベルのGPを用いてエントリ値をサンプリングし、エンティティ間の時間的関係をキャプチャする。
実世界のいくつかの応用において,本手法の利点を示した。
論文 参考訳(メタデータ) (2022-07-06T05:33:00Z) - Graph Gamma Process Generalized Linear Dynamical Systems [60.467040479276704]
実マルチ変数時系列をモデル化するために,グラフガンマ過程(GGP)線形力学系を導入する。
時間的パターン発見のために、モデルの下での潜在表現は、時系列を多変量部分列の同相集合に分解するために使用される。
非零次ノード数が有限であるランダムグラフを用いて、潜時状態遷移行列の空間パターンと次元の両方を定義する。
論文 参考訳(メタデータ) (2020-07-25T04:16:34Z) - Time-varying Graph Representation Learning via Higher-Order Skip-Gram
with Negative Sampling [0.456877715768796]
我々は,スキップグラム埋め込み手法が行列分解を暗黙的に行うという事実に基づいて構築する。
負のサンプリングを持つ高次スキップグラムは、ノードと時間の役割を乱すことができることを示す。
提案手法を時間分解型対面近接データを用いて実証的に評価し,学習した時間変化グラフ表現が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-25T12:04:48Z) - Permutation Invariant Graph Generation via Score-Based Generative
Modeling [114.12935776726606]
本稿では,最近のスコアベース生成モデルを用いて,グラフモデリングにおける置換不変手法を提案する。
特に、入力グラフにおけるデータ分布の勾配をモデル化するために、置換同変のマルチチャネルグラフニューラルネットワークを設計する。
グラフ生成では、我々の学習アプローチはベンチマークデータセット上の既存のモデルよりも良い、あるいは同等の結果を得る。
論文 参考訳(メタデータ) (2020-03-02T03:06:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。