論文の概要: SA-GAT-SR: Self-Adaptable Graph Attention Networks with Symbolic Regression for high-fidelity material property prediction
- arxiv url: http://arxiv.org/abs/2505.00625v1
- Date: Thu, 01 May 2025 16:05:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.366025
- Title: SA-GAT-SR: Self-Adaptable Graph Attention Networks with Symbolic Regression for high-fidelity material property prediction
- Title(参考訳): SA-GAT-SR:高忠実性材料特性予測のためのシンボリック回帰を用いた自己適応型グラフ注意ネットワーク
- Authors: Liu Junchi, Tang Ying, Tretiak Sergei, Duan Wenhui, Zhou Liujiang,
- Abstract要約: 我々はシンボリック回帰(SA-GAT-SR)と統合された新しい計算パラダイムである自己適応型グラフ注意ネットワークを導入する。
本フレームワークでは,注目重みを自動的に識別・調整する自己適応型符号化アルゴリズムを用いて,拡張可能な180次元特徴空間から重要な特徴をスクリーニングする。
その後、統合SRモジュールはこれらの特徴をコンパクトな解析式に蒸留し、量子力学的に意味のある関係を明確に示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in machine learning have demonstrated an enormous utility of deep learning approaches, particularly Graph Neural Networks (GNNs) for materials science. These methods have emerged as powerful tools for high-throughput prediction of material properties, offering a compelling enhancement and alternative to traditional first-principles calculations. While the community has predominantly focused on developing increasingly complex and universal models to enhance predictive accuracy, such approaches often lack physical interpretability and insights into materials behavior. Here, we introduce a novel computational paradigm, Self-Adaptable Graph Attention Networks integrated with Symbolic Regression (SA-GAT-SR), that synergistically combines the predictive capability of GNNs with the interpretative power of symbolic regression. Our framework employs a self-adaptable encoding algorithm that automatically identifies and adjust attention weights so as to screen critical features from an expansive 180-dimensional feature space while maintaining O(n) computational scaling. The integrated SR module subsequently distills these features into compact analytical expressions that explicitly reveal quantum-mechanically meaningful relationships, achieving 23 times acceleration compared to conventional SR implementations that heavily rely on first principle calculations-derived features as input. This work suggests a new framework in computational materials science, bridging the gap between predictive accuracy and physical interpretability, offering valuable physical insights into material behavior.
- Abstract(参考訳): 機械学習の最近の進歩は、深層学習アプローチ、特に材料科学におけるグラフニューラルネットワーク(GNN)の巨大な有用性を示している。
これらの手法は材料特性の高スループット予測のための強力なツールとして登場し、従来の第一原理計算に代わる強力な拡張と代替手段を提供している。
コミュニティは主に予測精度を高めるために、ますます複雑で普遍的なモデルの開発に重点を置いているが、そのようなアプローチは、物理的解釈可能性や材料行動に関する洞察を欠いていることが多い。
本稿では,Symbolic Regression(SA-GAT-SR)と統合された新たな計算パラダイムであるSelf-Adaptable Graph Attention Networkを紹介し,GNNの予測能力とシンボリック回帰の解釈力とを相乗的に組み合わせた。
本フレームワークでは,O(n)計算スケーリングを維持しつつ,拡張180次元特徴空間から重要な特徴を自動的に識別・調整する自己適応型符号化アルゴリズムを採用している。
その後、統合SRモジュールはこれらの特徴をコンパクトな解析式に蒸留し、量子力学的に意味のある関係を明確に示し、入力として第一原理計算に大きく依存する従来のSR実装に比べて23倍の加速を達成する。
この研究は、予測精度と物理的解釈可能性の間のギャップを埋め、物質行動に関する貴重な物理的洞察を提供する、計算材料科学の新しい枠組みを示唆している。
関連論文リスト
- Dynamic Graph Structure Estimation for Learning Multivariate Point Process using Spiking Neural Networks [14.77536193242342]
Spiking Dynamic Graph Networkは、スパイキングニューラルネットワーク(SNN)とスパイク依存塑性(STD-P)の時間的処理能力を活用する新しいフレームワークである。
イベントデータから直接動的時間的依存関係を学習し、一般化性とモデリングを強化することで、任意のデータセットに適応する。
NYC Taxi、911 Reddit、Stack Overflowなどの合成および実世界のデータセットで行った評価は、計算効率を維持しながら、優れた精度を示している。
論文 参考訳(メタデータ) (2025-04-01T23:23:10Z) - Interactive Symbolic Regression through Offline Reinforcement Learning: A Co-Design Framework [11.804368618793273]
シンボリック回帰は、観測データから基礎となる数学的および物理的関係を明らかにする大きな可能性を秘めている。
現在の最先端のアプローチは、通常、ドメインエキスパートの事前知識の統合を考慮していない。
本稿では,大規模な記号回帰のための高度な対話型フレームワークであるSym-Qを提案する。
論文 参考訳(メタデータ) (2025-02-05T06:26:49Z) - Enhancing material property prediction with ensemble deep graph convolutional networks [9.470117608423957]
近年の取り組みは、プロパティ予測にディープラーニングベースのグラフニューラルネットワークを含む高度なMLアルゴリズムの採用に重点を置いている。
本研究は,物質特性予測タスクを対象とする深層学習に基づくグラフニューラルネットワークにおけるアンサンブル戦略の詳細な評価を行う。
CGCNN(Crystal Graph Convolutional Neural Network)とそのマルチタスクバージョンであるMT-CGCNNを試験することにより、アンサンブル技術、特に予測平均化が従来のメトリクスを超える精度を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-07-26T16:12:06Z) - Graph Neural Ordinary Differential Equations for Coarse-Grained Socioeconomic Dynamics [0.0]
時空間社会経済力学をモデル化するためのデータ駆動型機械学習手法を提案する。
我々の研究結果は、ボルチモアのケーススタディから、この機械学習で強化された粗い粒度モデルが強力な機器であることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:12:46Z) - Interactive Symbolic Regression through Offline Reinforcement Learning: A Co-Design Framework [11.804368618793273]
シンボリック回帰は、観測データから基礎となる数学的および物理的関係を明らかにする大きな可能性を秘めている。
現在の最先端のアプローチは、通常、ドメインエキスパートの事前知識の統合を考慮していない。
本稿では,大規模な記号回帰のための高度な対話型フレームワークであるSym-Qを提案する。
論文 参考訳(メタデータ) (2024-02-07T22:53:54Z) - The Role of Foundation Models in Neuro-Symbolic Learning and Reasoning [54.56905063752427]
Neuro-Symbolic AI(NeSy)は、AIシステムの安全なデプロイを保証することを約束している。
ニューラルネットワークとシンボリックコンポーネントを順次トレーニングする既存のパイプラインは、広範なラベリングを必要とする。
新しいアーキテクチャであるNeSyGPTは、生データから象徴的特徴を抽出する視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2024-02-02T20:33:14Z) - Understanding Self-attention Mechanism via Dynamical System Perspective [58.024376086269015]
SAM(Self-attention mechanism)は、人工知能の様々な分野で広く使われている。
常微分方程式(ODE)の高精度解における固有剛性現象(SP)は,高性能ニューラルネットワーク(NN)にも広く存在することを示す。
SAMは、本質的なSPを測定するためのモデルの表現能力を高めることができる剛性対応のステップサイズ適応器でもあることを示す。
論文 参考訳(メタデータ) (2023-08-19T08:17:41Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - AttNS: Attention-Inspired Numerical Solving For Limited Data Scenarios [51.94807626839365]
限定データによる微分方程式の解法として,注目型数値解法(AttNS)を提案する。
AttNSは、モデル一般化とロバスト性の向上におけるResidual Neural Networks(ResNet)のアテンションモジュールの効果にインスパイアされている。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - Great Truths are Always Simple: A Rather Simple Knowledge Encoder for
Enhancing the Commonsense Reasoning Capacity of Pre-Trained Models [89.98762327725112]
自然言語における常識推論は、人工知能システムの望ましい能力である。
複雑なコモンセンス推論タスクを解決するための典型的な解決策は、知識対応グラフニューラルネットワーク(GNN)エンコーダで事前訓練された言語モデル(PTM)を強化することである。
有効性にもかかわらず、これらのアプローチは重いアーキテクチャ上に構築されており、外部知識リソースがPTMの推論能力をどのように改善するかを明確に説明できない。
論文 参考訳(メタデータ) (2022-05-04T01:27:36Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。