論文の概要: Derivative-informed Graph Convolutional Autoencoder with Phase Classification for the Lifshitz-Petrich Model
- arxiv url: http://arxiv.org/abs/2509.11293v1
- Date: Sun, 14 Sep 2025 14:32:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.016736
- Title: Derivative-informed Graph Convolutional Autoencoder with Phase Classification for the Lifshitz-Petrich Model
- Title(参考訳): Lifshitz-Petrichモデルのための位相分類付き微分インフォームドグラフ畳み込みオートエンコーダ
- Authors: Yanlai Chen, Yajie Ji, Zhenli Xu,
- Abstract要約: LPモデルの多状態解を分類するために、微分インフォームドグラフ畳み込みオートエンコーダ(DiGCA)を提案する。
オフライン段階では、DGCA位相分類器は、グラフ畳み込みオートエンコーダを訓練するための解とその微分の両方を革新的に組み込む。
オンライン段階では、このフレームワークはニューラルネットワーク分類器を使用して、エンコードされたソリューションを異なるフェーズダイアグラムに効率的に分類する。
- 参考スコア(独自算出の注目度): 0.019606958850574386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Lifshitz-Petrich (LP) model is a classical model for describing complex spatial patterns such as quasicrystals and multiphase structures. Solving and classifying the solutions of the LP model is challenging due to the presence of high-order gradient terms and the long-range orientational order characteristic of the quasicrystals. To address these challenges, we propose a Derivative-informed Graph Convolutional Autoencoder (DiGCA) to classify the multi-component multi-state solutions of the LP model. The classifier consists of two stages. In the offline stage, the DiGCA phase classifier innovatively incorporates both solutions and their derivatives for training a graph convolutional autoencoder which effectively captures intricate spatial dependencies while significantly reducing the dimensionality of the solution space. In the online phase, the framework employs a neural network classifier to efficiently categorize encoded solutions into distinct phase diagrams. The numerical results demonstrate that the DiGCA phase classifier accurately solves the LP model, classifies its solutions, and rapidly generates detailed phase diagrams in a robust manner, offering significant improvements in both efficiency and accuracy over traditional methods.
- Abstract(参考訳): Lifshitz-Petrichモデル(LPモデル)は、準結晶や多相構造といった複雑な空間パターンを記述するための古典的なモデルである。
LPモデルの解の解法と分類は、高次勾配項の存在と準結晶の長距離配向順序特性により困難である。
これらの課題に対処するために、LPモデルの多成分多状態解を分類する微分インフォームドグラフ畳み込みオートエンコーダ(DiGCA)を提案する。
分類器は2つの段階から構成される。
オフライン段階では、DGCA位相分類器は、複雑な空間依存を効果的に捕捉し、解空間の次元を著しく減少させるグラフ畳み込みオートエンコーダを訓練するために、解とその微分の両方を革新的に組み込む。
オンラインフェーズでは、このフレームワークはニューラルネットワーク分類器を使用して、エンコードされたソリューションを異なるフェーズダイアグラムに効率的に分類する。
数値計算の結果、DGCA位相分類器はLPモデルを正確に解き、解を分類し、詳細な位相図を頑健な方法で高速に生成し、従来の手法よりも効率と精度を大幅に向上することを示した。
関連論文リスト
- An End-to-End Deep Learning Method for Solving Nonlocal Allen-Cahn and Cahn-Hilliard Phase-Field Models [11.92061406443778]
本研究では,非局所的なアレン・カーン(AC)およびカーン・ヒリアード(CH)位相場モデルの効率的なエンドツーエンドディープラーニング手法を提案する。
ニューラルネットワークモデルへの入力チャネルとして非ローカルカーネルを組み込むことで、ニューラルネットワークのアーキテクチャをカスタマイズする。
論文 参考訳(メタデータ) (2024-10-11T15:41:47Z) - A domain decomposition-based autoregressive deep learning model for unsteady and nonlinear partial differential equations [2.7755345520127936]
非定常・非線形偏微分方程式(PDE)を正確にモデル化するためのドメイン分割型ディープラーニング(DL)フレームワークCoMLSimを提案する。
このフレームワークは、(a)畳み込みニューラルネットワーク(CNN)ベースのオートエンコーダアーキテクチャと(b)完全に接続された層で構成される自己回帰モデルという、2つの重要なコンポーネントで構成されている。
論文 参考訳(メタデータ) (2024-08-26T17:50:47Z) - What Improves the Generalization of Graph Transformers? A Theoretical Dive into the Self-attention and Positional Encoding [67.59552859593985]
自己アテンションと位置エンコーディングを組み込んだグラフトランスフォーマーは、さまざまなグラフ学習タスクのための強力なアーキテクチャとして登場した。
本稿では,半教師付き分類のための浅いグラフ変換器の理論的検討について紹介する。
論文 参考訳(メタデータ) (2024-06-04T05:30:16Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - A graph convolutional autoencoder approach to model order reduction for
parametrized PDEs [0.8192907805418583]
本稿では,グラフ畳み込みオートエンコーダ(GCA-ROM)に基づく非線形モデルオーダー削減のためのフレームワークを提案する。
我々は、GNNを利用して、圧縮された多様体を符号化し、パラメタライズされたPDEの高速な評価を可能にする、非侵襲的でデータ駆動の非線形還元手法を開発した。
論文 参考訳(メタデータ) (2023-05-15T12:01:22Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - A Bi-Level Framework for Learning to Solve Combinatorial Optimization on
Graphs [91.07247251502564]
本稿では,2つの世界の長所を結合するハイブリッドな手法を提案する。この手法では,グラフを最適化する上層学習手法とバイレベルフレームワークを開発する。
このような二段階のアプローチは、元のハードCOでの学習を単純化し、モデルキャパシティの需要を効果的に軽減することができる。
論文 参考訳(メタデータ) (2021-06-09T09:18:18Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。