論文の概要: Persistent homology-based descriptor for machine-learning potential
- arxiv url: http://arxiv.org/abs/2206.13727v1
- Date: Tue, 28 Jun 2022 03:29:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 14:30:42.237329
- Title: Persistent homology-based descriptor for machine-learning potential
- Title(参考訳): 永続的ホモロジーに基づく機械学習ポテンシャル記述子
- Authors: Emi Minamitani and Ippei Obayashi
- Abstract要約: 我々は、永続的ホモロジーに基づく新しい記述子のクラスを提案した。
この記述子に基づく畳み込みニューラルネットワークモデルは、アモルファスグラフェンとアモルファス炭素の原子あたりの平均エネルギーを予測するのに十分な精度を提供することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Constructing efficient descriptors that represent atomic configurations is
crucial for developing a superior machine-learning potential. Widely used
conventional descriptors are based on two- or three-body correlations of atomic
distribution. Recently, several limitations of these many-body descriptors in
classifying different configurations were revealed, which have detrimental
effects on the prediction of physical properties. We proposed a new class of
descriptors based on persistent homology. We focused on the two-dimensional
visualization of persistent homology, that is, a persistence diagram, as a
descriptor of atomic configurations in the form of an image. We demonstrated
that convolutional neural network models based on this descriptor provide
sufficient accuracy in predicting the mean energies per atom of amorphous
graphene and amorphous carbon. Our results provide an avenue for improving
machine-learning potential using descriptors that depict both topological and
geometric information.
- Abstract(参考訳): アトミックな構成を表す効率的な記述子を構築することは、優れた機械学習ポテンシャルを開発する上で不可欠である。
広く使われている従来のディスクリプタは、原子分布の2体または3体相関に基づいている。
近年, 様々な構成の分類における多体記述子の限界が明らかになり, 物理的特性の予測に有害な影響が認められた。
我々は持続的ホモロジーに基づく新しい記述子の提案を行った。
画像形式における原子構成のディスクリプタとして,持続的ホモロジー,すなわち永続性図の二次元可視化に焦点をあてた。
この記述子に基づく畳み込みニューラルネットワークモデルがアモルファスグラフェンとアモルファス炭素の原子当たりの平均エネルギーを予測するのに十分な精度をもたらすことを実証した。
本研究では,トポロジカル情報と幾何情報の両方を記述した記述子を用いて,機械学習能力を向上させる方法を提案する。
関連論文リスト
- Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Oracle-Preserving Latent Flows [58.720142291102135]
我々はラベル付きデータセット全体にわたって複数の非自明な連続対称性を同時に発見するための方法論を開発する。
対称性変換と対応するジェネレータは、特別に構築された損失関数で訓練された完全連結ニューラルネットワークでモデル化される。
この研究における2つの新しい要素は、縮小次元の潜在空間の使用と、高次元のオラクルに関して不変な変換への一般化である。
論文 参考訳(メタデータ) (2023-02-02T00:13:32Z) - Transferable E(3) equivariant parameterization for Hamiltonian of
molecules and solids [5.512295869673147]
本研究では,分子と固体の半初期強結合ハミルトニアンを予測するために,HamNetと呼ばれるE(3)同変ニューラルネットワークを開発した。
提案フレームワークは、電子構造計算を高速化するための一般的な転送可能なモデルを提供する。
論文 参考訳(メタデータ) (2022-10-28T14:56:24Z) - Atomic structure generation from reconstructing structural fingerprints [1.2128971613239876]
本稿では、原子中心対称性関数を表現として、条件付き変分オートエンコーダを生成モデルとして、エンドツーエンド構造生成手法を提案する。
我々は、概念実証として、サブナノメーターPtナノ粒子の新規で有効な原子構造を生成することに成功した。
論文 参考訳(メタデータ) (2022-07-27T00:42:59Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - A deep learning driven pseudospectral PCE based FFT homogenization
algorithm for complex microstructures [68.8204255655161]
提案手法は,従来の手法よりも高速に評価できる一方で,興味の中心モーメントを予測できることを示す。
提案手法は,従来の手法よりも高速に評価できると同時に,興味の中心モーメントを予測できることを示す。
論文 参考訳(メタデータ) (2021-10-26T07:02:14Z) - Gaussian Moments as Physically Inspired Molecular Descriptors for
Accurate and Scalable Machine Learning Potentials [0.0]
本稿では,フィードフォワードニューラルネットワークに基づく高次元ポテンシャルエネルギー表面構築のための機械学習手法を提案する。
化学空間と構成空間の両方を表すために開発されたアプローチの精度は、いくつかの確立された機械学習モデルの1つに匹敵する。
論文 参考訳(メタデータ) (2021-09-15T16:46:46Z) - Manifold learning-based polynomial chaos expansions for high-dimensional
surrogate models [0.0]
システム記述における不確実性定量化(UQ)のための多様体学習に基づく手法を提案する。
提案手法は高精度な近似を達成でき、UQタスクの大幅な高速化につながる。
論文 参考訳(メタデータ) (2021-07-21T00:24:15Z) - Optimal radial basis for density-based atomic representations [58.720142291102135]
データセットの構造的多様性を最も効率的に表現するために選択される適応的で最適な数値ベースを構築する方法について議論します。
トレーニングデータセットごとに、この最適なベースはユニークで、プリミティブベースに関して追加のコストなしで計算することができる。
この構成が精度と計算効率のよい表現をもたらすことを実証する。
論文 参考訳(メタデータ) (2021-05-18T17:57:08Z) - OrbNet: Deep Learning for Quantum Chemistry Using Symmetry-Adapted
Atomic-Orbital Features [42.96944345045462]
textscOrbNetは、学習効率と転送可能性の観点から、既存のメソッドよりも優れています。
薬物のような分子のデータセットに応用するために、textscOrbNetは1000倍以上の計算コストでDFTの化学的精度でエネルギーを予測する。
論文 参考訳(メタデータ) (2020-07-15T22:38:41Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。