論文の概要: Machine learning for structure-property relationships: Scalability and
limitations
- arxiv url: http://arxiv.org/abs/2304.05502v1
- Date: Tue, 11 Apr 2023 21:17:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 16:45:02.232599
- Title: Machine learning for structure-property relationships: Scalability and
limitations
- Title(参考訳): 構造-プロパティ関係のための機械学習:スケーラビリティと限界
- Authors: Zhongzheng Tian, Sheng Zhang, Gia-Wei Chern
- Abstract要約: 本稿では,多体システムの集中特性,特に分類フェーズを予測するためのスケーラブル機械学習(ML)フレームワークを提案する。
局所性仮定に基づいて,有限サイズのブロックの集中特性の予測のためにMLモデルを開発した。
本手法の適用性は,MLモデルのブロックサイズがシステムの特徴的長さスケールよりも大きいかどうかに依存する。
- 参考スコア(独自算出の注目度): 3.664479980617018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a scalable machine learning (ML) framework for predicting
intensive properties and particularly classifying phases of many-body systems.
Scalability and transferability are central to the unprecedented computational
efficiency of ML methods. In general, linear-scaling computation can be
achieved through the divide and conquer approach, and the locality of physical
properties is key to partitioning the system into sub-domains that can be
solved separately. Based on the locality assumption, ML model is developed for
the prediction of intensive properties of a finite-size block. Predictions of
large-scale systems can then be obtained by averaging results of the ML model
from randomly sampled blocks of the system. We show that the applicability of
this approach depends on whether the block-size of the ML model is greater than
the characteristic length scale of the system. In particular, in the case of
phase identification across a critical point, the accuracy of the ML prediction
is limited by the diverging correlation length. The two-dimensional Ising model
is used to demonstrate the proposed framework. We obtain an intriguing scaling
relation between the prediction accuracy and the ratio of ML block size over
the spin-spin correlation length. Implications for practical applications are
also discussed.
- Abstract(参考訳): 本稿では,多体システムの集中特性,特に分類フェーズを予測するためのスケーラブル機械学習(ML)フレームワークを提案する。
スケーラビリティと転送性は、ML法の前例のない計算効率の中心である。
一般に、線形スケーリング計算は分割と征服のアプローチによって達成され、物理的性質の局所性はシステムを分離して解決できるサブドメインに分割する鍵となる。
局所性仮定に基づいて,有限サイズのブロックの集中特性の予測のためにMLモデルを開発した。
大規模システムの予測は、システムのランダムなサンプリングブロックからMLモデルの結果を平均化することによって得られる。
本手法の適用性は,mlモデルのブロックサイズがシステムの特性長さスケールよりも大きいかどうかに依存することを示した。
特に、臨界点を越えた位相同定の場合、ML予測の精度は、ばらつき相関長によって制限される。
2次元Isingモデルを用いて提案したフレームワークを実証する。
本研究では,スピンスピン相関長に対する予測精度とmlブロックサイズ比の興味深いスケーリング関係を求める。
実用的応用への示唆についても考察する。
関連論文リスト
- Uncertainty Quantification in Large Language Models Through Convex Hull Analysis [0.36832029288386137]
本研究では凸船体解析を用いた不確実性定量化のための新しい幾何学的手法を提案する。
提案手法は, 応答埋め込みの空間特性を利用して, モデル出力の分散と可変性を計測する。
論文 参考訳(メタデータ) (2024-06-28T07:47:34Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Data-freeWeight Compress and Denoise for Large Language Models [101.53420111286952]
パラメータ行列を圧縮する手法として,データフリーなジョイントランクk近似を提案する。
キャリブレーションデータなしで、元の性能の93.43%を維持しながら80%のパラメータのモデルプルーニングを実現する。
論文 参考訳(メタデータ) (2024-02-26T05:51:47Z) - Probabilistic ML Verification via Weighted Model Integration [11.812078181471634]
機械学習モデルの確率形式検証(PFV)はその初期段階にある。
重み付きモデル統合(WMI)に基づくMLシステムのPFV統合フレームワークを提案する。
ML検証文献におけるスケーリング手法が,本来の範囲を超えていかに一般化できるかを示す。
論文 参考訳(メタデータ) (2024-02-07T14:24:04Z) - Variable Importance Matching for Causal Inference [73.25504313552516]
これらの目標を達成するためのModel-to-Matchと呼ばれる一般的なフレームワークについて説明する。
Model-to-Matchは、距離メートル法を構築するために変数重要度測定を使用する。
LASSO を用いて Model-to-Match フレームワークを運用する。
論文 参考訳(メタデータ) (2023-02-23T00:43:03Z) - A Data-driven feature selection and machine-learning model benchmark for
the prediction of longitudinal dispersion coefficient [29.58577229101903]
縦方向分散(LD)係数の正確な予測は、関連するシミュレーションにおいて性能の飛躍をもたらすことができる。
本研究では, 蒸留した局所最適値と代表MLモデルとの数値比較により, 大域的最適特徴集合を提案した。
その結果,サポートベクタマシンは他のモデルよりも大幅に性能が向上していることがわかった。
論文 参考訳(メタデータ) (2021-07-16T09:50:38Z) - Generalized Matrix Factorization: efficient algorithms for fitting
generalized linear latent variable models to large data arrays [62.997667081978825]
一般化線形潜在変数モデル(GLLVM)は、そのような因子モデルを非ガウス応答に一般化する。
GLLVMのモデルパラメータを推定する現在のアルゴリズムは、集約的な計算を必要とし、大規模なデータセットにスケールしない。
本稿では,GLLVMを高次元データセットに適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-06T04:28:19Z) - Unbiased Gradient Estimation for Variational Auto-Encoders using Coupled
Markov Chains [34.77971292478243]
変分オートエンコーダ(VAE)は、オートエンコーダのようなアーキテクチャで2つのニューラルネットワークを持つ、潜伏変数モデルである。
ログ型勾配の偏りのない推定器を導入することにより,VAEのトレーニング手法を開発する。
偏りのない推定器を装着したVAEは予測性能が向上することを示した。
論文 参考訳(メタデータ) (2020-10-05T08:11:55Z) - Surrogate Locally-Interpretable Models with Supervised Machine Learning
Algorithms [8.949704905866888]
近年,従来の統計的手法よりも予測性能が優れているため,機械学習アルゴリズムが普及している。
主な焦点は解釈可能性であり、結果として得られるサロゲートモデルは、合理的に優れた予測性能を持つ。
論文 参考訳(メタデータ) (2020-07-28T23:46:16Z) - Slice Sampling for General Completely Random Measures [74.24975039689893]
本稿では, 後続推定のためのマルコフ連鎖モンテカルロアルゴリズムについて, 補助スライス変数を用いてトランケーションレベルを適応的に設定する。
提案アルゴリズムの有効性は、いくつかの一般的な非パラメトリックモデルで評価される。
論文 参考訳(メタデータ) (2020-06-24T17:53:53Z) - Localized Debiased Machine Learning: Efficient Inference on Quantile
Treatment Effects and Beyond [69.83813153444115]
因果推論における(局所)量子化処理効果((L)QTE)の効率的な推定式を検討する。
Debiased Machine Learning (DML)は、高次元のニュアンスを推定するデータ分割手法である。
本稿では、この負担のかかるステップを避けるために、局所的脱バイアス機械学習(LDML)を提案する。
論文 参考訳(メタデータ) (2019-12-30T14:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。