論文の概要: Assessing Graph-based Deep Learning Models for Predicting Flash Point
- arxiv url: http://arxiv.org/abs/2002.11315v1
- Date: Wed, 26 Feb 2020 06:10:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 16:02:06.093229
- Title: Assessing Graph-based Deep Learning Models for Predicting Flash Point
- Title(参考訳): Flashポイント予測のためのグラフベースディープラーニングモデルの評価
- Authors: Xiaoyu Sun, Nathaniel J. Krakauer, Alexander Politowicz, Wei-Ting
Chen, Qiying Li, Zuoyi Li, Xianjia Shao, Alfred Sunaryo, Mingren Shen, James
Wang, Dane Morgan
- Abstract要約: グラフベースのディープラーニング(GBDL)モデルは初めてフラッシュポイントを予測するために実装された。
MPNNの平均R2と平均絶対誤差(MAE)は、それぞれ2.3%低、2.0K高である。
- 参考スコア(独自算出の注目度): 52.931492216239995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Flash points of organic molecules play an important role in preventing
flammability hazards and large databases of measured values exist, although
millions of compounds remain unmeasured. To rapidly extend existing data to new
compounds many researchers have used quantitative structure-property
relationship (QSPR) analysis to effectively predict flash points. In recent
years graph-based deep learning (GBDL) has emerged as a powerful alternative
method to traditional QSPR. In this paper, GBDL models were implemented in
predicting flash point for the first time. We assessed the performance of two
GBDL models, message-passing neural network (MPNN) and graph convolutional
neural network (GCNN), by comparing methods. Our result shows that MPNN both
outperforms GCNN and yields slightly worse but comparable performance with
previous QSPR studies. The average R2 and Mean Absolute Error (MAE) scores of
MPNN are, respectively, 2.3% lower and 2.0 K higher than previous comparable
studies. To further explore GBDL models, we collected the largest flash point
dataset to date, which contains 10575 unique molecules. The optimized MPNN
gives a test data R2 of 0.803 and MAE of 17.8 K on the complete dataset. We
also extracted 5 datasets from our integrated dataset based on molecular types
(acids, organometallics, organogermaniums, organosilicons, and organotins) and
explore the quality of the model in these classes.against 12 previous QSPR
studies using more traditional
- Abstract(参考訳): 有機分子のフラッシュポイントは可燃性の危険を防ぎ、測定値の大規模なデータベースが存在するが、何百万もの化合物は測定されていない。
既存のデータを新しい化合物に迅速に拡張するために、多くの研究者がQSPR分析を用いてフラッシュポイントを効果的に予測している。
近年,従来のQSPRの代替手段として,グラフベースのディープラーニング(GBDL)が登場している。
本稿では,GBDLモデルを初めてフラッシュポイントを予測するために実装した。
我々は,2つのGBDLモデル,MPNN(Message-passing Neural Network)とGCNN(Graph Convolutional Neural Network)の性能を比較検討した。
以上の結果から,MPNNはGCNNよりも優れており,従来のQSPR研究と比較すると若干劣っている。
MPNNの平均R2と平均絶対誤差(MAE)は、それぞれ2.3%低、2.0K高である。
GBDLモデルをさらに探索するため,これまでで最大10575個のユニークな分子を含むフラッシュポイントデータセットを収集した。
最適化されたMPNNは、完全なデータセットに対して0.803の試験データR2と17.8KのMAEを与える。
また, 分子型(酸, 有機金属, オルガノゲルマニウム, オルガノシリコン, オルガノチン)に基づく統合データセットから5つのデータセットを抽出し, これらのクラスにおけるモデルの品質について検討した。
関連論文リスト
- Deep Unlearn: Benchmarking Machine Unlearning [7.450700594277741]
機械学習(MU)は、訓練された機械学習モデルの学習可能なパラメータから、特定のデータポイントの影響を取り除くことを目的としている。
本稿では,様々なベンチマークデータセットおよびモデルを対象とした18種類の最先端MU手法について検討する。
論文 参考訳(メタデータ) (2024-10-02T06:41:58Z) - Kolmogorov-Arnold Networks in Low-Data Regimes: A Comparative Study with Multilayer Perceptrons [2.77390041716769]
Kolmogorov-Arnold Networks (KAN) は、ネットワークエッジ上で直接、高度に柔軟な学習可能なアクティベーション関数を使用する。
kanは学習可能なパラメータの数を大幅に増加させ、データスカース環境での有効性に対する懸念を高めます。
個別化活性化関数はパラメータの緩やかな増加だけで予測精度が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-09-16T16:56:08Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Neural scaling laws for phenotypic drug discovery [3.076170146656896]
小型分子の薬物発見を支援するモデルに、スケールが同様の影響を与えるかどうかを考察する。
我々は、Pheno-CAのタスクを明示的に教師するDNNが、データとモデルサイズがスケールアップされるにつれて、継続的に改善されないことを発見した。
我々は,NLPで成功した因果的目的関数に類似した新しい前駆的タスクである逆生物学プロセス(Inverse Biological Process, IBP)を導入する。
論文 参考訳(メタデータ) (2023-09-28T18:10:43Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule
Representations [55.42602325017405]
本稿では,分子の2レベル構造を考慮した新しいGODE法を提案する。
異なるグラフ構造上で2つのグラフニューラルネットワーク(GNN)を事前訓練し、対照的な学習と組み合わせることで、GODEは分子構造を対応する知識グラフサブ構造と融合させる。
11の化学特性タスクを微調整した場合、我々のモデルは既存のベンチマークよりも優れており、分類タスクの平均ROC-AUCアップリフトは13.8%、回帰タスクの平均RMSE/MAEエンハンスメントは35.1%である。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - Scalable training of graph convolutional neural networks for fast and
accurate predictions of HOMO-LUMO gap in molecules [1.8947048356389908]
この研究は、数百万の分子の物質特性を予測するために、HPCシステム上でGCNNモデルを構築することに焦点を当てている。
PyTorchで分散データ並列性を活用するために,大規模GCNNトレーニング用の社内ライブラリであるHydraGNNを使用しています。
我々は2つのオープンソースの大規模グラフデータセットの並列トレーニングを行い、HOMO-LUMOギャップとして知られる重要な量子特性のためのGCNN予測器を構築する。
論文 参考訳(メタデータ) (2022-07-22T20:54:22Z) - A Systematic Comparison Study on Hyperparameter Optimisation of Graph
Neural Networks for Molecular Property Prediction [8.02401104726362]
グラフニューラルネットワーク(GNN)は、幅広いグラフ関連学習タスクに対して提案されている。
近年,分子特性の予測に応用されたGNNシステムが増えてきている。
論文 参考訳(メタデータ) (2021-02-08T15:40:50Z) - Ensemble Transfer Learning for the Prediction of Anti-Cancer Drug
Response [49.86828302591469]
本稿では,抗がん剤感受性の予測にトランスファーラーニングを適用した。
我々は、ソースデータセット上で予測モデルをトレーニングし、ターゲットデータセット上でそれを洗練する古典的な転送学習フレームワークを適用した。
アンサンブル転送学習パイプラインは、LightGBMと異なるアーキテクチャを持つ2つのディープニューラルネットワーク(DNN)モデルを使用して実装されている。
論文 参考訳(メタデータ) (2020-05-13T20:29:48Z) - A Systematic Approach to Featurization for Cancer Drug Sensitivity
Predictions with Deep Learning [49.86828302591469]
35,000以上のニューラルネットワークモデルをトレーニングし、一般的な成果化技術を駆使しています。
RNA-seqは128以上のサブセットであっても非常に冗長で情報的であることがわかった。
論文 参考訳(メタデータ) (2020-04-30T20:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。