論文の概要: State-of-the-Art Augmented NLP Transformer models for direct and
single-step retrosynthesis
- arxiv url: http://arxiv.org/abs/2003.02804v2
- Date: Tue, 22 Sep 2020 14:23:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 06:31:46.661929
- Title: State-of-the-Art Augmented NLP Transformer models for direct and
single-step retrosynthesis
- Title(参考訳): 直接および単段逆相合成のための現状拡張NLP変換器モデル
- Authors: Igor V. Tetko, Pavel Karpov, Ruud Van Deursen, Guillaume Godin
- Abstract要約: 化学物質の逆合成予測に異なる訓練シナリオが及ぼす影響について検討した。
データ拡張は、画像処理で使用される強力な方法であり、ニューラルネットワークによるデータ記憶の効果を排除した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We investigated the effect of different training scenarios on predicting the
(retro)synthesis of chemical compounds using a text-like representation of
chemical reactions (SMILES) and Natural Language Processing neural network
Transformer architecture. We showed that data augmentation, which is a powerful
method used in image processing, eliminated the effect of data memorization by
neural networks, and improved their performance for the prediction of new
sequences. This effect was observed when augmentation was used simultaneously
for input and the target data simultaneously. The top-5 accuracy was 84.8% for
the prediction of the largest fragment (thus identifying principal
transformation for classical retro-synthesis) for the USPTO-50k test dataset
and was achieved by a combination of SMILES augmentation and a beam search
algorithm. The same approach provided significantly better results for the
prediction of direct reactions from the single-step USPTO-MIT test set. Our
model achieved 90.6% top-1 and 96.1% top-5 accuracy for its challenging mixed
set and 97% top-5 accuracy for the USPTO-MIT separated set. It also
significantly improved results for USPTO-full set single-step retrosynthesis
for both top-1 and top-10 accuracies. The appearance frequency of the most
abundantly generated SMILES was well correlated with the prediction outcome and
can be used as a measure of the quality of reaction prediction.
- Abstract(参考訳): ニューラルネットワークトランスフォーマーアーキテクチャを用いたテキストライクな化学反応表現(smiles)と自然言語処理による化合物合成(retro)予測における異なる学習シナリオの効果について検討した。
画像処理における強力な手法であるデータ拡張は,ニューラルネットワークによるデータ記憶の効果をなくし,新たなシーケンスの予測性能を向上させることを示した。
この効果は,入力データと対象データとを同時に使用する場合に観察された。
トップ5の精度は、USPTO-50kテストデータセットの最大の断片(古典的なレトロシンセシスの主変換)の予測の84.8%であり、SMILES拡張とビームサーチアルゴリズムの組み合わせによって達成された。
同じアプローチは、単一ステップのUSPTO-MITテストセットからの直接反応の予測に対して、かなり良い結果をもたらした。
我々のモデルは、挑戦的な混合集合で90.6%のトップ1と96.1%のトップ5の精度、USPTO-MIT分離集合で97%のトップ5の精度を達成した。
また、uspto-full による top-1 と top-10 の両方のレトロシンセシスの結果を大幅に改善した。
最も多く生成された笑顔の出現頻度は, 予測結果とよく相関し, 反応予測の質の指標として使用できる。
関連論文リスト
- PredFormer: Transformers Are Effective Spatial-Temporal Predictive Learners [65.93130697098658]
本稿では、予測学習のための純粋なトランスフォーマーベースのフレームワークであるPredFormerを提案する。
PredFormerは、リカレントフリーでトランスフォーマーベースの設計で、シンプルかつ効率的である。
合成および実世界のデータセットに関する実験は、PredFormerが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-07T03:52:06Z) - Retrosynthesis prediction enhanced by in-silico reaction data
augmentation [66.5643280109899]
RetroWISEは,実データから推定されるベースモデルを用いて,シリコン内反応の生成と増大を行うフレームワークである。
3つのベンチマークデータセットで、RetroWISEは最先端モデルに対して最高の全体的なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-01-31T07:40:37Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Comparative Analysis of Epileptic Seizure Prediction: Exploring Diverse
Pre-Processing Techniques and Machine Learning Models [0.0]
脳波データを用いたてんかん発作予測のための5つの機械学習モデルの比較分析を行った。
本分析の結果は,各モデルの性能を精度で示すものである。
ETモデルは99.29%の精度で最高の性能を示した。
論文 参考訳(メタデータ) (2023-08-06T08:50:08Z) - Retrosynthesis Prediction with Local Template Retrieval [112.23386062396622]
特定の標的分子の反応を予測する再合成は、薬物発見に必須の課題である。
本稿では,局所的な反応テンプレート検索手法であるRetroKNNを紹介する。
我々は、広く使われている2つのベンチマーク、USPTO-50KとUSPTO-MITで包括的な実験を行う。
論文 参考訳(メタデータ) (2023-06-07T03:38:03Z) - G-MATT: Single-step Retrosynthesis Prediction using Molecular Grammar
Tree Transformer [0.0]
本稿では、強力なデータ駆動モデルと事前のドメイン知識を組み合わせた化学対応の逆合成予測フレームワークを提案する。
提案するフレームワークであるG-MATT(G-MATT)は,ベースラインレトロシンセシスモデルと比較して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2023-05-04T21:04:19Z) - Unassisted Noise Reduction of Chemical Reaction Data Sets [59.127921057012564]
本稿では,データセットから化学的に間違ったエントリを除去するための,機械学習に基づく無支援アプローチを提案する。
その結果,クリーン化およびバランスの取れたデータセットでトレーニングしたモデルの予測精度が向上した。
論文 参考訳(メタデータ) (2021-02-02T09:34:34Z) - A Generative Model to Synthesize EEG Data for Epileptic Seizure
Prediction [3.8271082752302137]
本稿では, 合成脳波サンプルを生成するための深層畳み込み生成対向ネットワークを提案する。
我々は合成データ、すなわち1クラスSVMと、畳み込みてんかん発作予測器(CESP)と呼ばれる新しい提案を2つの手法で検証する。
以上の結果から,CESPモデルでは78.11%,88.21%,FPR0.27/h,0.14/hの感度が得られた。
論文 参考訳(メタデータ) (2020-12-01T12:00:36Z) - Towards a Competitive End-to-End Speech Recognition for CHiME-6 Dinner
Party Transcription [73.66530509749305]
本稿では,難しい場合であっても,ハイブリッドベースラインに近い性能を示すエンドツーエンドアプローチについて論じる。
CTC-Attention と RNN-Transducer のアプローチと RNN と Transformer のアーキテクチャを比較し,解析する。
RNN-Transducerをベースとしたベストエンド・ツー・エンドモデルでは、ビームサーチの改善とともに、LF-MMI TDNN-F CHiME-6 Challengeのベースラインよりも品質が3.8%向上した。
論文 参考訳(メタデータ) (2020-04-22T19:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。