論文の概要: Accelerating the inference of string generation-based chemical reaction models for industrial applications
- arxiv url: http://arxiv.org/abs/2407.09685v1
- Date: Fri, 12 Jul 2024 20:55:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 21:18:20.422887
- Title: Accelerating the inference of string generation-based chemical reaction models for industrial applications
- Title(参考訳): 産業応用のための文字列生成に基づく化学反応モデルの推算の高速化
- Authors: Mikhail Andronov, Natalia Andronova, Michael Wand, Jürgen Schmidhuber, Djork-Arnè Clevert,
- Abstract要約: 本稿では,自動回帰SMILESジェネレータの投機的復号化による推論を高速化する手法を提案する。
反応予測と1段階の逆合成では3倍高速な推算が可能であり,精度は低下しない。
- 参考スコア(独自算出の注目度): 22.65037251840661
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Template-free SMILES-to-SMILES translation models for reaction prediction and single-step retrosynthesis are of interest for industrial applications in computer-aided synthesis planning systems due to their state-of-the-art accuracy. However, they suffer from slow inference speed. We present a method to accelerate inference in autoregressive SMILES generators through speculative decoding by copying query string subsequences into target strings in the right places. We apply our method to the molecular transformer implemented in Pytorch Lightning and achieve over 3X faster inference in reaction prediction and single-step retrosynthesis, with no loss in accuracy.
- Abstract(参考訳): テンプレートのないSMILES-to-SMILES変換モデルによる反応予測と1段階の逆合成は、コンピュータ支援合成計画システムにおける産業的応用において、最先端の精度のために重要である。
しかし、推論速度が遅い。
本稿では,クエリ文字列列を適切な場所でターゲット文字列にコピーすることで,投機的復号化による自動回帰SMILESジェネレータの推論を高速化する手法を提案する。
そこで,本手法をPytorch Lightningで実装した分子トランスに応用し,反応予測と1段階の逆合成において3倍以上の高速化を実現し,精度を損なうことなく実現した。
関連論文リスト
- Autoregressive Speech Synthesis without Vector Quantization [135.4776759536272]
テキストから音声合成(TTS)のための新しい連続値トークンに基づく言語モデリング手法であるMELLEを提案する。
MELLEはテキスト条件から直接連続メル-スペクトログラムフレームを自動回帰生成する。
論文 参考訳(メタデータ) (2024-07-11T14:36:53Z) - Retrosynthesis prediction enhanced by in-silico reaction data
augmentation [66.5643280109899]
RetroWISEは,実データから推定されるベースモデルを用いて,シリコン内反応の生成と増大を行うフレームワークである。
3つのベンチマークデータセットで、RetroWISEは最先端モデルに対して最高の全体的なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-01-31T07:40:37Z) - Synthetic Wave-Geometric Impulse Responses for Improved Speech
Dereverberation [69.1351513309953]
室内インパルス応答 (RIR) の低周波成分を正確にシミュレートすることが, 良好な脱ヴァーベレーションを実現する上で重要であることを示す。
本研究では, ハイブリッド合成RIRで訓練された音声残響モデルが, 従来の幾何線トレーシング法により学習されたRIRで訓練されたモデルよりも優れていたことを示す。
論文 参考訳(メタデータ) (2022-12-10T20:15:23Z) - Root-aligned SMILES for Molecular Retrosynthesis Prediction [31.818364437526885]
再合成予測は有機合成の基本的な問題であり、標的分子の合成に使用できる前駆体分子を発見することが目的である。
既存の計算逆合成手法の一般的なパラダイムは、列から列への変換問題として再合成予測を定式化する。
本稿では,製品と反応するSMILES間の一対一マッピングを厳密に整列するルート整列SMILES(R-SMILES)を提案する。
論文 参考訳(メタデータ) (2022-03-22T03:50:04Z) - Retroformer: Pushing the Limits of Interpretable End-to-end
Retrosynthesis Transformer [15.722719721123054]
再合成予測は有機合成の基本的な課題の1つである。
本稿では,レトロシンセシス予測のためのトランスフォーマーに基づく新しいアーキテクチャであるRetroformerを提案する。
Retroformerは、エンドツーエンドのテンプレートフリーレトロシンセシスのための新しい最先端の精度に達する。
論文 参考訳(メタデータ) (2022-01-29T02:03:55Z) - Non-Autoregressive Electron Redistribution Modeling for Reaction
Prediction [26.007965383304864]
反応を1ショットで予測する非自己回帰学習パラダイムを考案する。
任意の電子フローとして反応を定式化し、新しいマルチポインター復号ネットワークで予測する。
USPTO-MITデータセットの実験により、我々の手法は最先端のトップ1の精度を確立した。
論文 参考訳(メタデータ) (2021-06-08T16:39:08Z) - FSR: Accelerating the Inference Process of Transducer-Based Models by
Applying Fast-Skip Regularization [72.9385528828306]
典型的なトランスデューサモデルは、現在の音響状態に条件付き出力シーケンスをデコードします。
予測結果に含まれる空白のトークンの数は、すべてのトークンの90%近くを占める。
本稿では,トランスデューサが予測する空白位置とCTCモデルが予測する空白位置を一致させようとする高速スキップ正規化法を提案する。
論文 参考訳(メタデータ) (2021-04-07T03:15:10Z) - Non-autoregressive electron flow generation for reaction prediction [15.98143959075733]
このような連続的な生成を回避し、非自動回帰的な反応を予測する新しいデコーダを考案する。
物理化学の洞察に基づいて、分子グラフのエッジ編集を電子フローとして表現し、並列に予測できます。
このモデルは,最先端のtop-1精度とtop-kサンプリングにおける同等の性能で,推定遅延を桁違いに低減する。
論文 参考訳(メタデータ) (2020-12-16T10:01:26Z) - RetroXpert: Decompose Retrosynthesis Prediction like a Chemist [60.463900712314754]
そこで我々は, テンプレートフリーな自動逆合成拡張アルゴリズムを考案した。
我々の方法はレトロシンセシスを2段階に分解する。
最先端のベースラインよりも優れている一方で、我々のモデルは化学的に合理的な解釈も提供する。
論文 参考訳(メタデータ) (2020-11-04T04:35:34Z) - Synthesizer: Rethinking Self-Attention in Transformer Models [93.08171885200922]
ドット積の自己アテンションは、最先端のトランスフォーマーモデルでは不可欠である。
本稿では,ドット製品に基づく自己認識機構がトランスフォーマーモデルの性能に与える影響について検討する。
論文 参考訳(メタデータ) (2020-05-02T08:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。