論文の概要: Prime Implicant Explanations for Reaction Feasibility Prediction
- arxiv url: http://arxiv.org/abs/2510.09226v1
- Date: Fri, 10 Oct 2025 10:13:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.690743
- Title: Prime Implicant Explanations for Reaction Feasibility Prediction
- Title(参考訳): 反応可能性予測のための素インプリカント説明
- Authors: Klaus Weinbauer, Tieu-Long Phan, Peter F. Stadler, Thomas Gärtner, Sagar Malhotra,
- Abstract要約: 化学反応の実現可能性を予測する機械学習モデルは、自動合成計画の中心となっている。
素因果説明の新規な定式化(最小限の理由としても知られる)をこの領域に合わせて導入する。
予備実験では、素因果説明という概念が、根底的な真理説明を保守的に捉えていることが示されている。
- 参考スコア(独自算出の注目度): 2.756429113262742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models that predict the feasibility of chemical reactions have become central to automated synthesis planning. Despite their predictive success, these models often lack transparency and interpretability. We introduce a novel formulation of prime implicant explanations--also known as minimally sufficient reasons--tailored to this domain, and propose an algorithm for computing such explanations in small-scale reaction prediction tasks. Preliminary experiments demonstrate that our notion of prime implicant explanations conservatively captures the ground truth explanations. That is, such explanations often contain redundant bonds and atoms but consistently capture the molecular attributes that are essential for predicting reaction feasibility.
- Abstract(参考訳): 化学反応の実現可能性を予測する機械学習モデルは、自動合成計画の中心となっている。
予測的な成功にもかかわらず、これらのモデルは透明性と解釈可能性に欠けることが多い。
本稿では,本領域に適合する最小の理由として,素因性説明の新たな定式化を導入し,このような説明を小規模な反応予測タスクで計算するアルゴリズムを提案する。
予備実験では、素因果説明という概念が、根底的な真理説明を保守的に捉えていることが示されている。
すなわち、このような説明は、しばしば冗長な結合や原子を含むが、反応の実現可能性を予測するのに不可欠な分子特性を一貫して捉えている。
関連論文リスト
- Are We Merely Justifying Results ex Post Facto? Quantifying Explanatory Inversion in Post-Hoc Model Explanations [87.68633031231924]
ポストホックな説明法は、入力特徴に対する予測に起因する解釈を提供する。
これらの説明は、インプットとアウトプットの自然な関係を意図せずに逆転させるだろうか?
Inversion Quantification (IQ) は、説明が出力に依存する程度を定量化し、忠実なインプット・アウトプット関係から逸脱するフレームワークである。
論文 参考訳(メタデータ) (2025-04-11T19:00:12Z) - Electron flow matching for generative reaction mechanism prediction obeying conservation laws [8.136277960071032]
この研究は、現代のフローマッチングの深層生成フレームワークを用いて、電子再分配の問題として反応予測の問題を再考する。
我々のモデルであるFlowERは、正確な質量保存を強制することで制限を克服し、幻覚障害モードを解消する。
FlowERはまた、熱力学または動力学的実現可能性の推定を可能にし、反応予測タスクにおける化学直観の程度を示す。
論文 参考訳(メタデータ) (2025-02-18T16:01:17Z) - Learning Chemical Reaction Representation with Reactant-Product Alignment [50.28123475356234]
RAlignは、様々な有機反応関連タスクのための新しい化学反応表現学習モデルである。
反応物質と生成物との原子対応を統合することにより、反応中に起こる分子変換を識別する。
モデルが重要な機能群に集中できるように,反応中心認識型アテンション機構を導入する。
論文 参考訳(メタデータ) (2024-11-26T17:41:44Z) - On Generating Monolithic and Model Reconciling Explanations in Probabilistic Scenarios [46.24262986854885]
本稿では,確率論的モノリシックな説明とモデル整合的な説明を生成するための新しいフレームワークを提案する。
モノリシックな説明のために,本手法は確率論的論理を利用して不確実性を統合し,説明の確率を増大させる。
モデル整合性の説明のために,モデル整合性問題の論理に基づく変種を拡張し,確率的人間モデルを考慮したフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T16:07:31Z) - Explainable Molecular Property Prediction: Aligning Chemical Concepts with Predictions via Language Models [26.838674632817877]
言語モデルに基づく分子特性予測のためのフレームワークを開発し,これをLamoleと呼ぶ。
文字列ベースの分子表現 -- Group SELFIES -- を入力トークンとして、事前にトレーニングし、Lamoleを微調整します。
我々はLamoleが同等の分類精度を達成でき、説明精度を最大14.3%向上させることができることを示した。
論文 参考訳(メタデータ) (2024-05-25T03:27:04Z) - Beyond Major Product Prediction: Reproducing Reaction Mechanisms with
Machine Learning Models Trained on a Large-Scale Mechanistic Dataset [10.968137261042715]
有機反応の機械的理解は、反応の発生、不純物予測、そして原則として反応発見を促進する。
いくつかの機械学習モデルは、反応生成物を予測するタスクに対処しようとしているが、反応機構を予測するための拡張は、対応する力学データセットの欠如によって妨げられている。
実験によって報告された反応物質と生成物の中間体を専門家の反応テンプレートを用いて入力し、その結果の5,184,184個の基本ステップに基づいて機械学習モデルを訓練することにより、そのようなデータセットを構築する。
論文 参考訳(メタデータ) (2024-03-07T15:26:23Z) - Non-Autoregressive Electron Redistribution Modeling for Reaction
Prediction [26.007965383304864]
反応を1ショットで予測する非自己回帰学習パラダイムを考案する。
任意の電子フローとして反応を定式化し、新しいマルチポインター復号ネットワークで予測する。
USPTO-MITデータセットの実験により、我々の手法は最先端のトップ1の精度を確立した。
論文 参考訳(メタデータ) (2021-06-08T16:39:08Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Retrosynthesis Prediction with Conditional Graph Logic Network [118.70437805407728]
コンピュータ支援のレトロシンセシスは、化学と計算機科学の双方から新たな関心を集めている。
本稿では,グラフニューラルネットワーク上に構築された条件付きグラフィカルモデルであるConditional Graph Logic Networkを用いて,この課題に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-06T05:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。