論文の概要: Peeling Context from Cause for Multimodal Molecular Property Prediction
- arxiv url: http://arxiv.org/abs/2511.06692v1
- Date: Mon, 10 Nov 2025 04:29:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.072447
- Title: Peeling Context from Cause for Multimodal Molecular Property Prediction
- Title(参考訳): マルチモーダル分子特性予測における原因からのピーリングコンテキスト
- Authors: Tao Li, Kaiyuan Hou, Tuan Vinh, Carl Yang, Monika Raj,
- Abstract要約: CLaP(Causal Layerwise Peeling)は、因果信号をコンテキストから階層的に分離するフレームワークである。
CLaPは、競争ベースラインよりもMAE、MSE、R2$を一貫して改善する。
原子レベルの因果正性マップを生成し、予測に責任を負う部分構造をハイライトする。
- 参考スコア(独自算出の注目度): 12.900046337617546
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep models are used for molecular property prediction, yet they are often difficult to interpret and may rely on spurious context rather than causal structure, which reduces reliability under distribution shift and harms predictive performance. We introduce CLaP (Causal Layerwise Peeling), a framework that separates causal signal from context in a layerwise manner and integrates diverse graph representations of molecules. At each layer, a causal block performs a soft split into causal and non-causal branches, fuses causal evidence across modalities, and progressively removes batch-coupled context to focus on label-relevant structure, thereby limiting shortcut signals and stabilizing layerwise refinement. Across four molecular benchmarks, CLaP consistently improves MAE, MSE, and $R^2$ over competitive baselines. The model also produces atom-level causal saliency maps that highlight substructures responsible for predictions, providing actionable guidance for targeted molecular edits. Case studies confirm the accuracy of these maps and their alignment with chemical intuition. By peeling context from cause at every layer, the model yields predictors that are both accurate and interpretable for molecular design.
- Abstract(参考訳): ディープモデルは分子特性予測に使用されるが、解釈が困難であり、分布シフト時の信頼性を低下させ、予測性能を損なう因果構造よりも急激な文脈に依存することがある。
CLaP(Causal Layerwise Peeling)は、因果シグナルを階層的に分離し、分子の多様なグラフ表現を統合するフレームワークである。
各層において、因果ブロックは、因果枝と非因果枝にソフトな分割を行い、モダリティ間で因果証拠を融合し、バッチ結合されたコンテキストを段階的に取り除き、ラベル関連構造にフォーカスし、ショートカット信号の制限とレイヤーワイド精細化を安定化する。
4つの分子ベンチマークで、CLaPは競争基準線よりもMAE、MSE、R^2$を一貫して改善する。
モデルはまた、予測に責任のあるサブ構造を強調し、標的となる分子編集のための実用的なガイダンスを提供する原子レベルの因果正性マップも生成する。
ケーススタディはこれらの地図の正確さと化学直観との整合性を確認した。
あらゆる層で原因からコンテキストを抽出することで、モデルは分子設計に正確かつ解釈可能な予測器を生成する。
関連論文リスト
- Enhancing Chemical Explainability Through Counterfactual Masking [1.1024591739346294]
マスクされたサブストラクチャを化学的に合理的な断片に置き換えるフレームワークである反ファクトファクトマスキングを提案する。
我々のアプローチは、説明可能性と分子設計のギャップを埋め、化学における説明可能な機械学習への原則的で生成的な経路を提供する。
論文 参考訳(メタデータ) (2025-08-25T23:41:36Z) - Fragment-Wise Interpretability in Graph Neural Networks via Molecule Decomposition and Contribution Analysis [0.9217021281095907]
SEAL(Substructure Explanation via Attribution Learning)は、モデル予測を意味のある分子サブグラフに属性付ける、新しい解釈可能なグラフニューラルネットワークである。
SEALは入力グラフを化学的に関連する断片に分解し、出力に対する因果的影響を推定する。
論文 参考訳(メタデータ) (2025-08-20T19:15:53Z) - Aligned Manifold Property and Topology Point Clouds for Learning Molecular Properties [55.2480439325792]
この研究は、局所量子由来のスカラー場とカスタムトポロジカルディスクリプタを組み合わせた分子表面表現であるAMPTCRを導入する。
分子量については、AMPTCRが物理的に意味のあるデータをコードし、検証R2は0.87であることを確認した。
細菌抑制タスクでは、AMPTCRは大腸菌阻害値の分類と直接回帰の両方を可能にする。
論文 参考訳(メタデータ) (2025-07-22T04:35:50Z) - Learning Flexible Forward Trajectories for Masked Molecular Diffusion [35.326540193307345]
仮面拡散モデル (MDMs) は離散データのモデリングにおいて顕著な進歩を遂げているが、分子生成におけるそのポテンシャルは未解明のままである。
標準MDMを適用すると、性能が著しく低下するという驚くべき結果が紹介される。
本研究では, 分子グラフ間の衝突を避けるため, 要素ごとの分解軌道を編成するMasked Element-wise Learnable Diffusion (MELD)を提案する。
論文 参考訳(メタデータ) (2025-05-22T15:30:17Z) - On Error Propagation of Diffusion Models [77.91480554418048]
DMのアーキテクチャにおける誤り伝播を数学的に定式化するための理論的枠組みを開発する。
累積誤差を正規化項として適用して誤差伝搬を低減する。
提案した正規化はエラーの伝播を低減し,バニラDMを大幅に改善し,以前のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-08-09T15:31:17Z) - Improving Molecular Contrastive Learning via Faulty Negative Mitigation
and Decomposed Fragment Contrast [17.142976840521264]
グラフニューラルネットワーク(GNN)を用いた表現の分子コントラスト学習の改善のためのiMolCLRを提案する。
実験の結果,提案手法はGNNモデルの性能を著しく向上させることがわかった。
iMolCLRは本質的に分子の類似性を推論できる足場や官能基を埋め込む。
論文 参考訳(メタデータ) (2022-02-18T18:33:27Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。