論文の概要: Improving Counterfactual Truthfulness for Molecular Property Prediction through Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2504.02606v1
- Date: Thu, 03 Apr 2025 14:07:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 16:48:23.87576
- Title: Improving Counterfactual Truthfulness for Molecular Property Prediction through Uncertainty Quantification
- Title(参考訳): 不確実性定量化による分子特性予測における反現実的真理性の改善
- Authors: Jonas Teufel, Annika Leinweber, Pascal Friederich,
- Abstract要約: XAIの介入は、複雑なブラックボックスモデルの解釈可能性を改善することを目的としている。
分子特性予測において、反事実的説明は予測行動を理解する方法を提供する。
本研究では,不確実性の高い候補をフィルタするための不確実性推定手法の統合を提案する。
- 参考スコア(独自算出の注目度): 0.6144680854063939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (xAI) interventions aim to improve interpretability for complex black-box models, not only to improve user trust but also as a means to extract scientific insights from high-performing predictive systems. In molecular property prediction, counterfactual explanations offer a way to understand predictive behavior by highlighting which minimal perturbations in the input molecular structure cause the greatest deviation in the predicted property. However, such explanations only allow for meaningful scientific insights if they reflect the distribution of the true underlying property -- a feature we define as counterfactual truthfulness. To increase this truthfulness, we propose the integration of uncertainty estimation techniques to filter counterfactual candidates with high predicted uncertainty. Through computational experiments with synthetic and real-world datasets, we demonstrate that traditional uncertainty estimation methods, such as ensembles and mean-variance estimation, can already substantially reduce the average prediction error and increase counterfactual truthfulness, especially for out-of-distribution settings. Our results highlight the importance and potential impact of incorporating uncertainty estimation into explainability methods, especially considering the relatively high effectiveness of low-effort interventions like model ensembles.
- Abstract(参考訳): 説明可能なAI(xAI)の介入は、複雑なブラックボックスモデルの解釈可能性の向上を目的としている。
分子特性予測において、反事実的説明は、入力分子構造における最小の摂動が予測特性の最大の偏差を引き起こすことを強調することによって予測行動を理解する方法を提供する。
しかし、そのような説明は、真の基礎となる性質の分布を反映している場合にのみ有意義な科学的洞察を与える。
この真偽性を高めるため,予測された不確実性のある候補をフィルタする不確実性推定手法の統合を提案する。
合成および実世界のデータセットを用いた計算実験により、アンサンブルや平均分散推定といった従来の不確実性推定手法が、平均予測誤差を著しく低減し、特にアウト・オブ・ディストリビューション・セッティングにおいて、反実的真実性を高めることができることを示した。
本研究は, モデルアンサンブルのような低便宜介入の比較的高い有効性を考慮して, 不確実性推定を説明可能性手法に取り入れることの重要性と潜在的影響を強調した。
関連論文リスト
- Ensured: Explanations for Decreasing the Epistemic Uncertainty in Predictions [1.2289361708127877]
認識の不確実性は、品質を説明するために重要な次元を付け加える。
我々は、この不確実性を特に狙う新しいタイプの説明を紹介します。
我々は、ユーザが最も信頼できる説明を識別できるように設計された新しい指標、保証されたランキングを導入する。
論文 参考訳(メタデータ) (2024-10-07T20:21:51Z) - CogDPM: Diffusion Probabilistic Models via Cognitive Predictive Coding [62.075029712357]
本研究は認知拡散確率モデル(CogDPM)を紹介する。
CogDPMは拡散モデルの階層的サンプリング能力に基づく精度推定法と拡散モデル固有の性質から推定される精度重み付きガイダンスを備える。
我々は,Universal Kindomの降水量と表面風速データセットを用いた実世界の予測タスクにCogDPMを適用した。
論文 参考訳(メタデータ) (2024-05-03T15:54:50Z) - Investigating the Impact of Model Instability on Explanations and Uncertainty [43.254616360807496]
テキスト入力における不確かさを推測時に雑音を導入することでシミュレートする。
高い不確実性は必ずしも説明可能性の低さを暗示しない。
このことは、ノイズ増強モデルが不確実性のあるトークンを特定するのに優れていることを示唆している。
論文 参考訳(メタデータ) (2024-02-20T13:41:21Z) - Model-agnostic variable importance for predictive uncertainty: an entropy-based approach [1.912429179274357]
既存の説明可能性の手法が不確実性を考慮したモデルにどのように拡張できるかを示す。
我々は、不確実性の原因とモデル性能への影響の両方を理解するために、これらのアプローチの有用性を実証する。
論文 参考訳(メタデータ) (2023-10-19T15:51:23Z) - Evidential Deep Learning: Enhancing Predictive Uncertainty Estimation
for Earth System Science Applications [0.32302664881848275]
エビデンシャル・ディープ・ラーニング(Evidential Deep Learning)は、パラメトリック・ディープ・ラーニングを高次分布に拡張する手法である。
本研究では,明らかなニューラルネットワークから得られる不確実性とアンサンブルから得られる不確実性を比較する。
本研究では,従来の手法に匹敵する予測精度を実現するとともに,両方の不確実性源をしっかりと定量化しながら,明らかな深層学習モデルを示す。
論文 参考訳(メタデータ) (2023-09-22T23:04:51Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Feature Perturbation Augmentation for Reliable Evaluation of Importance
Estimators in Neural Networks [5.439020425819001]
ポストホック解釈可能性法は、ディープニューラルネットワークの内部動作をより解釈可能にしようとする。
最も一般的な評価フレームワークの1つは、解釈可能性メソッドによって重要とみなされる機能を摂動させることである。
モデルトレーニング中に摂動画像を生成し,付加する特徴摂動増強(FPA)を提案する。
論文 参考訳(メタデータ) (2023-03-02T19:05:46Z) - Prediction-Powered Inference [68.97619568620709]
予測を用いた推論は、実験データセットに機械学習システムからの予測を補足した場合に有効な統計的推論を行うためのフレームワークである。
このフレームワークは、手段、量子、線形およびロジスティック回帰係数などの量に対して証明可能な信頼区間を計算するための単純なアルゴリズムを生成する。
予測による推論により、研究者は機械学習を使用して、より有効な、よりデータ効率の高い結論を導き出すことができる。
論文 参考訳(メタデータ) (2023-01-23T18:59:28Z) - Assigning Confidence to Molecular Property Prediction [1.015785232738621]
機械学習は、既存のデータセットから学び、目に見えない分子の予測を実行する強力な戦略として登場した。
薬物設計に関連する分子特性を予測するための一般的な戦略、それに対応する不確実性源および不確実性および信頼性を定量化する方法について議論する。
論文 参考訳(メタデータ) (2021-02-23T01:03:48Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。