論文の概要: Controllable Edge-Type-Specific Interpretation in Multi-Relational Graph Neural Networks for Drug Response Prediction
- arxiv url: http://arxiv.org/abs/2408.17129v2
- Date: Tue, 3 Sep 2024 08:45:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-04 12:24:11.824886
- Title: Controllable Edge-Type-Specific Interpretation in Multi-Relational Graph Neural Networks for Drug Response Prediction
- Title(参考訳): 薬物反応予測のためのマルチリレーショナルグラフニューラルネットワークにおけるエッジ型特異的解釈
- Authors: Xiaodi Li, Jianfeng Gui, Qian Gao, Haoyuan Shi, Zhenyu Yue,
- Abstract要約: 本稿では,がん治療薬の反応予測アルゴリズムであるCETExplainerを提案する。
制御可能なエッジタイプ固有の重み付け機構を導入し、予測モデルに対して微細で生物学的に意味のある説明を提供する。
実世界のデータセットに関する実証分析は、CETExplainerが優れた安定性を達成し、主要なアルゴリズムと比較して説明品質を向上させることを示した。
- 参考スコア(独自算出の注目度): 6.798254568821052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks have been widely applied in critical decision-making areas that demand interpretable predictions, leading to the flourishing development of interpretability algorithms. However, current graph interpretability algorithms tend to emphasize generality and often overlook biological significance, thereby limiting their applicability in predicting cancer drug responses. In this paper, we propose a novel post-hoc interpretability algorithm for cancer drug response prediction, CETExplainer, which incorporates a controllable edge-type-specific weighting mechanism. It considers the mutual information between subgraphs and predictions, proposing a structural scoring approach to provide fine-grained, biologically meaningful explanations for predictive models. We also introduce a method for constructing ground truth based on real-world datasets to quantitatively evaluate the proposed interpretability algorithm. Empirical analysis on the real-world dataset demonstrates that CETExplainer achieves superior stability and improves explanation quality compared to leading algorithms, thereby offering a robust and insightful tool for cancer drug prediction.
- Abstract(参考訳): グラフニューラルネットワークは、解釈可能な予測を要求する重要な意思決定領域に広く適用されており、解釈可能性アルゴリズムの発達に繋がる。
しかしながら、現在のグラフ解釈性アルゴリズムは、一般性を強調し、しばしば生物学的意義を見落とし、がん薬の反応を予測するための適用性を制限している。
本稿では,がん治療薬の反応予測のためのポストホック解釈性アルゴリズムであるCETExplainerを提案する。
サブグラフと予測の間の相互情報を考慮し、予測モデルに対して微細で生物学的に意味のある説明を提供する構造的スコアリング手法を提案する。
また,提案手法を定量的に評価するために,実世界のデータセットに基づく基底真理構築手法を提案する。
実世界のデータセットに関する実証分析は、CETExplainerが優れた安定性を達成し、主要なアルゴリズムと比較して説明品質を向上させることを示し、がん薬物予測のための堅牢で洞察に富んだツールを提供する。
関連論文リスト
- Variational and Explanatory Neural Networks for Encoding Cancer Profiles and Predicting Drug Responses [40.80133767939435]
既存のAIモデルは、転写学データのノイズと生物学的解釈性の欠如により、課題に直面している。
ノイズ効果を軽減するために変動成分を組み込んだ新しいニューラルネットワークフレームワークVETEを紹介する。
VETEは、AIによる予測と、がん研究における生物学的に意味のある洞察のギャップを埋める。
論文 参考訳(メタデータ) (2024-07-05T13:13:02Z) - Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - RandomSCM: interpretable ensembles of sparse classifiers tailored for
omics data [59.4141628321618]
決定規則の結合や解離に基づくアンサンブル学習アルゴリズムを提案する。
モデルの解釈可能性により、高次元データのバイオマーカー発見やパターン発見に有用である。
論文 参考訳(メタデータ) (2022-08-11T13:55:04Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows [67.23405590815602]
グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
論文 参考訳(メタデータ) (2021-12-18T10:19:01Z) - Convolutional Motif Kernel Networks [1.104960878651584]
我々のモデルは、小さなデータセットでしっかりと学習でき、関連する医療予測タスクで最先端のパフォーマンスを達成できることを示す。
提案手法はDNAおよびタンパク質配列に利用することができる。
論文 参考訳(メタデータ) (2021-11-03T15:06:09Z) - A Novel Interaction-based Methodology Towards Explainable AI with Better
Understanding of Pneumonia Chest X-ray Images [0.0]
本稿では,画像中の雑音および非情報的変数をスクリーニングするための相互作用に基づく手法であるI-Score(I-Score)を提案する。
提案手法をPneumonia Chest X-ray Imageデータセットに実世界の応用に適用し,その成果を報告する。
論文 参考訳(メタデータ) (2021-04-19T23:02:43Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。