論文の概要: Counterfactual Explanation with Multi-Agent Reinforcement Learning for
Drug Target Prediction
- arxiv url: http://arxiv.org/abs/2103.12983v1
- Date: Wed, 24 Mar 2021 04:38:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 20:56:34.966634
- Title: Counterfactual Explanation with Multi-Agent Reinforcement Learning for
Drug Target Prediction
- Title(参考訳): 薬物標的予測のためのマルチエージェント強化学習による実例説明
- Authors: Tri Minh Nguyen, Thomas P Quinn, Thin Nguyen, Truyen Tran
- Abstract要約: 本稿では,マルチエージェント・強化学習フレームワークであるMulti-Agent Counterfactual Drug-target binding Affinity (MACDA)を提案する。
提案フレームワークは,入力薬物と標的薬の両方を同時に最適化しながら,人間に解釈可能な反事実インスタンスを提供する。
- 参考スコア(独自算出の注目度): 26.911107719994995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motivation: Several accurate deep learning models have been proposed to
predict drug-target affinity (DTA). However, all of these models are black box
hence are difficult to interpret and verify its result, and thus risking
acceptance. Explanation is necessary to allow the DTA model more trustworthy.
Explanation with counterfactual provides human-understandable examples. Most
counterfactual explanation methods only operate on single input data, which are
in tabular or continuous forms. In contrast, the DTA model has two discrete
inputs. It is challenging for the counterfactual generation framework to
optimize both discrete inputs at the same time.
Results: We propose a multi-agent reinforcement learning framework,
Multi-Agent Counterfactual Drug-target binding Affinity (MACDA), to generate
counterfactual explanations for the drug-protein complex. Our proposed
framework provides human-interpretable counterfactual instances while
optimizing both the input drug and target for counterfactual generation at the
same time. The result on the Davis dataset shows the advantages of the proposed
MACDA framework compared with previous works.
- Abstract(参考訳): 動機: 薬物標的親和性(dta)を予測するために、いくつかの正確なディープラーニングモデルが提案されている。
しかしながら、これらのモデルはすべてブラックボックスであるため、結果の解釈と検証が難しいため、受け入れのリスクがある。
DTAモデルの信頼性を高めるには説明が必要だ。
反事実による説明は、人間の理解可能な例を提供する。
ほとんどの反事実的説明法は、表形式または連続形式の単一の入力データでのみ動作する。
対照的に、DTAモデルは2つの離散入力を持つ。
対物生成フレームワークでは、両方の個別入力を同時に最適化することは困難である。
結果: 薬物・タンパク質複合体の非現実的説明を生成するために, 多エージェントの強化学習フレームワークであるMulti-Agent Counterfactual Drug-target binding Affinity (MACDA)を提案する。
提案フレームワークは,入力薬物と標的薬の両方を同時に最適化しながら,人間に解釈可能な反事実インスタンスを提供する。
Davisデータセットの結果は、提案されたMACDAフレームワークの利点を以前の研究と比較したものである。
関連論文リスト
- Sparse Prototype Network for Explainable Pedestrian Behavior Prediction [60.80524827122901]
Sparse Prototype Network (SPN) は,歩行者の将来の行動,軌道,ポーズを同時に予測するための説明可能な手法である。
モノセマンティリティとクラスタリングの制約によって規則化されたプロトタイプは、一貫性と人間の理解可能な機能を学ぶ。
論文 参考訳(メタデータ) (2024-10-16T03:33:40Z) - Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Compound Density Networks for Risk Prediction using Electronic Health
Records [1.1786249372283562]
複合密度ネットワーク(CDNet)を用いたエンドツーエンド統合手法を提案する。
CDNetは、単一のフレームワーク内で計算方法と予測モデルを調整できるようにする。
我々は,MIMIC-IIIデータセット上での死亡予測タスクにおいてCDNetを検証した。
論文 参考訳(メタデータ) (2022-08-02T09:04:20Z) - Interpretable Mixture of Experts [71.55701784196253]
Interpretable Mixture of Experts (IME)は本質的に解釈可能なモデリングフレームワークである。
IMEは単一の解釈可能なモデルよりも正確であることが示され、既存の最先端のDeep Neural Networks(DNN)と正確に比較できる。
IMEの説明は、ユーザスタディを通じて一般的に使われているポストホックな説明法と比較される。
論文 参考訳(メタデータ) (2022-06-05T06:40:15Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Robust Deep Learning Ensemble against Deception [11.962128272844158]
XEnsembleは、機械学習モデルの敵対的堅牢性を高めるための多様性アンサンブル検証手法である。
我々は,XEnsembleが,敵の例に対して高い防御成功率,非分配データ入力に対して高い検出成功率を達成することを示す。
論文 参考訳(メタデータ) (2020-09-14T17:20:01Z) - Drug-Drug Interaction Prediction with Wasserstein Adversarial
Autoencoder-based Knowledge Graph Embeddings [22.562175708415392]
薬物・薬物相互作用のための知識グラフ埋め込みフレームワークを提案する。
本フレームワークでは, 高品質な負のサンプルを生成するために, オートエンコーダを用いる。
判別器は、正三重項と負三重項の両方に基づいて薬物と相互作用の埋め込みを学習する。
論文 参考訳(メタデータ) (2020-04-15T21:03:29Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。