論文の概要: An Investigation of Interpretability Techniques for Deep Learning in
Predictive Process Analytics
- arxiv url: http://arxiv.org/abs/2002.09192v1
- Date: Fri, 21 Feb 2020 09:14:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 00:44:53.573905
- Title: An Investigation of Interpretability Techniques for Deep Learning in
Predictive Process Analytics
- Title(参考訳): 予測プロセス分析における深層学習の解釈可能性の検討
- Authors: Catarina Moreira and Renuka Sindhgatta and Chun Ouyang and Peter Bruza
and Andreas Wichert
- Abstract要約: 本稿では、深層ニューラルネットワークとランダムフォレストという、医学的意思決定文学において最も成功した学習アルゴリズムの2つの解釈可能性手法について検討する。
我々は,患者のがんの種類を予測するためのモデルを学ぶ。
がんのタイプに関する有用な洞察を提供する予測に使用される特定の特徴と、十分に一般化されていない特徴が見られます。
- 参考スコア(独自算出の注目度): 2.162419921663162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores interpretability techniques for two of the most
successful learning algorithms in medical decision-making literature: deep
neural networks and random forests. We applied these algorithms in a real-world
medical dataset containing information about patients with cancer, where we
learn models that try to predict the type of cancer of the patient, given their
set of medical activity records.
We explored different algorithms based on neural network architectures using
long short term deep neural networks, and random forests. Since there is a
growing need to provide decision-makers understandings about the logic of
predictions of black boxes, we also explored different techniques that provide
interpretations for these classifiers. In one of the techniques, we intercepted
some hidden layers of these neural networks and used autoencoders in order to
learn what is the representation of the input in the hidden layers. In another,
we investigated an interpretable model locally around the random forest's
prediction.
Results show learning an interpretable model locally around the model's
prediction leads to a higher understanding of why the algorithm is making some
decision. Use of local and linear model helps identify the features used in
prediction of a specific instance or data point. We see certain distinct
features used for predictions that provide useful insights about the type of
cancer, along with features that do not generalize well. In addition, the
structured deep learning approach using autoencoders provided meaningful
prediction insights, which resulted in the identification of nonlinear clusters
correspondent to the patients' different types of cancer.
- Abstract(参考訳): 本稿では,深層ニューラルネットワークとランダム森林という,医学的意思決定文学において最も成功した2つの学習アルゴリズムの解釈可能性について検討する。
我々は、これらのアルゴリズムを、がん患者に関する情報を含む現実世界の医療データセットに適用し、医療活動の記録から患者のがんの種類を予測するモデルを学習した。
我々は、長期の深層ニューラルネットワークとランダムフォレストを用いて、ニューラルネットワークアーキテクチャに基づく異なるアルゴリズムを探索した。
ブラックボックスの予測の論理について意思決定者に提供する必要性が高まっているため、これらの分類器に解釈を提供する様々な手法も検討した。
この手法の1つでは、これらのニューラルネットワークの隠れた層をインターセプトし、隠れた層における入力の表現を学習するためにオートエンコーダを用いた。
また,無作為林の予測付近の解釈可能なモデルについて検討した。
結果から,モデル予測の周辺で局所的に解釈可能なモデルを学ぶと,アルゴリズムが決定を下す理由の理解が高まることがわかった。
局所的および線形モデルの使用は、特定のインスタンスやデータポイントの予測に使用される特徴を特定するのに役立つ。
がんのタイプに関する有用な洞察を提供する予測に使用される特定の特徴と、十分に一般化されていない特徴が見られます。
さらに, 自己エンコーダを用いた構造化深層学習手法により有意な予測結果が得られ, 患者の異なる種類のがんに対応する非線形クラスタの同定が可能となった。
関連論文リスト
- Improving Cancer Imaging Diagnosis with Bayesian Networks and Deep Learning: A Bayesian Deep Learning Approach [0.0]
本稿では,Deep LearningとBayesian Networkの予測モデルの背後にある理論について考察する。
画像の分類における健康産業におけるベイズ深層学習のアプローチの適用と正確性について分析する。
論文 参考訳(メタデータ) (2024-03-28T01:27:10Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Deep learning methods for drug response prediction in cancer:
predominant and emerging trends [50.281853616905416]
がんを研究・治療するための計算予測モデルをエクスプロイトすることは、薬物開発の改善と治療計画のパーソナライズドデザインにおいて大きな可能性を秘めている。
最近の研究の波は、ディープラーニング手法を用いて、薬物治療に対するがん反応を予測するという有望な結果を示している。
このレビューは、この分野の現状をよりよく理解し、主要な課題と将来性のあるソリューションパスを特定します。
論文 参考訳(メタデータ) (2022-11-18T03:26:31Z) - RandomSCM: interpretable ensembles of sparse classifiers tailored for
omics data [59.4141628321618]
決定規則の結合や解離に基づくアンサンブル学習アルゴリズムを提案する。
モデルの解釈可能性により、高次元データのバイオマーカー発見やパターン発見に有用である。
論文 参考訳(メタデータ) (2022-08-11T13:55:04Z) - Visual Interpretable and Explainable Deep Learning Models for Brain
Tumor MRI and COVID-19 Chest X-ray Images [0.0]
我々は、ディープニューラルネットワークが医療画像をどのように分析するかを照らすための属性手法を評価する。
我々は近年の深層畳み込みニューラルネットワークモデルによる脳腫瘍MRIと新型コロナウイルス胸部X線データセットからの予測を属性とした。
論文 参考訳(メタデータ) (2022-08-01T16:05:14Z) - Contrastive Brain Network Learning via Hierarchical Signed Graph Pooling
Model [64.29487107585665]
脳機能ネットワーク上のグラフ表現学習技術は、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を容易にする。
本稿では,脳機能ネットワークからグラフレベル表現を抽出する階層型グラフ表現学習モデルを提案する。
また、モデルの性能をさらに向上させるために、機能的脳ネットワークデータをコントラスト学習のために拡張する新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-07-14T20:03:52Z) - Convolutional Motif Kernel Networks [1.104960878651584]
我々のモデルは、小さなデータセットでしっかりと学習でき、関連する医療予測タスクで最先端のパフォーマンスを達成できることを示す。
提案手法はDNAおよびタンパク質配列に利用することができる。
論文 参考訳(メタデータ) (2021-11-03T15:06:09Z) - Interpretable Mammographic Image Classification using Cased-Based
Reasoning and Deep Learning [20.665935997959025]
マンモグラフィーのケースベース推論を用いた新しい解釈型ニューラルネットワークアルゴリズムを提案する。
我々のネットワークは悪性度予測と、その予測を既知の医学的特徴を用いて説明する。
論文 参考訳(メタデータ) (2021-07-12T17:42:09Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Explaining Predictions of Deep Neural Classifier via Activation Analysis [0.11470070927586014]
本稿では,畳み込みニューラルネットワーク(CNN)に基づく深層学習システムを実行する人間専門家に対して,意思決定プロセスの説明と支援を行う新しいアプローチを提案する。
以上の結果から,本手法は既存のアトラスから最も類似した予測を識別できる別個の予測戦略を検出することができることが示された。
論文 参考訳(メタデータ) (2020-12-03T20:36:19Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。