論文の概要: Improving a neural network model by explanation-guided training for
glioma classification based on MRI data
- arxiv url: http://arxiv.org/abs/2107.02008v2
- Date: Sun, 16 Apr 2023 20:17:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 01:10:14.356526
- Title: Improving a neural network model by explanation-guided training for
glioma classification based on MRI data
- Title(参考訳): MRIデータに基づくグリオーマ分類のための説明誘導訓練によるニューラルネットワークモデルの改善
- Authors: Frantisek Sefcik, Wanda Benesova
- Abstract要約: 解釈可能性の手法は、ディープラーニングモデルの意思決定プロセスに関する洞察を得るための一般的な方法となっている。
本稿では,LRP(Layer-wise Relevance propagation)技術を用いた説明誘導学習手法を提案する。
我々は,低次・高次グリオーマ分類問題に対する畳み込みニューラルネットワーク(CNN)モデルについて実験的に検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, artificial intelligence (AI) systems have come to the
forefront. These systems, mostly based on Deep learning (DL), achieve excellent
results in areas such as image processing, natural language processing, or
speech recognition. Despite the statistically high accuracy of deep learning
models, their output is often a decision of "black box". Thus, Interpretability
methods have become a popular way to gain insight into the decision-making
process of deep learning models. Explanation of a deep learning model is
desirable in the medical domain since the experts have to justify their
judgments to the patient. In this work, we proposed a method for
explanation-guided training that uses a Layer-wise relevance propagation (LRP)
technique to force the model to focus only on the relevant part of the image.
We experimentally verified our method on a convolutional neural network (CNN)
model for low-grade and high-grade glioma classification problems. Our
experiments show promising results in a way to use interpretation techniques in
the model training process.
- Abstract(参考訳): 近年,人工知能(AI)システムが最前線に進出している。
これらのシステムは、主にディープラーニング(DL)に基づいており、画像処理、自然言語処理、音声認識などの分野で優れた結果が得られる。
深層学習モデルの統計的に高い精度にもかかわらず、その出力はしばしば「ブラックボックス」の決定である。
このように、解釈可能性法は、ディープラーニングモデルの意思決定プロセスに関する洞察を得るための一般的な方法となっている。
専門家は患者に対する判断を正当化しなければならないため、医学領域では深層学習モデルの説明が望ましい。
本研究では,lrp(layer-wise associated propagation)手法を用いて,画像の関連部分にのみ焦点をあてるようモデルに強制する手法を提案する。
我々は,低次・高次グリオーマ分類問題に対する畳み込みニューラルネットワーク(CNN)モデルを用いて実験を行った。
本実験は,モデル学習過程における解釈手法の活用方法として有望な結果を示す。
関連論文リスト
- Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Image classification network enhancement methods based on knowledge
injection [8.885876832491917]
本稿では,多段階階層型ディープラーニングアルゴリズムを提案する。
マルチレベルの階層型ディープラーニングアーキテクチャと、マルチレベルの階層型ディープラーニングフレームワークで構成されている。
実験の結果,提案アルゴリズムはニューラルネットワークの隠れた情報を効果的に説明できることがわかった。
論文 参考訳(メタデータ) (2024-01-09T09:11:41Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - Ultrasound Signal Processing: From Models to Deep Learning [64.56774869055826]
医用超音波画像は、信頼性と解釈可能な画像再構成を提供するために、高品質な信号処理に大きく依存している。
データ駆動方式で最適化されたディープラーニングベースの手法が人気を集めている。
比較的新しいパラダイムは、データ駆動型ディープラーニングの活用とドメイン知識の活用という2つのパワーを組み合わせたものだ。
論文 参考訳(メタデータ) (2022-04-09T13:04:36Z) - Feature visualization for convolutional neural network models trained on
neuroimaging data [0.0]
畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
論文 参考訳(メタデータ) (2022-03-24T15:24:38Z) - Multi-Semantic Image Recognition Model and Evaluating Index for
explaining the deep learning models [31.387124252490377]
まず,ニューラルネットワークの意思決定過程を人間に理解させるマルチセマンティック画像認識モデルを提案する。
次に、モデルの解釈可能性について定量的に評価できる新しい評価指標を示す。
本稿では,現在最先端のディープラーニングモデルを用いて,関連するベースライン性能を示す。
論文 参考訳(メタデータ) (2021-09-28T07:18:05Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - About Explicit Variance Minimization: Training Neural Networks for
Medical Imaging With Limited Data Annotations [2.3204178451683264]
VAT(Variance Aware Training)法は、モデル損失関数に分散誤差を導入することにより、この特性を利用する。
多様な領域から得られた3つの医用画像データセットと様々な学習目標に対するVATの有効性を検証した。
論文 参考訳(メタデータ) (2021-05-28T21:34:04Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。