論文の概要: Benchmark data to study the influence of pre-training on explanation
performance in MR image classification
- arxiv url: http://arxiv.org/abs/2306.12150v1
- Date: Wed, 21 Jun 2023 09:53:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 13:59:00.131690
- Title: Benchmark data to study the influence of pre-training on explanation
performance in MR image classification
- Title(参考訳): MR画像分類における事前学習が説明性能に及ぼす影響に関するベンチマークデータ
- Authors: Marta Oliveira, Rick Wilming, Benedict Clark, C\'eline Budding, Fabian
Eitel, Kerstin Ritter, Stefan Haufe
- Abstract要約: CNNは頻繁に使われ、医療予測タスクでうまく使われている。
それらは転送学習と組み合わせて使われることが多く、タスクのトレーニングデータが不足するとパフォーマンスが向上する。
従来,XAI法における地中構造データに対する「説明性能」を定量的に評価することはめったにない。
- 参考スコア(独自算出の注目度): 0.6927055673104934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (CNNs) are frequently and successfully used in
medical prediction tasks. They are often used in combination with transfer
learning, leading to improved performance when training data for the task are
scarce. The resulting models are highly complex and typically do not provide
any insight into their predictive mechanisms, motivating the field of
'explainable' artificial intelligence (XAI). However, previous studies have
rarely quantitatively evaluated the 'explanation performance' of XAI methods
against ground-truth data, and transfer learning and its influence on objective
measures of explanation performance has not been investigated. Here, we propose
a benchmark dataset that allows for quantifying explanation performance in a
realistic magnetic resonance imaging (MRI) classification task. We employ this
benchmark to understand the influence of transfer learning on the quality of
explanations. Experimental results show that popular XAI methods applied to the
same underlying model differ vastly in performance, even when considering only
correctly classified examples. We further observe that explanation performance
strongly depends on the task used for pre-training and the number of CNN layers
pre-trained. These results hold after correcting for a substantial correlation
between explanation and classification performance.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)は、医学的予測タスクで頻繁に、かつうまく使用される。
それらは転送学習と組み合わせて使われることが多く、タスクのトレーニングデータが不足するとパフォーマンスが向上する。
結果として得られるモデルは極めて複雑で、一般的に予測メカニズムに関する洞察を与えておらず、"説明可能な"人工知能(XAI)の分野を動機付けている。
しかし,XAI手法の地中構造データに対する「説明性能」を定量的に評価することは稀であり,伝達学習が説明性能の客観的尺度に与える影響は研究されていない。
本稿では,現実的磁気共鳴画像(MRI)分類タスクにおける説明性能を定量化するベンチマークデータセットを提案する。
このベンチマークを用いて、伝達学習が説明の質に与える影響を理解する。
実験結果から, 同一モデルに適用される一般的なXAI法は, 正しく分類された例のみを考慮すると, 性能的に大きく異なることがわかった。
さらに、説明性能は、事前学習に使用するタスクと、事前訓練されたCNNレイヤーの数に大きく依存する。
これらの結果は、説明と分類性能の実質的な相関を補正した後のものである。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Improvement of Applicability in Student Performance Prediction Based on Transfer Learning [2.3290007848431955]
本研究では,様々な分布を持つデータセットの転送学習手法を用いて,予測精度を向上させる手法を提案する。
モデルは、その一般化能力と予測精度を高めるために訓練され、評価された。
実験により, この手法は根平均角誤差 (RMSE) と平均絶対誤差 (MAE) の低減に優れていることが示された。
結果は、より多くのレイヤを凍結することで、複雑でノイズの多いデータのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2024-06-01T13:09:05Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - Uplift Modeling based on Graph Neural Network Combined with Causal
Knowledge [9.005051998738134]
本稿では、因果知識と昇降値の見積を組み合わせたグラフニューラルネットワークに基づくフレームワークを提案する。
本手法は, 典型的なシミュレーションデータに小さな誤差を伴って, 昇降値の予測に有効であることを示す。
論文 参考訳(メタデータ) (2023-11-14T07:21:00Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Data-Centric Machine Learning in the Legal Domain [0.2624902795082451]
本稿では,データセットの変化がモデルの性能に与える影響について考察する。
法律ドメインから公開されている3つのデータセットを用いて,そのサイズ,列車/テストの分割,および人間のラベル付け精度がパフォーマンスに与える影響について検討する。
観察された効果は、特にクラスごとのパフォーマンスを考慮した場合、驚くほど顕著である。
論文 参考訳(メタデータ) (2022-01-17T23:05:14Z) - Efficient Estimation of Influence of a Training Instance [56.29080605123304]
本稿では,ニューラルネットワークモデルに対するトレーニングインスタンスの影響を効率的に推定する手法を提案する。
このメソッドは、サブネットワークをゼロマスクし、サブネットワークが各トレーニングインスタンスを学習するのを防ぎます。
提案手法は, 学習の影響を捉え, 誤り予測の解釈性を高め, 一般化改善のための訓練データセットをクリーン化できることを実証する。
論文 参考訳(メタデータ) (2020-12-08T04:31:38Z) - Using Cross-Loss Influence Functions to Explain Deep Network
Representations [1.7778609937758327]
トレーニングやテスト設定のミスマッチに対処するために,影響関数を拡張できることが示される。
その結果, 教師なし, 自己監督型トレーニングの実施例の影響を, 教師付きテストの目的に対して計算できることがわかった。
論文 参考訳(メタデータ) (2020-12-03T03:43:26Z) - Influence Functions in Deep Learning Are Fragile [52.31375893260445]
影響関数は、テスト時間予測におけるサンプルの効果を近似する。
影響評価は浅いネットワークでは かなり正確です
ヘッセン正則化は、高品質な影響推定を得るために重要である。
論文 参考訳(メタデータ) (2020-06-25T18:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。