論文の概要: Interpretability of Machine Learning Methods Applied to Neuroimaging
- arxiv url: http://arxiv.org/abs/2204.07005v1
- Date: Thu, 14 Apr 2022 14:56:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 17:30:47.664282
- Title: Interpretability of Machine Learning Methods Applied to Neuroimaging
- Title(参考訳): ニューロイメージングに応用した機械学習手法の解釈可能性
- Authors: Elina Thibeau-Sutre, Sasha Collin, Ninon Burgos, Olivier Colliot
- Abstract要約: ディープラーニングモデルは、トレーニングセットのバイアスを利用して、無関係な機能を使用しても高いパフォーマンスを得ることができる。
機械学習のユーザは、モデルを解釈するために、どの方法を選択し、その信頼性を評価するかという2つの大きな問題に直面している。
本稿では,その信頼性を評価するために開発された,最も一般的な解釈可能性の手法とメトリクス,およびニューロイメージングの文脈におけるその応用とベンチマークについて述べる。
- 参考スコア(独自算出の注目度): 2.7929622708671946
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning methods have become very popular for the processing of natural
images, and were then successfully adapted to the neuroimaging field. As these
methods are non-transparent, interpretability methods are needed to validate
them and ensure their reliability. Indeed, it has been shown that deep learning
models may obtain high performance even when using irrelevant features, by
exploiting biases in the training set. Such undesirable situations can
potentially be detected by using interpretability methods. Recently, many
methods have been proposed to interpret neural networks. However, this domain
is not mature yet. Machine learning users face two major issues when aiming to
interpret their models: which method to choose, and how to assess its
reliability? Here, we aim at providing answers to these questions by presenting
the most common interpretability methods and metrics developed to assess their
reliability, as well as their applications and benchmarks in the neuroimaging
context. Note that this is not an exhaustive survey: we aimed to focus on the
studies which we found to be the most representative and relevant.
- Abstract(参考訳): 深層学習法は、自然画像の処理に非常に人気があり、その後、神経イメージングの分野に適応した。
これらの手法は透明でないため,信頼性の確認と信頼性確保には解釈可能性法が必要である。
実際、ディープラーニングモデルは、トレーニングセットのバイアスを利用して、無関係な機能を使用しても高いパフォーマンスが得られることが示されている。
このような望ましくない状況は、解釈可能性法を用いて検出することができる。
近年,ニューラルネットワークの解釈手法が数多く提案されている。
しかし、この領域はまだ成熟していない。
機械学習のユーザは、モデルを解釈するために、どの方法を選択し、その信頼性を評価するかという2つの大きな問題に直面している。
本稿では,これらの質問に対する回答を,その信頼性を評価するために開発された最も一般的な解釈方法と指標,および神経画像の文脈におけるそれらの応用とベンチマークを提示し,提示することを目的とする。
これは徹底的な調査ではなく、最も代表的で関連性の高い研究に集中することを目的としていた。
関連論文リスト
- Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Generalized Uncertainty of Deep Neural Networks: Taxonomy and
Applications [1.9671123873378717]
ディープニューラルネットワークの不確実性は、解釈可能性と透明性の感覚において重要であるだけでなく、パフォーマンスをさらに向上するためにも重要であることを示す。
我々は、ディープニューラルネットワークの不確実性の定義を、入力またはインプットラベルペアに関連する任意の数またはベクトルに一般化し、そのような不確かさをディープモデルから「マイニングに関する既存の方法」をカタログ化する。
論文 参考訳(メタデータ) (2023-02-02T22:02:33Z) - Towards Benchmarking Explainable Artificial Intelligence Methods [0.0]
我々は、ニューラルネットワークによって推進される決定を説明する方法から、科学理論の哲学を、期待できるもの、期待できないものを明らかにすることを目的として分析レンズとして利用する。
ケーススタディにより、動物とヘッドギアの2つの常在領域における説明可能性法の性能の選択について検討した。
これらの手法の有用性は、人間のドメイン知識と、理解し、一般化し、理性に頼っている、と私たちはうなずく。
論文 参考訳(メタデータ) (2022-08-25T14:28:30Z) - Deep Active Learning with Noise Stability [24.54974925491753]
ラベルのないデータの不確実性推定は、アクティブな学習に不可欠である。
本稿では,雑音の安定性を利用して不確実性を推定する新しいアルゴリズムを提案する。
本手法はコンピュータビジョン,自然言語処理,構造データ解析など,様々なタスクに適用可能である。
論文 参考訳(メタデータ) (2022-05-26T13:21:01Z) - Multicriteria interpretability driven Deep Learning [0.0]
ディープラーニングの手法はパフォーマンスで有名だが、その解釈可能性の欠如は、高い文脈での学習を妨げている。
近年のモデル手法では、モデルの内部動作をリバースエンジニアリングすることで、ポストホック解釈可能性法を提供することでこの問題に対処している。
本稿では,目的関数に知識を注入することで,モデルの結果に特徴的影響を制御できるマルチクレータ非依存手法を提案する。
論文 参考訳(メタデータ) (2021-11-28T09:41:13Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Low-Regret Active learning [64.36270166907788]
トレーニングに最も有用なラベル付きデータポイントを識別するオンライン学習アルゴリズムを開発した。
私たちの仕事の中心は、予測可能な(簡単な)インスタンスの低い後悔を達成するために調整された睡眠専門家のための効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2021-04-06T22:53:45Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Confident Coreset for Active Learning in Medical Image Analysis [57.436224561482966]
本稿では,情報的サンプルを効果的に選択するための,不確実性と分散性を考慮した新しい能動的学習手法である信頼コアセットを提案する。
2つの医用画像解析タスクの比較実験により,本手法が他の活動的学習方法より優れていることを示す。
論文 参考訳(メタデータ) (2020-04-05T13:46:16Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。