論文の概要: A Lightweight Causal Model for Interpretable Subject-level Prediction
- arxiv url: http://arxiv.org/abs/2306.11107v1
- Date: Mon, 19 Jun 2023 18:20:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 16:39:36.508527
- Title: A Lightweight Causal Model for Interpretable Subject-level Prediction
- Title(参考訳): 解釈可能な主観レベル予測のための軽量因果モデル
- Authors: Chiara Mauri, Stefano Cerri, Oula Puonti, Mark M\"uhlau, Koen Van
Leemput
- Abstract要約: 本稿では,本質的に解釈可能な単一対象予測手法を提案する。
実験により、結果のモデルを効率よく逆転させ、正確な主観レベルの予測を行うことが示されている。
- 参考スコア(独自算出の注目度): 0.17999333451993946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen a growing interest in methods for predicting a
variable of interest, such as a subject's diagnosis, from medical images.
Methods based on discriminative modeling excel at making accurate predictions,
but are challenged in their ability to explain their decisions in anatomically
meaningful terms. In this paper, we propose a simple technique for
single-subject prediction that is inherently interpretable. It augments the
generative models used in classical human brain mapping techniques, in which
cause-effect relations can be encoded, with a multivariate noise model that
captures dominant spatial correlations. Experiments demonstrate that the
resulting model can be efficiently inverted to make accurate subject-level
predictions, while at the same time offering intuitive causal explanations of
its inner workings. The method is easy to use: training is fast for typical
training set sizes, and only a single hyperparameter needs to be set by the
user. Our code is available at
https://github.com/chiara-mauri/Interpretable-subject-level-prediction.
- Abstract(参考訳): 近年,医療画像から対象者の診断などの興味の種別を予測する手法への関心が高まっている。
識別的モデリングに基づく手法は正確な予測を行うのに優れているが、解剖学的に意味のある言葉でその決定を説明する能力に挑戦される。
本稿では,本質的に解釈可能な単射予測のための簡易な手法を提案する。
これは、因果関係を符号化する古典的な人間の脳マッピング技術で使われる生成モデルを、支配的な空間相関を捉える多変量ノイズモデルで強化する。
実験により、結果のモデルを効率よく逆転して正確な主観レベルの予測を行うことができ、同時に内部動作の直感的な因果的説明を提供することを示した。
トレーニングは一般的なトレーニングセットのサイズに対して高速であり、ユーザによって設定されるのは1つのハイパーパラメータのみである。
私たちのコードはhttps://github.com/chiara-mauri/Interpretable-subject-level-predictionで利用可能です。
関連論文リスト
- Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Explainability as statistical inference [29.74336283497203]
本稿では、解釈可能な予測を生成するために設計された一般的な深層確率モデルを提案する。
モデルパラメータは最大限の確率で学習でき、任意の予測ネットワークアーキテクチャに適応することができる。
実験により,複数命令を用いるとより合理的な解釈が得られることが示された。
論文 参考訳(メタデータ) (2022-12-06T16:55:10Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - On the Lack of Robust Interpretability of Neural Text Classifiers [14.685352584216757]
本研究では,事前学習したトランスフォーマーエンコーダをベースとしたニューラルテキスト分類器の解釈の堅牢性を評価する。
どちらのテストも、期待された行動から驚くほど逸脱しており、実践者が解釈から引き出す可能性のある洞察の程度について疑問を呈している。
論文 参考訳(メタデータ) (2021-06-08T18:31:02Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Using StyleGAN for Visual Interpretability of Deep Learning Models on
Medical Images [0.7874708385247352]
画像上の任意のブラックボックスモデルの予測を理解するために使用できる新しい解釈可能性法を提案する。
StyleGANは医療画像に基づいて訓練され、潜伏ベクトルと画像のマッピングを提供する。
この方向に沿って入力画像の潜在表現をシフトさせることにより、予測が変化する一連の新しい合成画像を生成することができる。
論文 参考訳(メタデータ) (2021-01-19T11:13:20Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - An interpretable neural network model through piecewise linear
approximation [7.196650216279683]
本稿では,線形成分と非線形成分を組み合わせたハイブリッド解釈モデルを提案する。
第1のコンポーネントは、モデルの表現性を高めるために、一括線形近似による明示的な特徴貢献を記述する。
他のコンポーネントは多層パーセプトロンを使用して特徴相互作用と暗黙の非線形性をキャプチャし、予測性能を向上させる。
論文 参考訳(メタデータ) (2020-01-20T14:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。