論文の概要: SurvNAM: The machine learning survival model explanation
- arxiv url: http://arxiv.org/abs/2104.08903v1
- Date: Sun, 18 Apr 2021 16:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:30:40.157027
- Title: SurvNAM: The machine learning survival model explanation
- Title(参考訳): SurvNAM:機械学習サバイバルモデルの説明
- Authors: Lev V. Utkin and Egor D. Satyukov and Andrei V. Konstantinov
- Abstract要約: SurvNAMはブラックボックス機械学習サバイバルモデルの予測を説明するために提案されている。
SurvNAMの基本的な考え方は、特定の損失関数によってネットワークをトレーニングすることだ。
提案された SurvNAM の修正は、GAM の関数に対して Lasso ベースの正規化を使用することに基づいている。
- 参考スコア(独自算出の注目度): 5.8010446129208155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new modification of the Neural Additive Model (NAM) called SurvNAM and its
modifications are proposed to explain predictions of the black-box machine
learning survival model. The method is based on applying the original NAM to
solving the explanation problem in the framework of survival analysis. The
basic idea behind SurvNAM is to train the network by means of a specific
expected loss function which takes into account peculiarities of the survival
model predictions and is based on approximating the black-box model by the
extension of the Cox proportional hazards model which uses the well-known
Generalized Additive Model (GAM) in place of the simple linear relationship of
covariates. The proposed method SurvNAM allows performing the local and global
explanation. A set of examples around the explained example is randomly
generated for the local explanation. The global explanation uses the whole
training dataset. The proposed modifications of SurvNAM are based on using the
Lasso-based regularization for functions from GAM and for a special
representation of the GAM functions using their weighted linear and non-linear
parts, which is implemented as a shortcut connection. A lot of numerical
experiments illustrate the SurvNAM efficiency.
- Abstract(参考訳): ブラックボックス機械学習サバイバルモデルの予測を説明するために、SurvNAMと呼ばれるニューラル付加モデル(NAM)の新たな修正とその修正を提案する。
本手法は,生き残り分析の枠組みにおける説明問題に対する元のNAMの適用に基づく。
SurvNAMの背後にある基本的な考え方は、生存モデル予測の特異性を考慮した特定の損失関数を用いてネットワークをトレーニングすることであり、共変量の単純な線形関係の代わりによく知られた一般化加法モデル(GAM)を用いて、Cox比例ハザードモデルの拡張によりブラックボックスモデルを近似することに基づいている。
提案したSurvNAMは局所的およびグローバルな説明を行うことができる。
説明例の一連の例は、局所的な説明のためにランダムに生成される。
グローバル説明では、トレーニングデータセット全体を使用する。
提案したSurvNAMの修正は,GAMからの関数に対するLassoベースの正規化と,ショートカット接続として実装された重み付き線形および非線形部分を用いたGAM関数の特殊表現に基づく。
多くの数値実験でSurvNAMの効率が示されている。
関連論文リスト
- On the Origins of Linear Representations in Large Language Models [51.88404605700344]
我々は,次のトークン予測の概念力学を定式化するために,単純な潜在変数モデルを導入する。
実験により、潜在変数モデルと一致するデータから学習すると線形表現が現れることが示された。
また、LLaMA-2大言語モデルを用いて、理論のいくつかの予測を検証した。
論文 参考訳(メタデータ) (2024-03-06T17:17:36Z) - SurvBeNIM: The Beran-Based Neural Importance Model for Explaining the
Survival Models [2.4861619769660637]
Survival Beran-based Neural Importance Model (SurvBeNIM) と呼ばれる新しい手法を提案する。
それは、生存または累積的ハザード関数の形で、機械学習サバイバルモデルの予測を説明することを目的としている。
論文 参考訳(メタデータ) (2023-12-11T18:54:26Z) - Training Discrete Deep Generative Models via Gapped Straight-Through
Estimator [72.71398034617607]
再サンプリングのオーバーヘッドを伴わずに分散を低減するため, GST (Gapped Straight-Through) 推定器を提案する。
この推定子は、Straight-Through Gumbel-Softmaxの本質的な性質に着想を得たものである。
実験により,提案したGST推定器は,2つの離散的な深部生成モデリングタスクの強いベースラインと比較して,優れた性能を享受できることが示された。
論文 参考訳(メタデータ) (2022-06-15T01:46:05Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Sparse Neural Additive Model: Interpretable Deep Learning with Feature
Selection via Group Sparsity [22.752160137192156]
ニューラル加算モデル(SNAM)の理論的性質を,非パラメトリック真理に取り組むための新しい手法を用いて検討した。
SNAMが正確なサポートリカバリ、すなわち完全な特徴選択を適切に正規化できることを示す。
さらに,SNAMの精度と効率性を検証した。
論文 参考訳(メタデータ) (2022-02-25T03:40:53Z) - Leveraging Global Parameters for Flow-based Neural Posterior Estimation [90.21090932619695]
実験観測に基づくモデルのパラメータを推定することは、科学的方法の中心である。
特に困難な設定は、モデルが強く不確定であるとき、すなわち、パラメータの異なるセットが同一の観測をもたらすときである。
本稿では,グローバルパラメータを共有する観測の補助的セットによって伝達される付加情報を利用して,その不確定性を破る手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:23:13Z) - LIFT-CAM: Towards Better Explanations for Class Activation Mapping [0.0]
クラスアクティベーションマッピング(CAM)に基づく手法は,CNNからのアクティベーションマップの線形結合による視覚的説明マップを生成する。
LIFT-CAMと呼ばれる効率的な近似法を提案する。
定性的かつ定量的な面において、他のCAMベースの方法よりも優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-02-10T02:43:50Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - SurvLIME-Inf: A simplified modification of SurvLIME for explanation of
machine learning survival models [4.640835690336653]
SurvLIMEとSurvLIME-Infの背景にある基本的な考え方は、Cox比例ハザードモデルを用いて、テスト例の周辺地域のブラックボックスサバイバルモデルを近似することである。
SurvLIMEとは対照的に、近似された累積ハザード関数と近似近似の距離を定義するために$L_infty $-normを使用する。
論文 参考訳(メタデータ) (2020-05-05T14:34:46Z) - SurvLIME: A method for explaining machine learning survival models [4.640835690336653]
提案手法の背景にある主な考え方は,Cox比例ハザードモデルを用いて,試験例の周辺地域における生存率モデルを近似することである。
多くの数値実験がSurvLIMEの効率を実証している。
論文 参考訳(メタデータ) (2020-03-18T17:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。