論文の概要: SurvLIME-Inf: A simplified modification of SurvLIME for explanation of
machine learning survival models
- arxiv url: http://arxiv.org/abs/2005.02387v1
- Date: Tue, 5 May 2020 14:34:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:32:09.999623
- Title: SurvLIME-Inf: A simplified modification of SurvLIME for explanation of
machine learning survival models
- Title(参考訳): SurvLIME-Inf: 機械学習サバイバルモデルの説明のためのSurvLIMEの簡易的な修正
- Authors: Lev V. Utkin, Maxim S. Kovalev and Ernest M. Kasimov
- Abstract要約: SurvLIMEとSurvLIME-Infの背景にある基本的な考え方は、Cox比例ハザードモデルを用いて、テスト例の周辺地域のブラックボックスサバイバルモデルを近似することである。
SurvLIMEとは対照的に、近似された累積ハザード関数と近似近似の距離を定義するために$L_infty $-normを使用する。
- 参考スコア(独自算出の注目度): 4.640835690336653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new modification of the explanation method SurvLIME called SurvLIME-Inf for
explaining machine learning survival models is proposed. The basic idea behind
SurvLIME as well as SurvLIME-Inf is to apply the Cox proportional hazards model
to approximate the black-box survival model at the local area around a test
example. The Cox model is used due to the linear relationship of covariates. In
contrast to SurvLIME, the proposed modification uses $L_{\infty }$-norm for
defining distances between approximating and approximated cumulative hazard
functions. This leads to a simple linear programming problem for determining
important features and for explaining the black-box model prediction. Moreover,
SurvLIME-Inf outperforms SurvLIME when the training set is very small.
Numerical experiments with synthetic and real datasets demonstrate the
SurvLIME-Inf efficiency.
- Abstract(参考訳): 機械学習サバイバルモデルを説明するためにSurvLIME-Infと呼ばれるSurvLIMEの新たな変更を提案する。
SurvLIMEとSurvLIME-Infの背景にある基本的な考え方は、Cox比例ハザードモデルを用いて、テスト例の周辺地域のブラックボックスサバイバルモデルを近似することである。
coxモデルは共変量の線形関係のために用いられる。
SurvLIMEとは対照的に、近似された累積ハザード関数と近似近似の距離を定義するために$L_{\infty }$-normを使用する。
これは重要な特徴を特定し、ブラックボックスモデル予測を説明する単純な線形計画問題につながる。
さらに、トレーニングセットが非常に小さい場合、SurvLIME-InfはSurvLIMEより優れます。
合成および実データを用いた数値実験は、SurvLIME-Inf効率を示す。
関連論文リスト
- Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - SurvBeX: An explanation method of the machine learning survival models
based on the Beran estimator [4.640835690336653]
機械学習サバイバルブラックボックスモデルの予測を解釈するために、SurvBeXと呼ばれる説明法を提案する。
合成および実生存データを用いた多くの数値実験は、SurvBeXの効率を実証している。
論文 参考訳(メタデータ) (2023-08-07T17:18:37Z) - KL-Entropy-Regularized RL with a Generative Model is Minimax Optimal [70.15267479220691]
モデル強化学習のサンプル複雑性を,生成的分散自由モデルを用いて検討・解析する。
我々の分析は、$varepsilon$が十分小さい場合、$varepsilon$-optimal Policyを見つけるのが、ほぼ最小の最適化であることを示している。
論文 参考訳(メタデータ) (2022-05-27T19:39:24Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - SurvNAM: The machine learning survival model explanation [5.8010446129208155]
SurvNAMはブラックボックス機械学習サバイバルモデルの予測を説明するために提案されている。
SurvNAMの基本的な考え方は、特定の損失関数によってネットワークをトレーニングすることだ。
提案された SurvNAM の修正は、GAM の関数に対して Lasso ベースの正規化を使用することに基づいている。
論文 参考訳(メタデータ) (2021-04-18T16:40:56Z) - Gaussian MRF Covariance Modeling for Efficient Black-Box Adversarial
Attacks [86.88061841975482]
我々は,ゼロオーダーのオラクルにのみアクセス可能なブラックボックス設定において,逆例を生成する問題について検討する。
我々はこの設定を用いて、FGSM(Fast Gradient Sign Method)のブラックボックス版と同様に、高速な1ステップの敵攻撃を見つける。
提案手法はクエリを少なくし,現在の技術よりも攻撃成功率が高いことを示す。
論文 参考訳(メタデータ) (2020-10-08T18:36:51Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z) - Counterfactual explanation of machine learning survival models [5.482532589225552]
その結果, 線形制約を伴う標準凸最適化問題に, 逆実説明問題を還元できることが示唆された。
他のブラックボックスモデルでは、よく知られたParticle Swarm Optimizationアルゴリズムを適用することが提案されている。
論文 参考訳(メタデータ) (2020-06-26T19:46:47Z) - A robust algorithm for explaining unreliable machine learning survival
models using the Kolmogorov-Smirnov bounds [5.482532589225552]
SurvLIME-KSは機械学習サバイバルモデルを説明するために提案されている。
少量のトレーニングデータや生存率データのアウトレーヤのケースに対して堅牢性を確保するために開発された。
合成および実データを用いた様々な数値実験により、SurvLIME-KS効率が示されている。
論文 参考訳(メタデータ) (2020-05-05T14:47:35Z) - SurvLIME: A method for explaining machine learning survival models [4.640835690336653]
提案手法の背景にある主な考え方は,Cox比例ハザードモデルを用いて,試験例の周辺地域における生存率モデルを近似することである。
多くの数値実験がSurvLIMEの効率を実証している。
論文 参考訳(メタデータ) (2020-03-18T17:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。