論文の概要: CoxSE: Exploring the Potential of Self-Explaining Neural Networks with Cox Proportional Hazards Model for Survival Analysis
- arxiv url: http://arxiv.org/abs/2407.13849v1
- Date: Thu, 18 Jul 2024 18:32:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 21:29:41.789905
- Title: CoxSE: Exploring the Potential of Self-Explaining Neural Networks with Cox Proportional Hazards Model for Survival Analysis
- Title(参考訳): CoxSE: 生存分析のためのコックス確率モデルによる自己説明型ニューラルネットワークの可能性を探る
- Authors: Abdallah Alabdallah, Omar Hamed, Mattias Ohlsson, Thorsteinn Rögnvaldsson, Sepideh Pashami,
- Abstract要約: 生存分析のための自己説明型ニューラルネットワーク(SENN)の可能性を探る。
我々は,局所線形対数ハザード関数を推定することにより,局所的に説明可能なCox比例ハザードモデル(CoxSE)を提案する。
また,生成した説明の安定性と一貫性を制御できるSENN(CoxSENAM)を併用したニューラル加算モデル(NAM)の修正も提案する。
- 参考スコア(独自算出の注目度): 3.977091269971331
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Cox Proportional Hazards (CPH) model has long been the preferred survival model for its explainability. However, to increase its predictive power beyond its linear log-risk, it was extended to utilize deep neural networks sacrificing its explainability. In this work, we explore the potential of self-explaining neural networks (SENN) for survival analysis. we propose a new locally explainable Cox proportional hazards model, named CoxSE, by estimating a locally-linear log-hazard function using the SENN. We also propose a modification to the Neural additive (NAM) models hybrid with SENN, named CoxSENAM, which enables the control of the stability and consistency of the generated explanations. Several experiments using synthetic and real datasets have been performed comparing with a NAM-based model, DeepSurv model explained with SHAP, and a linear CPH model. The results show that, unlike the NAM-based model, the SENN-based model can provide more stable and consistent explanations while maintaining the same expressiveness power of the black-box model. The results also show that, due to their structural design, NAM-based models demonstrated better robustness to non-informative features. Among these models, the hybrid model exhibited the best robustness.
- Abstract(参考訳): Cox Proportional Hazards(CPH)モデルは、その説明可能性のために長い間、生存モデルとして好まれてきた。
しかし、線形ログリスクを超えて予測能力を高めるために、その説明性を犠牲にするディープニューラルネットワークを活用するように拡張された。
本研究では、生存分析のための自己説明型ニューラルネットワーク(SENN)の可能性について検討する。
我々は,SENNを用いて局所線形ログハザード関数を推定することにより,局所的に説明可能なCox比例ハザードモデルであるCoxSEを提案する。
また,生成した説明の安定性と一貫性を制御できるSENN(CoxSENAM)を併用したニューラル加算モデル(NAM)の修正も提案する。
合成および実データを用いたいくつかの実験は、NAMモデル、DeepSurvモデル、SHAPで説明された線形CPHモデルと比較されている。
その結果,NAMモデルとは異なり,SENNモデルはブラックボックスモデルと同じ表現力を維持しつつ,より安定かつ一貫した説明を提供することができた。
また,NAMモデルの構造設計により,非表現的特徴に対する堅牢性も向上した。
これらのモデルの中で、ハイブリッドモデルは最高の堅牢性を示した。
関連論文リスト
- A Priori Uncertainty Quantification of Reacting Turbulence Closure Models using Bayesian Neural Networks [0.0]
反応流モデルにおける不確実性を捉えるためにベイズニューラルネットワークを用いる。
我々は、BNNモデルが、データ駆動クロージャモデルの不確実性の構造に関するユニークな洞察を提供することができることを示した。
このモデルの有効性は,様々な火炎条件と燃料からなるデータセットに対する事前評価によって実証される。
論文 参考訳(メタデータ) (2024-02-28T22:19:55Z) - Fully Spiking Denoising Diffusion Implicit Models [61.32076130121347]
スパイキングニューラルネットワーク(SNN)は、超高速のニューロモルフィックデバイス上で走る能力のため、かなりの注目を集めている。
本研究では,SNN内で拡散モデルを構築するために,拡散暗黙モデル (FSDDIM) を完全にスパイクする新しい手法を提案する。
提案手法は,最先端の完全スパイク生成モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-04T09:07:09Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - Neural Frailty Machine: Beyond proportional hazard assumption in neural
survival regressions [30.018173329118184]
生存回帰のための強力なフレキシブルなニューラル・モデリング・フレームワークであるニューラル・フラリティ・マシン(NFM)を提案する。
2つの具体的なモデルは、ニューラル比例ハザードモデルと非ハザード回帰モデルを拡張する枠組みに基づいて導出される。
我々は,異なるスケールのベンチマークデータセットを6ドル以上で評価し,提案したNAMモデルは予測性能において最先端サバイバルモデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-03-18T08:15:15Z) - Extending the Neural Additive Model for Survival Analysis with EHR Data [0.0]
我々は、ペアワイズ・フィーチャー・インタラクション・ネットワークを組み込むことにより、ニューラル加算モデル(NAM)を拡張した。
この拡張フレームワークでは、非専門的ハザードモデルを構築することができる。
胃癌予測のための解釈可能なニューラルネットワークサバイバルモデルを構築するために,これらのモデルアーキテクチャを適用した。
論文 参考訳(メタデータ) (2022-11-15T00:37:44Z) - A Federated Cox Model with Non-Proportional Hazards [8.98624781242271]
最近の研究は、ニューラルネットワークがCoxモデルのような古典的生存モデルを改善する可能性を示している。
本稿では、このデータ設定に適合し、比例的ハザード仮定を緩和するフェデレートされたコックスモデルを提案する。
利用可能な臨床データセットを実験し、フェデレーションモデルが標準モデルと同様に機能できることを実証する。
論文 参考訳(メタデータ) (2022-07-11T17:58:54Z) - Standalone Neural ODEs with Sensitivity Analysis [5.565364597145569]
本稿では,完全深部ニューラルネットワークを記述可能な連続深部ニューラルネットワークモデルを提案する。
神経感受性問題の一般的な定式化を行い,NCGトレーニングでどのように使用されるかを示す。
我々の新しい定式化がResNetモデルと比較してロバスト性や性能の向上につながることを示す。
論文 参考訳(メタデータ) (2022-05-27T12:16:53Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。