論文の概要: SurvReLU: Inherently Interpretable Survival Analysis via Deep ReLU Networks
- arxiv url: http://arxiv.org/abs/2407.14463v1
- Date: Fri, 19 Jul 2024 17:06:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 16:45:36.989988
- Title: SurvReLU: Inherently Interpretable Survival Analysis via Deep ReLU Networks
- Title(参考訳): SurvReLU:Deep ReLUネットワークによる生存分析
- Authors: Xiaotong Sun, Peijie Qiu, Shengfan Zhang,
- Abstract要約: 我々は,深部木系生存モデルと従来の木系生存モデルとのギャップを,深部修正線形ユニット(ReLU)ネットワークを介して橋渡しする。
本研究では,木質構造体の解釈可能性と深層生存モデルの表現力とを,意図的に構築した深部ReLUネットワーク(SurvReLU)が有効であることを示す。
- 参考スコア(独自算出の注目度): 0.8520624117635326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Survival analysis models time-to-event distributions with censorship. Recently, deep survival models using neural networks have dominated due to their representational power and state-of-the-art performance. However, their "black-box" nature hinders interpretability, which is crucial in real-world applications. In contrast, "white-box" tree-based survival models offer better interpretability but struggle to converge to global optima due to greedy expansion. In this paper, we bridge the gap between previous deep survival models and traditional tree-based survival models through deep rectified linear unit (ReLU) networks. We show that a deliberately constructed deep ReLU network (SurvReLU) can harness the interpretability of tree-based structures with the representational power of deep survival models. Empirical studies on both simulated and real survival benchmark datasets show the effectiveness of the proposed SurvReLU in terms of performance and interoperability. The code is available at \href{https://github.com/xs018/SurvReLU}{\color{magenta}{ https://github.com/xs018/SurvReLU}}.
- Abstract(参考訳): 生存分析は検閲を伴う時間-時間分布をモデル化する。
近年、ニューラルネットワークを用いた深層生存モデルは、その表現力と最先端の性能により支配的になっている。
しかし、それらの「ブラックボックス」の性質は、現実世界の応用において重要な解釈可能性を妨げる。
対照的に、"ホワイトボックス"木に基づく生存モデルは、より良い解釈可能性を提供するが、欲求拡大のためにグローバル最適に収束するのに苦労する。
本稿では,従来の木系サバイバルモデルと過去の木系サバイバルモデルとのギャップを,深部修正線形ユニット(ReLU)ネットワークを介して橋渡しする。
本研究では,木質構造体の解釈可能性と深層生存モデルの表現力とを,意図的に構築した深部ReLUネットワーク(SurvReLU)が有効であることを示す。
シミュレーションおよび実生存ベンチマークのデータセットに関する実証研究は、性能と相互運用性の観点から提案されたSurvReLUの有効性を示している。
コードは \href{https://github.com/xs018/SurvReLU}{\color{magenta}{ https://github.com/xs018/SurvReLU}} で公開されている。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - NSOTree: Neural Survival Oblique Tree [0.21756081703275998]
サバイバル分析(英: Survival analysis)は、特定の利害関係が成立するまでの期間を精査するために用いられる統計手法である。
深層学習に基づく手法は、その表現能力と最先端の性能からこの分野を支配してきた。
本稿では,ニューラルネットワークと木に基づく手法の両方の長所を活用し,解釈可能性を維持しつつ,複雑な関数を近似する能力を生かした。
論文 参考訳(メタデータ) (2023-09-25T02:14:15Z) - Bort: Towards Explainable Neural Networks with Bounded Orthogonal
Constraint [90.69718495533144]
モデル説明可能性を改善するアルゴリズムであるBortを紹介する。
Bortに基づいて、追加のパラメータやトレーニングを必要とせずに、説明可能な対数サンプルを合成できる。
Bortは、MNIST上のResNetやDeiT、CIFAR-10、ImageNetなど、さまざまなアーキテクチャの分類精度を常に改善している。
論文 参考訳(メタデータ) (2022-12-18T11:02:50Z) - Finding Differences Between Transformers and ConvNets Using
Counterfactual Simulation Testing [82.67716657524251]
本稿では,ニューラルネットワークの自然的変動に対するロバスト性を研究するための反現実的枠組みを提案する。
我々の手法は、最近リリースされた最先端の畳み込みニューラルネットワークとビジョントランスフォーマーの頑健さを公平に比較することができる。
論文 参考訳(メタデータ) (2022-11-29T18:59:23Z) - Revisiting Sparse Convolutional Model for Visual Recognition [40.726494290922204]
本稿では,画像分類のためのスパース畳み込みモデルについて再検討する。
CIFAR-10, CIFAR-100, ImageNetデータセット上でも同様に強力な実験性能を示した。
論文 参考訳(メタデータ) (2022-10-24T04:29:21Z) - Understanding Adversarial Robustness from Feature Maps of Convolutional
Layers [23.42376264664302]
ニューラルネットワークの摂動能力は、主にモデル容量と摂動能力の2つの要因に依存している。
畳み込み層の特徴マップからネットワークの摂動防止能力について検討する。
自然な精度と敵の堅牢性の両面での非自明な改善は、様々な攻撃・防御機構の下で達成できる。
論文 参考訳(メタデータ) (2022-02-25T00:14:59Z) - Deriving Explanation of Deep Visual Saliency Models [6.808418311272862]
我々は,その深部ニューラルネットワークに基づくサリエンシモデルから説明可能なサリエンシモデルを導出する手法を開発した。
我々は2つの最先端のディープ・サリエンシ・モデル、すなわちUNISALとMSI-Netを解釈として検討する。
我々はまた、サリエンシ予測のためのクロスコンカレントマルチスケール残差ブロックベースネットワーク(CMRNet)という独自のディープサリエンシモデルを構築した。
論文 参考訳(メタデータ) (2021-09-08T12:22:32Z) - Leveraging Sparse Linear Layers for Debuggable Deep Networks [86.94586860037049]
学習した深い特徴表現に疎い線形モデルを適用することで、よりデバッグ可能なニューラルネットワークを実現する方法を示す。
その結果、スパースな説明は、スプリアス相関を特定し、誤分類を説明し、視覚および言語タスクにおけるモデルバイアスを診断するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-11T08:15:25Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。