論文の概要: Deep Kernel Aalen-Johansen Estimator: An Interpretable and Flexible Neural Net Framework for Competing Risks
- arxiv url: http://arxiv.org/abs/2512.08063v1
- Date: Mon, 08 Dec 2025 21:55:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.734118
- Title: Deep Kernel Aalen-Johansen Estimator: An Interpretable and Flexible Neural Net Framework for Competing Risks
- Title(参考訳): Deep Kernel Aalen-Johansen Estimator: リスク競合のための解釈可能なフレキシブルニューラルネットワークフレームワーク
- Authors: Xiaobin Shen, George H. Chen,
- Abstract要約: 本稿では,Deep Kernel Aalen-Johansen (DKAJ) 推定モデルを提案する。
古典的アーレン・ヨハンセンの累積入射関数(CIF)の非パラメトリック推定を一般化する。
DKAJは最先端のベースラインと競合する一方で、モデル解釈を支援する可視化を提供することができることを示す。
- 参考スコア(独自算出の注目度): 5.147889960206768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an interpretable deep competing risks model called the Deep Kernel Aalen-Johansen (DKAJ) estimator, which generalizes the classical Aalen-Johansen nonparametric estimate of cumulative incidence functions (CIFs). Each data point (e.g., patient) is represented as a weighted combination of clusters. If a data point has nonzero weight only for one cluster, then its predicted CIFs correspond to those of the classical Aalen-Johansen estimator restricted to data points from that cluster. These weights come from an automatically learned kernel function that measures how similar any two data points are. On four standard competing risks datasets, we show that DKAJ is competitive with state-of-the-art baselines while being able to provide visualizations to assist model interpretation.
- Abstract(参考訳): 本稿では,古典的Aalen-Johansenノンパラメトリック推定関数(CIF)を一般化したDeep Kernel Aalen-Johansen (DKAJ)推定モデルを提案する。
各データポイント(例えば、患者)は、クラスタの重み付けの組み合わせとして表現される。
データポイントが1つのクラスタでのみゼロではない場合、その予測されたCIFは、そのクラスタからのデータポイントに制限された古典的アーレン・ヨハンセン推定器のそれに対応する。
これらの重みは、2つのデータポイントがどの程度類似しているかを測定する自動学習されたカーネル関数に由来する。
4つの標準競合するリスクデータセットにおいて、DKAJは最先端のベースラインと競合する一方で、モデルの解釈を支援する可視化を提供することができることを示す。
関連論文リスト
- Towards Learnable Anchor for Deep Multi-View Clustering [49.767879678193005]
本稿では,線形時間でクラスタリングを行うDeep Multi-view Anchor Clustering (DMAC)モデルを提案する。
最適なアンカーを用いて、全サンプルグラフを計算し、クラスタリングのための識別的埋め込みを導出する。
いくつかのデータセットの実験では、最先端の競合に比べてDMACの性能と効率が優れていることが示されている。
論文 参考訳(メタデータ) (2025-03-16T09:38:11Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Global Convergence of Federated Learning for Mixed Regression [17.8469597916875]
本稿では,クライアントがクラスタ構造を示す場合のフェデレートラーニングにおけるモデルトレーニングの問題について検討する。
我々の分析における重要な革新はクラスタリングに関する一様見積であり、一般的な概念クラスを束縛することでVC次元を束縛することで証明する。
論文 参考訳(メタデータ) (2022-06-15T03:38:42Z) - Why have a Unified Predictive Uncertainty? Disentangling it using Deep
Split Ensembles [39.29536042476913]
ブラックボックスニューラルネットワーク(NN)における不確実性の理解と定量化は、医療などの現実的な環境にデプロイする場合に不可欠である。
予測の不確かさを解消するために,概念的に単純な非ベイズ的アプローチ,ディープ・スプリット・アンサンブルを提案する。
論文 参考訳(メタデータ) (2020-09-25T19:15:26Z) - LSD-C: Linearly Separable Deep Clusters [145.89790963544314]
ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
本手法は,最近の半教師付き学習の実践からインスピレーションを得て,クラスタリングアルゴリズムと自己教師付き事前学習と強力なデータ拡張を組み合わせることを提案する。
CIFAR 10/100, STL 10, MNIST, および文書分類データセットReuters 10Kなど, 一般的な公開画像ベンチマークにおいて, 当社のアプローチが競合より大幅に優れていたことを示す。
論文 参考訳(メタデータ) (2020-06-17T17:58:10Z) - An Efficient Framework for Clustered Federated Learning [26.24231986590374]
本稿では,ユーザがクラスタに分散するフェデレーション学習(FL)の問題に対処する。
反復フェデレーションクラスタリングアルゴリズム(IFCA)を提案する。
ニューラルネットワークのような非分割問題では,アルゴリズムが効率的であることを示す。
論文 参考訳(メタデータ) (2020-06-07T08:48:59Z) - Leveraging tensor kernels to reduce objective function mismatch in deep
clustering [19.09439997799764]
目的関数ミスマッチ(Objective Function Mismatch, OFM)は、ある目的の最適化が別の目的に負の影響を与える場合に発生する。
本研究では、ディープクラスタリングにおけるOFMについて検討し、ディープクラスタリングに対する一般的なオートエンコーダベースのアプローチがクラスタリング性能の低下につながることを明らかにする。
ミスマッチを低減するため, 補助目標の構造保存性を維持しつつ, 新たな補助目標セットを提案する。
論文 参考訳(メタデータ) (2020-01-20T09:07:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。