論文の概要: Let the Experts Speak: Improving Survival Prediction & Calibration via Mixture-of-Experts Heads
- arxiv url: http://arxiv.org/abs/2511.09567v1
- Date: Fri, 14 Nov 2025 01:00:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.325471
- Title: Let the Experts Speak: Improving Survival Prediction & Calibration via Mixture-of-Experts Heads
- Title(参考訳): 専門家に言わせてみましょう:Mixture-of-Expertsによる生存予測と校正の改善
- Authors: Todd Morrill, Aahlad Puli, Murad Megjhani, Soojin Park, Richard Zemel,
- Abstract要約: 我々は、生存分析問題に対していくつかの離散時間深層混合(MoE)アーキテクチャを導入する。
そのうちの1つは、クラスタリング、キャリブレーション、予測精度のすべてを達成する。
より表現力のある専門家は、患者ごとの予測を調整し、固定されたグループのプロトタイプに依存する専門家より優れています。
- 参考スコア(独自算出の注目度): 2.962208518434558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep mixture-of-experts models have attracted a lot of attention for survival analysis problems, particularly for their ability to cluster similar patients together. In practice, grouping often comes at the expense of key metrics such calibration error and predictive accuracy. This is due to the restrictive inductive bias that mixture-of-experts imposes, that predictions for individual patients must look like predictions for the group they're assigned to. Might we be able to discover patient group structure, where it exists, while improving calibration and predictive accuracy? In this work, we introduce several discrete-time deep mixture-of-experts (MoE) based architectures for survival analysis problems, one of which achieves all desiderata: clustering, calibration, and predictive accuracy. We show that a key differentiator between this array of MoEs is how expressive their experts are. We find that more expressive experts that tailor predictions per patient outperform experts that rely on fixed group prototypes.
- Abstract(参考訳): 深層混合実験モデルは、生存分析の問題、特に類似した患者をまとめる能力に多くの注目を集めている。
実際には、グループ化はキャリブレーションエラーや予測精度といった重要な指標を犠牲にして行われることが多い。
これは、個々の患者の予測は、割り当てられたグループの予測のようなものでなければならないという、専門家の混在による制限的な帰納バイアスが原因です。
キャリブレーションと予測精度を改善しつつ、患者グループ構造がどこにあるかを発見することができるのか?
そこで本研究では, クラスタリング, キャリブレーション, 予測精度などのデシラタを全て実現した, 生存分析問題に対する離散時間深層混合(MoE)に基づくアーキテクチャを提案する。
この一連のMoE間の重要な差別化要因は、専門家がいかに表現力を持っているかである。
より表現力のある専門家は、患者ごとの予測を調整し、固定されたグループのプロトタイプに依存する専門家より優れています。
関連論文リスト
- Conformal Set-based Human-AI Complementarity with Multiple Experts [1.1510009152620668]
本研究は、複数の人間専門家のプールからインスタンス固有の専門家を選定することに焦点を当てる。
我々は、共形集合を利用して、インスタンスの分類に使用される専門家予測のサブセットを識別するグリーディアルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-08-09T14:17:51Z) - On Arbitrary Predictions from Equally Valid Models [49.56463611078044]
モデル多重性(英: Model multiplicity)とは、同じ患者に対して矛盾する予測を認める複数の機械学習モデルを指す。
たとえ小さなアンサンブルであっても、実際は予測的多重性を緩和・緩和できることを示す。
論文 参考訳(メタデータ) (2025-07-25T16:15:59Z) - Generalization Error Analysis for Sparse Mixture-of-Experts: A Preliminary Study [65.11303133775857]
Mixture-of-Experts (MoE)計算アマルガメート予測
Sparse MoEは、限られた数、あるいは1つの専門家だけを選択的に扱うことで、経験的に保存され、時にはパフォーマンスが向上する一方で、オーバーヘッドを大幅に削減する。
論文 参考訳(メタデータ) (2024-03-26T05:48:02Z) - Towards Calibrated Deep Clustering Network [60.71776081164377]
ディープクラスタリングでは、特定のクラスタに属するサンプルに対する推定信頼度はその実際の予測精度を大きく上回る。
推定された信頼度と実際の精度を効果的にキャリブレーションできる新しいデュアルヘッド(キャリブレーションヘッドとクラスタリングヘッド)深層クラスタリングモデルを提案する。
提案したキャリブレーション深層クラスタリングモデルでは, キャリブレーション誤差の予測値において, 最先端の深部クラスタリング手法を平均5倍に越えるだけでなく, クラスタリング精度も大幅に向上する。
論文 参考訳(メタデータ) (2024-03-04T11:23:40Z) - Enhancing Molecular Property Prediction via Mixture of Collaborative
Experts [23.388085838279405]
本稿では,MPPにおけるデータ不足と不均衡に対処するGNN-MoCEアーキテクチャを提案する。
また、Mixture of Collaborative Experts (MoCE) を予測器として採用し、タスクの共通性を活用している。
提案モデルは,24MPPデータセットにおける従来の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-06T05:02:10Z) - MoCaE: Mixture of Calibrated Experts Significantly Improves Object
Detection [18.059899772411033]
我々は、Deep Ensemblesと同様の方法で、専門的なオブジェクト検出器を"自然に組み合わせることによって、しばしば性能が劣化することを発見した。
この問題の主な原因は,専門家の予測が性能に合わないことである。
これを解決するため,エキスパートの混合を構築する際に,専門家の個人的パフォーマンスを反映した方法で,これらの予測を組み合わせることを提案する。
論文 参考訳(メタデータ) (2023-09-26T14:52:51Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Gaussian Experts Selection using Graphical Models [7.530615321587948]
ローカル近似は、元のデータセットをサブセットに分割し、各サブセットでローカル専門家を訓練することで、時間の複雑さを低減する。
我々は、専門家間の条件依存を符号化するスパース精度行列を用いて、非方向性のグラフィカルモデルに関する文献からのテクニックを活用し、最も重要な専門家を選択する。
論文 参考訳(メタデータ) (2021-02-02T14:12:11Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Survival Cluster Analysis [93.50540270973927]
異なるリスクプロファイルを持つサブポピュレーションを特定するために、生存分析には未解決の必要性がある。
このニーズに対処するアプローチは、個々の成果のキャラクタリゼーションを改善する可能性が高い。
論文 参考訳(メタデータ) (2020-02-29T22:41:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。