論文の概要: Let the Experts Speak: Improving Survival Prediction & Calibration via Mixture-of-Experts Heads
- arxiv url: http://arxiv.org/abs/2511.09567v1
- Date: Fri, 14 Nov 2025 01:00:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.325471
- Title: Let the Experts Speak: Improving Survival Prediction & Calibration via Mixture-of-Experts Heads
- Title(参考訳): 専門家に言わせてみましょう:Mixture-of-Expertsによる生存予測と校正の改善
- Authors: Todd Morrill, Aahlad Puli, Murad Megjhani, Soojin Park, Richard Zemel,
- Abstract要約: 我々は、生存分析問題に対していくつかの離散時間深層混合(MoE)アーキテクチャを導入する。
そのうちの1つは、クラスタリング、キャリブレーション、予測精度のすべてを達成する。
より表現力のある専門家は、患者ごとの予測を調整し、固定されたグループのプロトタイプに依存する専門家より優れています。
- 参考スコア(独自算出の注目度): 2.962208518434558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep mixture-of-experts models have attracted a lot of attention for survival analysis problems, particularly for their ability to cluster similar patients together. In practice, grouping often comes at the expense of key metrics such calibration error and predictive accuracy. This is due to the restrictive inductive bias that mixture-of-experts imposes, that predictions for individual patients must look like predictions for the group they're assigned to. Might we be able to discover patient group structure, where it exists, while improving calibration and predictive accuracy? In this work, we introduce several discrete-time deep mixture-of-experts (MoE) based architectures for survival analysis problems, one of which achieves all desiderata: clustering, calibration, and predictive accuracy. We show that a key differentiator between this array of MoEs is how expressive their experts are. We find that more expressive experts that tailor predictions per patient outperform experts that rely on fixed group prototypes.
- Abstract(参考訳): 深層混合実験モデルは、生存分析の問題、特に類似した患者をまとめる能力に多くの注目を集めている。
実際には、グループ化はキャリブレーションエラーや予測精度といった重要な指標を犠牲にして行われることが多い。
これは、個々の患者の予測は、割り当てられたグループの予測のようなものでなければならないという、専門家の混在による制限的な帰納バイアスが原因です。
キャリブレーションと予測精度を改善しつつ、患者グループ構造がどこにあるかを発見することができるのか?
そこで本研究では, クラスタリング, キャリブレーション, 予測精度などのデシラタを全て実現した, 生存分析問題に対する離散時間深層混合(MoE)に基づくアーキテクチャを提案する。
この一連のMoE間の重要な差別化要因は、専門家がいかに表現力を持っているかである。
より表現力のある専門家は、患者ごとの予測を調整し、固定されたグループのプロトタイプに依存する専門家より優れています。
関連論文リスト
- Deep Variational Contrastive Learning for Joint Risk Stratification and Time-to-Event Estimation [9.592144785458443]
ConverSE は、予測可能なリスク階層化のための対照的な学習を伴う変分オートエンコーダを統一するディープサバイバルモデルである。
既存のディープサバイバル法と比較して、有意義な患者層を維持しながら、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-02-01T18:07:40Z) - Conformal Set-based Human-AI Complementarity with Multiple Experts [1.1510009152620668]
本研究は、複数の人間専門家のプールからインスタンス固有の専門家を選定することに焦点を当てる。
我々は、共形集合を利用して、インスタンスの分類に使用される専門家予測のサブセットを識別するグリーディアルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-08-09T14:17:51Z) - On Arbitrary Predictions from Equally Valid Models [49.56463611078044]
モデル多重性(英: Model multiplicity)とは、同じ患者に対して矛盾する予測を認める複数の機械学習モデルを指す。
たとえ小さなアンサンブルであっても、実際は予測的多重性を緩和・緩和できることを示す。
論文 参考訳(メタデータ) (2025-07-25T16:15:59Z) - Uncertainty-Driven Expert Control: Enhancing the Reliability of Medical Vision-Language Models [52.2001050216955]
既存の方法は、モデル構造を調整したり、高品質なデータで微調整したり、好みの微調整によって、医療ビジョン言語モデル(MedVLM)の性能を向上させることを目的としている。
我々は,MedVLMと臨床専門知識の連携を図るために,Expert-Controlled-Free Guidance (Expert-CFG) という,ループ内のエキスパート・イン・ザ・ループフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-12T09:03:30Z) - Generalization Error Analysis for Sparse Mixture-of-Experts: A Preliminary Study [65.11303133775857]
Mixture-of-Experts (MoE)計算アマルガメート予測
Sparse MoEは、限られた数、あるいは1つの専門家だけを選択的に扱うことで、経験的に保存され、時にはパフォーマンスが向上する一方で、オーバーヘッドを大幅に削減する。
論文 参考訳(メタデータ) (2024-03-26T05:48:02Z) - Towards Calibrated Deep Clustering Network [60.71776081164377]
ディープクラスタリングでは、特定のクラスタに属するサンプルに対する推定信頼度はその実際の予測精度を大きく上回る。
推定された信頼度と実際の精度を効果的にキャリブレーションできる新しいデュアルヘッド(キャリブレーションヘッドとクラスタリングヘッド)深層クラスタリングモデルを提案する。
提案したキャリブレーション深層クラスタリングモデルでは, キャリブレーション誤差の予測値において, 最先端の深部クラスタリング手法を平均5倍に越えるだけでなく, クラスタリング精度も大幅に向上する。
論文 参考訳(メタデータ) (2024-03-04T11:23:40Z) - Enhancing Molecular Property Prediction via Mixture of Collaborative
Experts [23.388085838279405]
本稿では,MPPにおけるデータ不足と不均衡に対処するGNN-MoCEアーキテクチャを提案する。
また、Mixture of Collaborative Experts (MoCE) を予測器として採用し、タスクの共通性を活用している。
提案モデルは,24MPPデータセットにおける従来の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-06T05:02:10Z) - MoCaE: Mixture of Calibrated Experts Significantly Improves Object
Detection [18.059899772411033]
我々は、Deep Ensemblesと同様の方法で、専門的なオブジェクト検出器を"自然に組み合わせることによって、しばしば性能が劣化することを発見した。
この問題の主な原因は,専門家の予測が性能に合わないことである。
これを解決するため,エキスパートの混合を構築する際に,専門家の個人的パフォーマンスを反映した方法で,これらの予測を組み合わせることを提案する。
論文 参考訳(メタデータ) (2023-09-26T14:52:51Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Gaussian Experts Selection using Graphical Models [7.530615321587948]
ローカル近似は、元のデータセットをサブセットに分割し、各サブセットでローカル専門家を訓練することで、時間の複雑さを低減する。
我々は、専門家間の条件依存を符号化するスパース精度行列を用いて、非方向性のグラフィカルモデルに関する文献からのテクニックを活用し、最も重要な専門家を選択する。
論文 参考訳(メタデータ) (2021-02-02T14:12:11Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Survival Cluster Analysis [93.50540270973927]
異なるリスクプロファイルを持つサブポピュレーションを特定するために、生存分析には未解決の必要性がある。
このニーズに対処するアプローチは、個々の成果のキャラクタリゼーションを改善する可能性が高い。
論文 参考訳(メタデータ) (2020-02-29T22:41:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。