論文の概要: Budget-constrained Active Learning to Effectively De-censor Survival Data
- arxiv url: http://arxiv.org/abs/2510.12144v1
- Date: Tue, 14 Oct 2025 04:53:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.191201
- Title: Budget-constrained Active Learning to Effectively De-censor Survival Data
- Title(参考訳): 予算制約付きアクティブラーニングによる生存データを効果的に脱感作する
- Authors: Ali Parsaee, Bei Jiang, Zachary Friggstad, Russell Greiner,
- Abstract要約: 我々は、現在最先端の予算付き学習アルゴリズムを生存データに適用する方法を示す。
これは現実世界のデータ収集のモデルとして機能し、検閲された患者とのフォローアップが常に非検閲につながるとは限らない。
我々のアプローチは、標準のアクティブラーニング手法であるBatchBALDに匹敵する境界時間と時間を与える。
- 参考スコア(独自算出の注目度): 13.503364413351918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard supervised learners attempt to learn a model from a labeled dataset. Given a small set of labeled instances, and a pool of unlabeled instances, a budgeted learner can use its given budget to pay to acquire the labels of some unlabeled instances, which it can then use to produce a model. Here, we explore budgeted learning in the context of survival datasets, which include (right) censored instances, where we know only a lower bound on an instance's time-to-event. Here, that learner can pay to (partially) label a censored instance -- e.g., to acquire the actual time for an instance [perhaps go from (3 yr, censored) to (7.2 yr, uncensored)], or other variants [e.g., learn about one more year, so go from (3 yr, censored) to either (4 yr, censored) or perhaps (3.2 yr, uncensored)]. This serves as a model of real world data collection, where follow-up with censored patients does not always lead to uncensoring, and how much information is given to the learner model during data collection is a function of the budget and the nature of the data itself. We provide both experimental and theoretical results for how to apply state-of-the-art budgeted learning algorithms to survival data and the respective limitations that exist in doing so. Our approach provides bounds and time complexity asymptotically equivalent to the standard active learning method BatchBALD. Moreover, empirical analysis on several survival tasks show that our model performs better than other potential approaches on several benchmarks.
- Abstract(参考訳): 標準教師付き学習者はラベル付きデータセットからモデルを学習しようとする。
ラベル付インスタンスの小さなセットとラベル付インスタンスのプールが与えられた場合、予算付き学習者は与えられた予算を使ってラベル付インスタンスのラベルを取得することができ、モデルを作成するのに使用できる。
ここでは、(正しい)検閲されたインスタンスを含むサバイバルデータセットのコンテキストにおける予算付き学習について検討する。
ここで、学習者は、(部分的には)検閲されたインスタンス - 例えば、インスタンスの実際の時間(おそらくは3 yrから7.2 yr、uncensored))または他の変種(例:1年について学ぶので、3 yrから(4 yr、uncensored)または(3.2 yr、uncensored)へ)のラベルを付けることができる。
これは実世界のデータ収集のモデルとして機能し、検閲された患者とのフォローアップが常にアンセンサリングに繋がるとは限らない。
我々は,最先端の予算付き学習アルゴリズムを生存データに適用するための実験と理論の両方の結果を提供する。
提案手法は,標準アクティブラーニング手法であるBatchBALDと漸近的に等価な境界と時間複雑性を提供する。
さらに,いくつかのサバイバルタスクに対する経験的分析により,我々のモデルは,いくつかのベンチマークにおける他の潜在的アプローチよりも優れた性能を示した。
関連論文リスト
- Orthogonal Survival Learners for Estimating Heterogeneous Treatment Effects from Time-to-Event Data [22.806200899508145]
不均一な治療効果(HTE)を推定することは、パーソナライズされた意思決定に不可欠である。
本稿では,検閲下での時間-時間データからHTEを推定するための,新しい生存学習者のツールボックスを提案する。
論文 参考訳(メタデータ) (2025-05-19T13:06:41Z) - An Information Theoretic Approach to Machine Unlearning [43.423418819707784]
AIやデータ規則に従うためには、トレーニングされた機械学習モデルからプライベートまたは著作権のある情報を忘れる必要性がますます高まっている。
この研究では、ゼロショットのアンラーニングシナリオに対処し、未学習のアルゴリズムは、トレーニングされたモデルと忘れられるデータだけが与えられたデータを削除できなければならない。
モデルの幾何に基づいて、単純だが原則化されたゼロショットアンラーニング法を導出する。
論文 参考訳(メタデータ) (2024-02-02T13:33:30Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - SurvivalGAN: Generating Time-to-Event Data for Survival Analysis [121.84429525403694]
検閲と時間的地平線の不均衡は、生成モデルに生存分析に特有の3つの新しい障害モードを経験させる。
本稿では,検閲やイベントの地平線における不均衡に対処し,生存データを扱う生成モデルであるSurvivalGANを提案する。
医療データセットに関する広範な実験により,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-02-24T17:03:51Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。