論文の概要: T-SCI: A Two-Stage Conformal Inference Algorithm with Guaranteed
Coverage for Cox-MLP
- arxiv url: http://arxiv.org/abs/2103.04556v1
- Date: Mon, 8 Mar 2021 05:42:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 16:06:28.216979
- Title: T-SCI: A Two-Stage Conformal Inference Algorithm with Guaranteed
Coverage for Cox-MLP
- Title(参考訳): T-SCI: Cox-MLPのカバレッジ保証付き2ステージコンフォーマル推論アルゴリズム
- Authors: Jiaye Teng, Zeren Tan, Yang Yuan
- Abstract要約: 検閲データのカバレッジ保証を回復するための2つのアルゴリズムを提案する。
まず,重み付き共形推論を再検討し,部分的確率に基づく新しい非共形性スコアを導入する。
そこで第1段階でWCCIを実行し、第2段階で結果を校正するために量子的コンフォーマル推論を適用する2段階アルゴリズム emphT-SCI を提案する。
- 参考スコア(独自算出の注目度): 13.4379473119565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is challenging to deal with censored data, where we only have access to
the incomplete information of survival time instead of its exact value.
Fortunately, under linear predictor assumption, people can obtain guaranteed
coverage for the confidence band of survival time using methods like Cox
Regression. However, when relaxing the linear assumption with neural networks
(e.g., Cox-MLP \citep{katzman2018deepsurv,kvamme2019time}), we lose the
guaranteed coverage. To recover the guaranteed coverage without linear
assumption, we propose two algorithms based on conformal inference. In the
first algorithm \emph{WCCI}, we revisit weighted conformal inference and
introduce a new non-conformity score based on partial likelihood. We then
propose a two-stage algorithm \emph{T-SCI}, where we run WCCI in the first
stage and apply quantile conformal inference to calibrate the results in the
second stage. Theoretical analysis shows that T-SCI returns guaranteed coverage
under milder assumptions than WCCI. We conduct extensive experiments on
synthetic data and real data using different methods, which validate our
analysis.
- Abstract(参考訳): 正確な価値ではなく生存時間の不完全な情報のみにアクセスできる、検閲されたデータを扱うのは困難です。
幸いなことに、線形予測子仮定の下では、人々はcox回帰のような手法を使って生存時間の信頼区間の保証範囲を得ることができる。
しかし、線形仮定をニューラルネットワーク(例えば、Cox-MLP \citep{katzman2018deepsurv,kvamme2019time})で緩和すると、保証されたカバレッジを失う。
線形仮定なしに保証されたカバレッジを回復するために,共形推論に基づく2つのアルゴリズムを提案する。
第1のアルゴリズム \emph{WCCI} では、重み付き共形推論を再検討し、部分的確率に基づく新しい非整合性スコアを導入する。
そこで、第1段階でWCCIを実行し、第2段階で結果をキャリブレーションするために量子的コンフォーマル推論を適用する2段階アルゴリズム \emph{T-SCI} を提案する。
理論的解析によると、T-SCIはWCCIよりも軽度の仮定で保証されたカバレッジを返す。
我々は,様々な手法を用いて合成データと実データに関する広範な実験を行い,解析の妥当性を検証した。
関連論文リスト
- The Benefit of Being Bayesian in Online Conformal Prediction [7.713245413733777]
ブラックボックス機械学習モデルを用いて、有効な信頼セットのオンライン構築について検討する。
対象の信頼レベルを量子レベルに変換することにより、逐次明らかにされたデータシーケンスの量子レベルを予測することで、問題を小さくすることができる。
論文 参考訳(メタデータ) (2024-10-03T15:04:47Z) - Provably Robust Conformal Prediction with Improved Efficiency [29.70455766394585]
コンフォーマル予測は、保証されたカバレッジで不確実性セットを生成する強力なツールである。
逆の例は、不正なカバレッジ率の予測セットを構築するために共形メソッドを操作することができる。
本稿では,PTT(Post-Training Transformation)とRCT(Robust Conformal Training)という2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T15:49:01Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Online Heavy-tailed Change-point detection [6.7643284029102295]
我々は,データ生成プロセスの第2モーメントが有界であると仮定した場合でも,クリッピングされたグラディエント・ディクセント(SGD)に基づくアルゴリズムを提案する。
我々は、有界な第2モーメントを持つすべての分布の族に対して、最悪の場合、有限サンプル偽陽性率(FPR)を導出する。
本手法は,データが高次元かつ基礎となる分布が重み付きであっても,有限サンプルFPRを保証する最初のOCPDアルゴリズムである。
論文 参考訳(メタデータ) (2023-06-15T23:39:05Z) - Fully Stochastic Trust-Region Sequential Quadratic Programming for
Equality-Constrained Optimization Problems [62.83783246648714]
目的と決定論的等式制約による非線形最適化問題を解くために,逐次2次プログラミングアルゴリズム(TR-StoSQP)を提案する。
アルゴリズムは信頼領域半径を適応的に選択し、既存の直線探索StoSQP方式と比較して不確定なヘッセン行列を利用することができる。
論文 参考訳(メタデータ) (2022-11-29T05:52:17Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z) - Provable Training of a ReLU Gate with an Iterative Non-Gradient
Algorithm [0.7614628596146599]
我々は,未調査体制下での1つのReLUゲートのトレーニングについて,証明可能な保証を示す。
我々は,真のラベルに対する(オンライン)データポゾン攻撃の下で,真のラベル生成パラメータを近似的に復元することを示す。
我々の保証は最悪の場合ほぼ最適であることが示され、真の重量回復の精度は攻撃の確率と大きさの増大とともに優雅に低下する。
論文 参考訳(メタデータ) (2020-05-08T17:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。