論文の概要: Filtering instances and rejecting predictions to obtain reliable models in healthcare
- arxiv url: http://arxiv.org/abs/2510.24368v1
- Date: Tue, 28 Oct 2025 12:45:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.116404
- Title: Filtering instances and rejecting predictions to obtain reliable models in healthcare
- Title(参考訳): 医療における信頼度モデル獲得のためのフィルタインスタンスと拒絶予測
- Authors: Maria Gabriela Valeriano, David Kohan Marzagão, Alfredo Montelongo, Carlos Roberto Veiga Kiffer, Natan Katz, Ana Carolina Lorena,
- Abstract要約: 本稿では,機械学習モデルの性能向上のための2段階のデータ中心方式を提案する。
最初のステップは、インスタンスハードネス(IH)を活用して、トレーニング中の問題のあるインスタンスをフィルタリングする。
第2のステップでは、推論中に信頼に基づく拒絶機構を導入し、信頼性のある予測のみを保持する。
- 参考スコア(独自算出の注目度): 0.2524526956420465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning (ML) models are widely used in high-stakes domains such as healthcare, where the reliability of predictions is critical. However, these models often fail to account for uncertainty, providing predictions even with low confidence. This work proposes a novel two-step data-centric approach to enhance the performance of ML models by improving data quality and filtering low-confidence predictions. The first step involves leveraging Instance Hardness (IH) to filter problematic instances during training, thereby refining the dataset. The second step introduces a confidence-based rejection mechanism during inference, ensuring that only reliable predictions are retained. We evaluate our approach using three real-world healthcare datasets, demonstrating its effectiveness at improving model reliability while balancing predictive performance and rejection rate. Additionally, we use alternative criteria - influence values for filtering and uncertainty for rejection - as baselines to evaluate the efficiency of the proposed method. The results demonstrate that integrating IH filtering with confidence-based rejection effectively enhances model performance while preserving a large proportion of instances. This approach provides a practical method for deploying ML systems in safety-critical applications.
- Abstract(参考訳): 機械学習(ML)モデルは、予測の信頼性が不可欠である医療などの高度な領域で広く利用されている。
しかし、これらのモデルはしばしば不確実性を考慮せず、信頼性の低い予測を提供する。
本研究では、データ品質を改善し、低信頼度予測をフィルタリングすることにより、MLモデルの性能を向上させるための2段階のデータ中心アプローチを提案する。
最初のステップは、インスタンスハーネス(IH)を活用してトレーニング中の問題のあるインスタンスをフィルタリングすることで、データセットを精査する。
第2のステップでは、推論中に信頼に基づく拒絶機構を導入し、信頼性のある予測のみを保持する。
3つの実世界の医療データセットを用いてアプローチを評価し、予測性能と拒絶率のバランスを保ちながら、モデルの信頼性を向上させる効果を実証した。
さらに,提案手法の効率性を評価するために,フィルタに対する影響値と拒絶に対する不確実性という代替基準をベースラインとして用いた。
その結果,IHフィルタと信頼度に基づくリジェクションの統合は,多数のインスタンスを保存しながらモデル性能を効果的に向上させることを示した。
このアプローチは、安全クリティカルなアプリケーションにMLシステムをデプロイするための実用的な方法を提供する。
関連論文リスト
- Principled Input-Output-Conditioned Post-Hoc Uncertainty Estimation for Regression Networks [1.4671424999873808]
不確実性は安全性に敏感なアプリケーションでは重要であるが、予測性能に悪影響を及ぼすため、市販のニューラルネットワークから排除されることが多い。
本稿では,従来の入力と凍結モデルの両方に補助モデルを適用することにより,回帰タスクにおけるポストホック不確実性推定のための理論的基盤となるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-01T09:13:27Z) - Enhancing LLM Reliability via Explicit Knowledge Boundary Modeling [41.19330514054401]
大規模言語モデル(LLM)は、不一致の自己認識に起因する幻覚の傾向にある。
本稿では,高速かつ低速な推論システムを統合し,信頼性とユーザビリティを調和させる明示的知識境界モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T03:16:02Z) - Self-Evolutionary Large Language Models through Uncertainty-Enhanced Preference Optimization [9.618391485742968]
反復的選好最適化は、最近、大規模言語モデル(LLM)のデファクトトレーニングパラダイムの1つになっている。
我々は、信頼性の高いフィードバックでLLMを自己進化させる不確実性のあるtextbfPreference textbfOptimizationフレームワークを提案する。
筆者らのフレームワークは,ノイズ問題を大幅に軽減し,反復的選好最適化の性能を向上させる。
論文 参考訳(メタデータ) (2024-09-17T14:05:58Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Restricted Bernoulli Matrix Factorization: Balancing the trade-off
between prediction accuracy and coverage in classification based
collaborative filtering [45.335821132209766]
本稿では,Restricted Bernoulli Matrix Factorization (ResBeMF) を提案する。
提案モデルでは,他のレコメンデーションモデルと比較して,品質指標のバランスが良好である。
論文 参考訳(メタデータ) (2022-10-05T13:48:19Z) - Learning Prediction Intervals for Model Performance [1.433758865948252]
モデル性能の予測間隔を計算する手法を提案する。
我々は,幅広いドリフト条件におけるアプローチを評価し,競合ベースラインよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2020-12-15T21:32:03Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Providing reliability in Recommender Systems through Bernoulli Matrix
Factorization [63.732639864601914]
本稿では,予測値と信頼性値の両方を提供するためにBernoulli Matrix Factorization (BeMF)を提案する。
BeMFはメモリベースのフィルタリングではなく、モデルベースの協調フィルタリングに作用する。
予測の信頼性が高ければ高いほど、それが間違っているという責任は少なくなる。
論文 参考訳(メタデータ) (2020-06-05T14:24:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。