論文の概要: Prediction Models That Learn to Avoid Missing Values
- arxiv url: http://arxiv.org/abs/2505.03393v1
- Date: Tue, 06 May 2025 10:16:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.32881
- Title: Prediction Models That Learn to Avoid Missing Values
- Title(参考訳): 失敗する価値を避けるための予測モデル
- Authors: Lena Stempfle, Anton Matsson, Newton Mwai, Fredrik D. Johansson,
- Abstract要約: 失敗回避機械学習(英: Missingness-avoiding、MA)は、テスト時に欠落する機能の価値をほとんど必要としないモデルをトレーニングするためのフレームワークである。
我々は,決定木,木アンサンブル,疎線形モデルに適したMA学習アルゴリズムを作成する。
我々のフレームワークは、テスト時に欠落した値の予測において、解釈可能性を維持する強力なツールを提供する。
- 参考スコア(独自算出の注目度): 7.302408149992981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Handling missing values at test time is challenging for machine learning models, especially when aiming for both high accuracy and interpretability. Established approaches often add bias through imputation or excessive model complexity via missingness indicators. Moreover, either method can obscure interpretability, making it harder to understand how the model utilizes the observed variables in predictions. We propose missingness-avoiding (MA) machine learning, a general framework for training models to rarely require the values of missing (or imputed) features at test time. We create tailored MA learning algorithms for decision trees, tree ensembles, and sparse linear models by incorporating classifier-specific regularization terms in their learning objectives. The tree-based models leverage contextual missingness by reducing reliance on missing values based on the observed context. Experiments on real-world datasets demonstrate that MA-DT, MA-LASSO, MA-RF, and MA-GBT effectively reduce the reliance on features with missing values while maintaining predictive performance competitive with their unregularized counterparts. This shows that our framework gives practitioners a powerful tool to maintain interpretability in predictions with test-time missing values.
- Abstract(参考訳): テスト時に欠落した値を扱うことは、特に高精度と解釈可能性の両方を目指して機械学習モデルでは難しい。
確立されたアプローチは、しばしば、不合理性インジケータを通して、または過剰なモデルの複雑さを通じてバイアスを加える。
さらに、どちらの手法も解釈容易性を曖昧にし、モデルがどのように観察された変数を予測に利用するかを理解するのが難しくなる。
テスト時に欠落した(あるいは暗示された)機能の価値をほとんど必要としないようなモデルをトレーニングするための一般的なフレームワークである、欠落回避機械学習(MA)を提案する。
学習目的に分類器固有の正規化項を組み込むことで,決定木,木アンサンブル,疎線形モデルに適したMA学習アルゴリズムを作成する。
ツリーベースのモデルは、観測されたコンテキストに基づいた欠落値への依存を減らすことで、コンテキストの欠落を利用する。
実世界のデータセットの実験では、MA-DT、MA-LASSO、MA-RF、MA-GBTは、非正規化されたデータセットと競合する予測性能を維持しながら、欠落した値を持つ機能への依存を効果的に低減することを示した。
これは、我々のフレームワークがテスト時に欠落した値の予測において、解釈可能性を維持する強力なツールを実践者に与えていることを示している。
関連論文リスト
- Calibrated Value-Aware Model Learning with Probabilistic Environment Models [11.633285935344208]
我々は、人気の高いMuZero損失を含む、価値認識モデル学習損失の家系を分析した。
これらの損失は、通常用いられるように、無調整の代理損失であり、必ずしも正しいモデルと値関数を回復しないことを意味する。
論文 参考訳(メタデータ) (2025-05-28T18:40:49Z) - Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments [5.5855749614100825]
本稿では,複数の事前学習モデルを活用することで,このリコール低減を緩和できるという仮説を述べる。
我々は,一貫性に基づく推論問題として,様々なモデルからの矛盾する予測を特定し,管理することの課題を定式化する。
本研究は,複数の不完全なモデルから得られた知識を,難易度の高い新しいシナリオにおいて堅牢に統合するための効果的なメカニズムとして,一貫性に基づく誘拐の有効性を検証するものである。
論文 参考訳(メタデータ) (2025-05-25T23:17:47Z) - Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Still More Shades of Null: An Evaluation Suite for Responsible Missing Value Imputation [7.620967781722717]
本稿では,有意な値計算を行うための評価スイートであるShades-of-Nullを紹介する。
我々はShades-of-Nullを使って29,736の実験パイプラインを含む大規模な実験を行った。
論文 参考訳(メタデータ) (2024-09-11T17:58:39Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - MINTY: Rule-based Models that Minimize the Need for Imputing Features
with Missing Values [10.591844776850857]
MINTYは、1つまたはそれ以上が欠落しているとき、相互の代替として機能する変数間の解離という形でルールを学ぶ方法である。
合成および実世界のデータセットを用いた実験において、MINTYの価値を実証し、その予測性能がベースラインに匹敵するか好適かを見出す。
論文 参考訳(メタデータ) (2023-11-23T17:09:12Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Sharing pattern submodels for prediction with missing values [12.981974894538668]
機械学習の多くのアプリケーションでは欠落値は避けられず、トレーニング中もテスト時にも課題が提示される。
パターンサブモデル(パターンサブモデル)と呼ばれる別の手法を提案する。これは、テスト時に欠落した値に対して、予測を堅牢にし、パターンサブモデルの予測力を維持または改善させる。
論文 参考訳(メタデータ) (2022-06-22T15:09:40Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。