論文の概要: Prediction Models That Learn to Avoid Missing Values
- arxiv url: http://arxiv.org/abs/2505.03393v1
- Date: Tue, 06 May 2025 10:16:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.32881
- Title: Prediction Models That Learn to Avoid Missing Values
- Title(参考訳): 失敗する価値を避けるための予測モデル
- Authors: Lena Stempfle, Anton Matsson, Newton Mwai, Fredrik D. Johansson,
- Abstract要約: 失敗回避機械学習(英: Missingness-avoiding、MA)は、テスト時に欠落する機能の価値をほとんど必要としないモデルをトレーニングするためのフレームワークである。
我々は,決定木,木アンサンブル,疎線形モデルに適したMA学習アルゴリズムを作成する。
我々のフレームワークは、テスト時に欠落した値の予測において、解釈可能性を維持する強力なツールを提供する。
- 参考スコア(独自算出の注目度): 7.302408149992981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Handling missing values at test time is challenging for machine learning models, especially when aiming for both high accuracy and interpretability. Established approaches often add bias through imputation or excessive model complexity via missingness indicators. Moreover, either method can obscure interpretability, making it harder to understand how the model utilizes the observed variables in predictions. We propose missingness-avoiding (MA) machine learning, a general framework for training models to rarely require the values of missing (or imputed) features at test time. We create tailored MA learning algorithms for decision trees, tree ensembles, and sparse linear models by incorporating classifier-specific regularization terms in their learning objectives. The tree-based models leverage contextual missingness by reducing reliance on missing values based on the observed context. Experiments on real-world datasets demonstrate that MA-DT, MA-LASSO, MA-RF, and MA-GBT effectively reduce the reliance on features with missing values while maintaining predictive performance competitive with their unregularized counterparts. This shows that our framework gives practitioners a powerful tool to maintain interpretability in predictions with test-time missing values.
- Abstract(参考訳): テスト時に欠落した値を扱うことは、特に高精度と解釈可能性の両方を目指して機械学習モデルでは難しい。
確立されたアプローチは、しばしば、不合理性インジケータを通して、または過剰なモデルの複雑さを通じてバイアスを加える。
さらに、どちらの手法も解釈容易性を曖昧にし、モデルがどのように観察された変数を予測に利用するかを理解するのが難しくなる。
テスト時に欠落した(あるいは暗示された)機能の価値をほとんど必要としないようなモデルをトレーニングするための一般的なフレームワークである、欠落回避機械学習(MA)を提案する。
学習目的に分類器固有の正規化項を組み込むことで,決定木,木アンサンブル,疎線形モデルに適したMA学習アルゴリズムを作成する。
ツリーベースのモデルは、観測されたコンテキストに基づいた欠落値への依存を減らすことで、コンテキストの欠落を利用する。
実世界のデータセットの実験では、MA-DT、MA-LASSO、MA-RF、MA-GBTは、非正規化されたデータセットと競合する予測性能を維持しながら、欠落した値を持つ機能への依存を効果的に低減することを示した。
これは、我々のフレームワークがテスト時に欠落した値の予測において、解釈可能性を維持する強力なツールを実践者に与えていることを示している。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Still More Shades of Null: An Evaluation Suite for Responsible Missing Value Imputation [7.620967781722717]
本稿では,有意な値計算を行うための評価スイートであるShades-of-Nullを紹介する。
我々はShades-of-Nullを使って29,736の実験パイプラインを含む大規模な実験を行った。
論文 参考訳(メタデータ) (2024-09-11T17:58:39Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - MINTY: Rule-based Models that Minimize the Need for Imputing Features
with Missing Values [10.591844776850857]
MINTYは、1つまたはそれ以上が欠落しているとき、相互の代替として機能する変数間の解離という形でルールを学ぶ方法である。
合成および実世界のデータセットを用いた実験において、MINTYの価値を実証し、その予測性能がベースラインに匹敵するか好適かを見出す。
論文 参考訳(メタデータ) (2023-11-23T17:09:12Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Sharing pattern submodels for prediction with missing values [12.981974894538668]
機械学習の多くのアプリケーションでは欠落値は避けられず、トレーニング中もテスト時にも課題が提示される。
パターンサブモデル(パターンサブモデル)と呼ばれる別の手法を提案する。これは、テスト時に欠落した値に対して、予測を堅牢にし、パターンサブモデルの予測力を維持または改善させる。
論文 参考訳(メタデータ) (2022-06-22T15:09:40Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。