論文の概要: PROMISSING: Pruning Missing Values in Neural Networks
- arxiv url: http://arxiv.org/abs/2206.01640v1
- Date: Fri, 3 Jun 2022 15:37:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 14:34:05.107870
- Title: PROMISSING: Pruning Missing Values in Neural Networks
- Title(参考訳): 予測:ニューラルネットワークにおける欠落値のプルーニング
- Authors: Seyed Mostafa Kia, Nastaran Mohammadian Rad, Daniel van Opstal, Bart
van Schie, Andre F. Marquand, Josien Pluim, Wiepke Cahn, Hugo G. Schnack
- Abstract要約: 本稿では,ニューラルネットワークの学習と推論の段階において,欠落値(PROMISSing)を抽出する,シンプルで直感的かつ効果的な手法を提案する。
実験の結果, ProMISSing は様々な計算手法と比較して予測性能が良くなることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: While data are the primary fuel for machine learning models, they often
suffer from missing values, especially when collected in real-world scenarios.
However, many off-the-shelf machine learning models, including artificial
neural network models, are unable to handle these missing values directly.
Therefore, extra data preprocessing and curation steps, such as data
imputation, are inevitable before learning and prediction processes. In this
study, we propose a simple and intuitive yet effective method for pruning
missing values (PROMISSING) during learning and inference steps in neural
networks. In this method, there is no need to remove or impute the missing
values; instead, the missing values are treated as a new source of information
(representing what we do not know). Our experiments on simulated data, several
classification and regression benchmarks, and a multi-modal clinical dataset
show that PROMISSING results in similar prediction performance compared to
various imputation techniques. In addition, our experiments show models trained
using PROMISSING techniques are becoming less decisive in their predictions
when facing incomplete samples with many unknowns. This finding hopefully
advances machine learning models from being pure predicting machines to more
realistic thinkers that can also say "I do not know" when facing incomplete
sources of information.
- Abstract(参考訳): データは機械学習モデルの主要な燃料であるが、特に現実世界のシナリオで収集された場合、不足する値に悩まされることが多い。
しかし、人工ニューラルネットワークモデルを含む多くの市販機械学習モデルは、これらの欠落した値を直接処理できない。
したがって、学習や予測プロセスの前に、データインプテーションのような追加のデータ前処理やキュレーションステップは避けられない。
本研究では,ニューラルネットワークの学習と推論の段階において,不足値(PROMISSing)を抽出する,単純かつ直感的かつ効果的な手法を提案する。
この方法では、欠落した値を削除またはインデュートする必要はなく、欠落した値は、新しい情報ソースとして扱われる(我々が知らないことを表す)。
シミュレーションデータ,いくつかの分類および回帰ベンチマーク,およびマルチモーダル臨床データセットを用いた実験により, ProMISSing は様々な計算手法と比較して予測性能が良くなった。
さらに,PROMISSING技術を用いてトレーニングしたモデルが,未知の未完成サンプルに直面した場合,予測精度が低下していることを示す。
この発見は、機械学習モデルを純粋に予測するマシンから、不完全な情報ソースに直面する際に「私は知らない」と言うことができるより現実的な思考者へと発展させることを願っている。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Estimating Uncertainty with Implicit Quantile Network [0.0]
不確かさの定量化は多くの性能クリティカルなアプリケーションにおいて重要な部分である。
本稿では,アンサンブル学習やベイズニューラルネットワークなど,既存のアプローチに対する簡単な代替手段を提供する。
論文 参考訳(メタデータ) (2024-08-26T13:33:14Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - On Inductive Biases for Machine Learning in Data Constrained Settings [0.0]
この論文は、データ制約された設定で表現力のあるモデルを学ぶという問題に対する異なる答えを探求する。
ニューラルネットワークを学ぶために、大きなデータセットに頼るのではなく、データ構造を反映した既知の関数によって、いくつかのモジュールを置き換えるつもりです。
我々のアプローチは「帰納的バイアス」のフードの下に置かれており、これは探索するモデルの空間を制限する手元にあるデータの仮説として定義することができる。
論文 参考訳(メタデータ) (2023-02-21T14:22:01Z) - Localized Shortcut Removal [4.511561231517167]
保持されたテストデータのハイパフォーマンスは、モデルを一般化したり、意味のあるものを学ぶことを必ずしも示さない。
これはしばしば、機械学習のショートカットの存在が原因である。
我々は、逆向きに訓練されたレンズを用いて、画像中の非常に予測的だが意味的に無関係な手がかりを検出し、排除する。
論文 参考訳(メタデータ) (2022-11-24T13:05:33Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - An Efficient Method of Training Small Models for Regression Problems
with Knowledge Distillation [1.433758865948252]
回帰問題に対する知識蒸留の新しい定式化を提案する。
まず,教師モデル予測を用いて,教師モデルを用いた学習サンプルの退学率を下げる新たな損失関数,教師の退学率の減少を提案する。
マルチタスクネットワークを考えることで、学生モデルの特徴抽出の訓練がより効果的になる。
論文 参考訳(メタデータ) (2020-02-28T08:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。