論文の概要: Multi-class Gaussian Process Classification with Noisy Inputs
- arxiv url: http://arxiv.org/abs/2001.10523v3
- Date: Wed, 30 Dec 2020 13:41:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 02:24:13.550877
- Title: Multi-class Gaussian Process Classification with Noisy Inputs
- Title(参考訳): 雑音入力を用いたマルチクラスガウス過程分類
- Authors: Carlos Villacampa-Calvo, Bryan Zaldivar, Eduardo C. Garrido-Merch\'an,
Daniel Hern\'andez-Lobato
- Abstract要約: いくつかの状況では、騒音の量は事前に知ることができる。
提案手法を,合成データと実データを含むいくつかの実験により評価した。
- 参考スコア(独自算出の注目度): 2.362412515574206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is a common practice in the machine learning community to assume that the
observed data are noise-free in the input attributes. Nevertheless, scenarios
with input noise are common in real problems, as measurements are never
perfectly accurate. If this input noise is not taken into account, a supervised
machine learning method is expected to perform sub-optimally. In this paper, we
focus on multi-class classification problems and use Gaussian processes (GPs)
as the underlying classifier. Motivated by a data set coming from the
astrophysics domain, we hypothesize that the observed data may contain noise in
the inputs. Therefore, we devise several multi-class GP classifiers that can
account for input noise. Such classifiers can be efficiently trained using
variational inference to approximate the posterior distribution of the latent
variables of the model. Moreover, in some situations, the amount of noise can
be known before-hand. If this is the case, it can be readily introduced in the
proposed methods. This prior information is expected to lead to better
performance results. We have evaluated the proposed methods by carrying out
several experiments, involving synthetic and real data. These include several
data sets from the UCI repository, the MNIST data set and a data set coming
from astrophysics. The results obtained show that, although the classification
error is similar across methods, the predictive distribution of the proposed
methods is better, in terms of the test log-likelihood, than the predictive
distribution of a classifier based on GPs that ignores input noise.
- Abstract(参考訳): 機械学習コミュニティでは、観測されたデータが入力属性のノイズフリーであると仮定することが一般的である。
それでも、実際の問題では入力ノイズを伴うシナリオが一般的であり、測定が完全に正確ではない。
この入力ノイズが考慮されない場合、教師付き機械学習手法が準最適に実行されることが期待される。
本稿では,マルチクラス分類問題に着目し,ガウス過程(GP)を基礎となる分類器として利用する。
天体物理学領域から得られたデータセットにより、観測されたデータは入力にノイズを含む可能性があると仮定する。
そこで我々は,入力ノイズを考慮できるマルチクラスgp分類器を考案する。
このような分類器は、モデルの潜在変数の後方分布を近似するために変分推論を用いて効率的に訓練することができる。
また、状況によっては事前に騒音量を知ることができる。
このような場合、提案手法に容易に導入することができる。
この事前情報は、よりよいパフォーマンス結果をもたらすことが期待されている。
提案手法を,合成データと実データを含むいくつかの実験により評価した。
これには、UCIリポジトリからのいくつかのデータセット、MNISTデータセット、天体物理学からのデータセットが含まれる。
その結果,入力ノイズを無視するgpsに基づく分類器の予測分布よりも,提案手法の予測分布が類似しているものの,テストログの類似性の観点からは,提案手法の予測分布が優れていることがわかった。
関連論文リスト
- Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Understanding Noise-Augmented Training for Randomized Smoothing [14.061680807550722]
ランダムスムーシング(Randomized smoothing)は、敵攻撃に対する証明可能な堅牢性を保証する技術である。
より強い分布仮定を作らずに、雑音増強の訓練を受けた予測者から利益を期待できないことを示す。
本分析は, ランダム化平滑化の実践的展開に直接的な意味を持つ。
論文 参考訳(メタデータ) (2023-05-08T14:46:34Z) - Optimizing the Noise in Self-Supervised Learning: from Importance
Sampling to Noise-Contrastive Estimation [80.07065346699005]
GAN(Generative Adversarial Networks)のように、最適な雑音分布はデータ分布に等しくなると広く想定されている。
我々は、この自己教師型タスクをエネルギーベースモデルの推定問題として基礎づけるノイズ・コントラスト推定に目を向ける。
本研究は, 最適雑音のサンプリングは困難であり, 効率性の向上は, データに匹敵する雑音分布を選択することに比べ, 緩やかに行うことができると結論付けた。
論文 参考訳(メタデータ) (2023-01-23T19:57:58Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [50.27105057899601]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Uncertainty quantification for multiclass data description [0.1611401281366893]
カーネル・マハラノビス距離(MDD-KM)に基づくマルチクラスデータ記述モデルを提案する。
我々はMDD-KMを成分とする階層線形力学系に基づく原型分類システムについて報告する。
論文 参考訳(メタデータ) (2021-08-29T14:42:04Z) - The information of attribute uncertainties: what convolutional neural
networks can learn about errors in input data [0.0]
我々は、畳み込みニューラルネットワーク(CNN)が、信号と雑音のコンテキストとパターンについて、どのように学習できるかを示す。
それぞれのデータポイントがノイズのレベルが異なる場合、CNNが学習できることが示される。
論文 参考訳(メタデータ) (2021-08-10T15:10:46Z) - Estimating g-Leakage via Machine Learning [34.102705643128004]
本稿では,ブラックボックスシナリオにおけるシステムの情報漏洩を推定する問題について考察する。
システムの内部は学習者にとって未知であり、分析するには複雑すぎると仮定される。
機械学習(ML)アルゴリズムを用いて,g-vulnerabilityをブラックボックスで推定する手法を提案する。
論文 参考訳(メタデータ) (2020-05-09T09:26:36Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。