論文の概要: The information of attribute uncertainties: what convolutional neural
networks can learn about errors in input data
- arxiv url: http://arxiv.org/abs/2108.04742v1
- Date: Tue, 10 Aug 2021 15:10:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 14:36:57.027738
- Title: The information of attribute uncertainties: what convolutional neural
networks can learn about errors in input data
- Title(参考訳): 属性の不確かさの情報:入力データの誤りについてどんな畳み込みニューラルネットワークが学べるか
- Authors: Nat\'alia V. N. Rodrigues, L. Raul Abramo, Nina S. Hirata
- Abstract要約: 我々は、畳み込みニューラルネットワーク(CNN)が、信号と雑音のコンテキストとパターンについて、どのように学習できるかを示す。
それぞれのデータポイントがノイズのレベルが異なる場合、CNNが学習できることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Errors in measurements are key to weighting the value of data, but are often
neglected in Machine Learning (ML). We show how Convolutional Neural Networks
(CNNs) are able to learn about the context and patterns of signal and noise,
leading to improvements in the performance of classification methods. We
construct a model whereby two classes of objects follow an underlying Gaussian
distribution, and where the features (the input data) have varying, but known,
levels of noise. This model mimics the nature of scientific data sets, where
the noises arise as realizations of some random processes whose underlying
distributions are known. The classification of these objects can then be
performed using standard statistical techniques (e.g., least-squares
minimization or Markov-Chain Monte Carlo), as well as ML techniques. This
allows us to take advantage of a maximum likelihood approach to object
classification, and to measure the amount by which the ML methods are
incorporating the information in the input data uncertainties. We show that,
when each data point is subject to different levels of noise (i.e., noises with
different distribution functions), that information can be learned by the CNNs,
raising the ML performance to at least the same level of the least-squares
method -- and sometimes even surpassing it. Furthermore, we show that, with
varying noise levels, the confidence of the ML classifiers serves as a proxy
for the underlying cumulative distribution function, but only if the
information about specific input data uncertainties is provided to the CNNs.
- Abstract(参考訳): 測定におけるエラーはデータの重み付けの鍵であるが、機械学習(ml)では無視されることが多い。
畳み込みニューラルネットワーク(CNN)が,信号と雑音の文脈やパターンを学習し,分類法の性能向上につながることを示す。
2つのオブジェクトのクラスが基礎となるガウス分布に従い、特徴(入力データ)が変化するが既知のノイズレベルが変化するモデルを構築する。
このモデルは科学的データセットの性質を模倣し、ノイズは基礎となる分布が知られているランダムなプロセスの実現として生じる。
これらのオブジェクトの分類は、標準統計技術(最小二乗最小化やマルコフ連鎖モンテカルロなど)とml技術を用いて行うことができる。
これにより、オブジェクト分類に対する最大限のアプローチを活用でき、入力データの不確実性にML手法が情報を組み込んでいる量を測定することができる。
各データポイントが異なるレベルのノイズ(すなわち、分布関数の異なるノイズ)にさらされている場合、情報をCNNによって学習することができ、最小二乗法の少なくとも同じレベルまでML性能を上昇させ、時にはそれを超えることもあることを示す。
さらに, 雑音レベルが変化する場合, ml分類器の信頼度は累積分布関数のプロキシとして機能するが, 特定の入力データの不確かさに関する情報がcnnsに提供された場合にのみ有効であることを示す。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - SEMRes-DDPM: Residual Network Based Diffusion Modelling Applied to
Imbalanced Data [9.969882349165745]
データマイニングと機械学習の分野では、一般的に使われている分類モデルは、不均衡なデータで効果的に学習することはできない。
古典的なオーバーサンプリング手法の多くは、データのローカル情報のみに焦点を当てたSMOTE技術に基づいている。
本稿では,SEMRes-DDPMのオーバーサンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-03-09T14:01:04Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Mutual Information Learned Classifiers: an Information-theoretic
Viewpoint of Training Deep Learning Classification Systems [9.660129425150926]
クロスエントロピー損失は、重度のオーバーフィッティング動作を示すモデルを見つけるのに容易である。
本稿では,既存のDNN分類器のクロスエントロピー損失最小化が,基礎となるデータ分布の条件エントロピーを本質的に学習することを証明する。
ラベルと入力の相互情報を学習することで、DNN分類器を訓練する相互情報学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-03T15:09:19Z) - Continual Learning For On-Device Environmental Sound Classification [63.81276321857279]
デバイス上での環境音の分類のための簡易かつ効率的な連続学習法を提案する。
本手法は,サンプルごとの分類の不確実性を測定することにより,トレーニングの履歴データを選択する。
論文 参考訳(メタデータ) (2022-07-15T12:13:04Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Estimating g-Leakage via Machine Learning [34.102705643128004]
本稿では,ブラックボックスシナリオにおけるシステムの情報漏洩を推定する問題について考察する。
システムの内部は学習者にとって未知であり、分析するには複雑すぎると仮定される。
機械学習(ML)アルゴリズムを用いて,g-vulnerabilityをブラックボックスで推定する手法を提案する。
論文 参考訳(メタデータ) (2020-05-09T09:26:36Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z) - Multi-class Gaussian Process Classification with Noisy Inputs [2.362412515574206]
いくつかの状況では、騒音の量は事前に知ることができる。
提案手法を,合成データと実データを含むいくつかの実験により評価した。
論文 参考訳(メタデータ) (2020-01-28T18:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。