論文の概要: A Study of Deep CNN Model with Labeling Noise Based on Granular-ball
Computing
- arxiv url: http://arxiv.org/abs/2207.08810v1
- Date: Sun, 17 Jul 2022 13:58:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:07:35.035617
- Title: A Study of Deep CNN Model with Labeling Noise Based on Granular-ball
Computing
- Title(参考訳): 粒状球計算に基づくラベルノイズ付き深層cnnモデルの検討
- Authors: Dawei Dai, Donggen Li, Zhiguo Zhuang
- Abstract要約: グラニュラーボールコンピューティングは効率的で堅牢でスケーラブルな学習方法である。
本稿では,モデル学習において,多粒性ラベルノイズサンプルをフィルタするグラニュラーニューラルネットワークモデルを考案した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In supervised learning, the presence of noise can have a significant impact
on decision making. Since many classifiers do not take label noise into account
in the derivation of the loss function, including the loss functions of
logistic regression, SVM, and AdaBoost, especially the AdaBoost iterative
algorithm, whose core idea is to continuously increase the weight value of the
misclassified samples, the weight of samples in many presence of label noise
will be increased, leading to a decrease in model accuracy. In addition, the
learning process of BP neural network and decision tree will also be affected
by label noise. Therefore, solving the label noise problem is an important
element of maintaining the robustness of the network model, which is of great
practical significance. Granular ball computing is an important modeling method
developed in the field of granular computing in recent years, which is an
efficient, robust and scalable learning method. In this paper, we pioneered a
granular ball neural network algorithm model, which adopts the idea of
multi-granular to filter label noise samples during model training, solving the
current problem of model instability caused by label noise in the field of deep
learning, greatly reducing the proportion of label noise in training samples
and improving the robustness of neural network models.
- Abstract(参考訳): 教師付き学習では、ノイズの存在は意思決定に大きな影響を与える可能性がある。
多くの分類器は、ロジスティック回帰、svm、adaboostの損失関数を含む損失関数の導出においてラベルノイズを考慮しないため、特に、誤った分類されたサンプルの重み値を継続的に増加させることを核とするadaboost反復アルゴリズムは、ラベルノイズの存在下でのサンプルの重みを増加させ、モデルの精度を低下させる。
さらに,BPニューラルネットワークと決定ツリーの学習過程もラベルノイズの影響を受ける。
したがって,ラベルノイズ問題を解決することは,ネットワークモデルのロバスト性を維持する上で重要な要素である。
粒状ボールコンピューティングは,近年の粒状計算の分野で開発された重要なモデリング手法であり,効率的で堅牢でスケーラブルな学習手法である。
本稿では,モデルトレーニング中にラベルノイズサンプルをマルチグラニュラーフィルタする手法を採用し,ディープラーニングの分野におけるラベルノイズに起因するモデル不安定性の現在の問題を解決し,トレーニングサンプルにおけるラベルノイズの割合を大幅に削減し,ニューラルネットワークモデルの頑健性を向上させる粒度球型ニューラルネットワークアルゴリズムモデルを考案した。
関連論文リスト
- Analyze the Robustness of Classifiers under Label Noise [5.708964539699851]
教師付き学習におけるラベルノイズは、誤ったラベルまたは不正確なラベルによって特徴づけられ、モデル性能を著しく損なう。
本研究は, ラベルノイズが実用的応用に与える影響について, ますます関連する問題に焦点をあてる。
論文 参考訳(メタデータ) (2023-12-12T13:51:25Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [50.27105057899601]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z) - Establishment of Neural Networks Robust to Label Noise [0.0]
本稿では,関連ラベルノイズ手法の基本概念について検討した。
遷移行列推定器が作成され、実際の遷移行列に対する効果が示されている。
複雑な畳み込みニューラルネットワークモデルを正しく調整できないため、遷移行列ノイズ補正が堅牢性向上に与える影響を効率よく示すことはできない。
論文 参考訳(メタデータ) (2022-11-28T13:07:23Z) - Learning to Rectify for Robust Learning with Noisy Labels [25.149277009932423]
分類ネットワークのトレーニング手順を適応的に修正するためのワープ確率推論(WarPI)を提案する。
雑音ラベルによる頑健な学習の4つのベンチマークでWarPIを評価し, 異種雑音下での新たな最先端の学習を実現する。
論文 参考訳(メタデータ) (2021-11-08T02:25:50Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Robust Learning of Recurrent Neural Networks in Presence of Exogenous
Noise [22.690064709532873]
入力雑音を受けるRNNモデルに対するトラクタブルロバストネス解析を提案する。
線形化手法を用いてロバストネス測度を効率的に推定することができる。
提案手法はリカレントニューラルネットワークのロバスト性を大幅に改善する。
論文 参考訳(メタデータ) (2021-05-03T16:45:05Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Robust Processing-In-Memory Neural Networks via Noise-Aware
Normalization [26.270754571140735]
PIM加速器は、しばしば物理的成分の固有のノイズに悩まされる。
雑音設定に対してロバストなニューラルネットワーク性能を実現するためのノイズ非依存手法を提案する。
論文 参考訳(メタデータ) (2020-07-07T06:51:28Z) - Rectified Meta-Learning from Noisy Labels for Robust Image-based Plant
Disease Diagnosis [64.82680813427054]
植物病は食料安全保障と作物生産に対する主要な脅威の1つである。
1つの一般的なアプローチは、葉画像分類タスクとしてこの問題を変換し、強力な畳み込みニューラルネットワーク(CNN)によって対処できる。
本稿では,正規化メタ学習モジュールを共通CNNパラダイムに組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-17T09:51:30Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。