論文の概要: Impact of Noise on Calibration and Generalisation of Neural Networks
- arxiv url: http://arxiv.org/abs/2306.17630v1
- Date: Fri, 30 Jun 2023 13:04:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 12:27:01.459313
- Title: Impact of Noise on Calibration and Generalisation of Neural Networks
- Title(参考訳): ニューラルネットワークの校正と一般化に及ぼす騒音の影響
- Authors: Martin Ferianc, Ondrej Bohdal, Timothy Hospedales, Miguel Rodrigues
- Abstract要約: ニューラルネットワーク(NN)の一般化とロバスト性を高めるために、ノイズ注入とデータ拡張戦略が有効である。
ラベルの平滑化やMixUpのようなある種のノイズもキャリブレーションを改善することが示されている。
キャリブレーションと一般化をどの程度改善したか、どの条件下でどのように改善したかを決定するため、様々なノイズタイプについて検討する。
- 参考スコア(独自算出の注目度): 2.102846336724103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Noise injection and data augmentation strategies have been effective for
enhancing the generalisation and robustness of neural networks (NNs). Certain
types of noise such as label smoothing and MixUp have also been shown to
improve calibration. Since noise can be added in various stages of the NN's
training, it motivates the question of when and where the noise is the most
effective. We study a variety of noise types to determine how much they improve
calibration and generalisation, and under what conditions. More specifically we
evaluate various noise-injection strategies in both in-distribution (ID) and
out-of-distribution (OOD) scenarios. The findings highlight that activation
noise was the most transferable and effective in improving generalisation,
while input augmentation noise was prominent in improving calibration on OOD
but not necessarily ID data.
- Abstract(参考訳): ノイズ注入とデータ拡張戦略は,ニューラルネットワーク(NN)の一般化と堅牢性の向上に有効である。
ラベルの平滑化やMixUpのようなある種のノイズもキャリブレーションを改善することが示されている。
NNのトレーニングの様々な段階でノイズを追加することができるため、いつ、どこでノイズが最も効果的かという疑問を動機付けている。
キャリブレーションと一般化をどの程度改善したか、どの条件下でどのように改善したかを決定するため、様々なノイズタイプについて検討する。
より具体的には、分布内(ID)と分布外(OOD)の両方のシナリオにおいて、様々なノイズ注入戦略を評価する。
その結果, アクティベーションノイズが最も伝達性が高く, 一般化に有効であったのに対し, 入力増強ノイズはOODの校正を改善する上で顕著であったが, 必ずしもIDデータにはならないことがわかった。
関連論文リスト
- Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Assessing the Generalization Gap of Learning-Based Speech Enhancement
Systems in Noisy and Reverberant Environments [0.7366405857677227]
目に見えない条件への一般化は、通常、新しい音声、雑音または部屋のインパルス応答データベースでシステムをテストすることで評価される。
本研究では,テスト条件に基づいてトレーニングした参照モデルを用いた一般化評価フレームワークを提案する。
提案手法を用いて,フィードフォワードニューラルネットワーク(FFNN),ConvTasNet,DCCRN,MANNERの一般化ポテンシャルを評価する。
論文 参考訳(メタデータ) (2023-09-12T12:51:12Z) - Feature Noise Boosts DNN Generalization under Label Noise [65.36889005555669]
トレーニングデータにおけるラベルノイズの存在は、ディープニューラルネットワーク(DNN)の一般化に大きな影響を与える
本研究では,学習データの特徴に直接ノイズを付加する単純な特徴雑音法を,理論的に導入し,理論的に実証する。
論文 参考訳(メタデータ) (2023-08-03T08:31:31Z) - Exploring Efficient Asymmetric Blind-Spots for Self-Supervised Denoising in Real-World Scenarios [44.31657750561106]
実世界のシナリオにおけるノイズはしばしば空間的に相関しており、多くの自己教師型アルゴリズムは性能が良くない。
盲点サイズを自由に調整できる非対称可変ブラインド・スポットネットワーク(AT-BSN)を提案する。
提案手法は最先端技術を実現し,計算オーバーヘッドや視覚効果の観点から,他の自己教師付きアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-29T15:19:01Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Walking Noise: On Layer-Specific Robustness of Neural Architectures against Noisy Computations and Associated Characteristic Learning Dynamics [1.5184189132709105]
本稿では,異なる分類タスクとモデルアーキテクチャに対する加法的,乗法的,混合ノイズの影響について論じる。
本研究では,ロバスト性を測定するため,層固有のノイズを注入するウォーキングノイズ法を提案する。
我々は,この方法論の実践的利用に関する議論をまとめ,ノイズの多い環境での適応型マルチエグゼクティブの活用について論じる。
論文 参考訳(メタデータ) (2022-12-20T17:09:08Z) - Noise Injection Node Regularization for Robust Learning [0.0]
ノイズインジェクションノード規則化(NINR)は、トレーニング期間中に、構造化されたノイズをディープニューラルネットワーク(DNN)に注入する手法である。
本研究は、NINRの下で訓練されたフィードフォワードDNNに対する各種試験データ摂動に対するロバスト性を大幅に改善する理論的および実証的な証拠を示す。
論文 参考訳(メタデータ) (2022-10-27T20:51:15Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - On Dynamic Noise Influence in Differentially Private Learning [102.6791870228147]
Private Gradient Descent (PGD)は一般的に使用されるプライベート学習フレームワークであり、差分プロトコルに基づいてノイズを発生する。
最近の研究では、emphdynamic privacy schedulesは最終イテレーションで改善できるが、そのようなスケジュールの有効性の理論は限られている。
本稿では,これらの重要な質問に答えるために,動的プライバシスケジュールにおけるノイズの影響を総合的に分析する。
論文 参考訳(メタデータ) (2021-01-19T02:04:00Z) - Evolving Deep Convolutional Neural Networks for Hyperspectral Image
Denoising [6.869192200282213]
本稿では,HSIを効果的に識別する最適な畳み込みニューラルネットワーク(CNN)を自動構築する新しいアルゴリズムを提案する。
提案アルゴリズムの実験は、最先端の競合相手とよく設計され比較されている。
論文 参考訳(メタデータ) (2020-08-15T03:04:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。