論文の概要: The Curious Case of Benign Memorization
- arxiv url: http://arxiv.org/abs/2210.14019v1
- Date: Tue, 25 Oct 2022 13:41:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 15:23:59.421225
- Title: The Curious Case of Benign Memorization
- Title(参考訳): 良性記憶の奇妙なケースは
- Authors: Sotiris Anagnostidis, Gregor Bachmann, Lorenzo Noci, Thomas Hofmann
- Abstract要約: データ拡張を含むトレーニングプロトコルの下で、ニューラルネットワークは、完全にランダムなラベルを良心的に記憶することを学ぶ。
深層モデルでは,暗記作業と特徴学習を異なる層に分散することで,信号からノイズを分離する驚くべき能力があることを実証する。
- 参考スコア(独自算出の注目度): 19.74244993871716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the empirical advances of deep learning across a variety of learning
tasks, our theoretical understanding of its success is still very restricted.
One of the key challenges is the overparametrized nature of modern models,
enabling complete overfitting of the data even if the labels are randomized,
i.e. networks can completely memorize all given patterns. While such a
memorization capacity seems worrisome, in this work we show that under training
protocols that include data augmentation, neural networks learn to memorize
entirely random labels in a benign way, i.e. they learn embeddings that lead to
highly non-trivial performance under nearest neighbour probing. We demonstrate
that deep models have the surprising ability to separate noise from signal by
distributing the task of memorization and feature learning to different layers.
As a result, only the very last layers are used for memorization, while
preceding layers encode performant features which remain largely unaffected by
the label noise. We explore the intricate role of the augmentations used for
training and identify a memorization-generalization trade-off in terms of their
diversity, marking a clear distinction to all previous works. Finally, we give
a first explanation for the emergence of benign memorization by showing that
malign memorization under data augmentation is infeasible due to the
insufficient capacity of the model for the increased sample size. As a
consequence, the network is forced to leverage the correlated nature of the
augmentations and as a result learns meaningful features. To complete the
picture, a better theory of feature learning in deep neural networks is
required to fully understand the origins of this phenomenon.
- Abstract(参考訳): さまざまな学習課題にまたがるディープラーニングの実証的な進歩にもかかわらず、その成功に関する理論的理解は依然として非常に限られている。
重要な課題の1つは、現代のモデルの過度にパラメータ化された性質であり、ラベルがランダム化されたとしてもデータの完全なオーバーフィッティングを可能にする。
このような記憶能力は不安に思えるが、この研究では、データ拡張を含むトレーニングプロトコルの下で、ニューラルネットワークは、完全にランダムなラベルを良質な方法で記憶することを学ぶ。
深層モデルでは,暗記作業と特徴学習を異なる層に分散することで,信号からノイズを分離する驚くべき能力を持つことを示す。
その結果、前層はラベルノイズの影響を受けない性能特性を符号化する一方、最後の層のみが記憶に使用される。
我々は,訓練に使用される補足の複雑な役割を探求し,その多様性の観点から記憶一般化トレードオフを同定し,これまでのすべての作品と明確に区別する。
最後に,データ拡張時の記憶の異常は,試料サイズの増加に対するモデルの不十分な容量のため実現不可能であることを示すことにより,良性記憶の出現を初めて説明する。
その結果、ネットワークは拡張の相関性を活用し、結果として意味のある特徴を学習せざるを得なくなる。
画像を完成させるためには、この現象の起源を完全に理解するために、ディープニューラルネットワークにおける特徴学習のより良い理論が必要である。
関連論文リスト
- Uncovering Latent Memories: Assessing Data Leakage and Memorization Patterns in Frontier AI Models [7.50189359952191]
本研究は,初対面後に記憶されないシーケンスをトレーニング中に「発見」できることを示す。
潜在記憶の存在は、記憶されたシーケンスがモデルの最終的なチェックポイントに隠される可能性があるため、データのプライバシの課題となる。
我々は,クロスエントロピー損失を利用した診断試験を開発し,高い精度で潜時記憶配列を明らかにする。
論文 参考訳(メタデータ) (2024-06-20T17:56:17Z) - Exploring Memorization in Fine-tuned Language Models [53.52403444655213]
我々は,タスク間の微調整中に,言語モデルの暗記を探索する最初の包括的分析を行う。
オープンソースと、さまざまなタスクにまたがる独自の微調整LMによる研究は、暗記が様々な微調整タスクの間に強い相違を示すことを示している。
本稿では,この課題の相違をスパース符号化理論を用いて直感的に説明し,暗記と注目スコア分布との強い相関関係を明らかにする。
論文 参考訳(メタデータ) (2023-10-10T15:41:26Z) - MILD: Modeling the Instance Learning Dynamics for Learning with Noisy
Labels [19.650299232829546]
クリーンなデータを特定するために,Weibull混合モデルに基づく反復的選択手法を提案する。
特に、誤分類と暗記の間の遷移時間を通じて、各インスタンスの暗記の難しさを測定し、暗記する。
我々の戦略は既存の雑音ラベル学習方法より優れている。
論文 参考訳(メタデータ) (2023-06-20T14:26:53Z) - Measures of Information Reflect Memorization Patterns [53.71420125627608]
異なるニューロンの活性化パターンの多様性は、モデル一般化と記憶の反映であることを示す。
重要なことは、情報組織が記憶の2つの形態を指していることである。
論文 参考訳(メタデータ) (2022-10-17T20:15:24Z) - Continual Learning by Modeling Intra-Class Variation [33.30614232534283]
データやタスクがシーケンシャルに提示された場合、ニューラルネットワークはパフォーマンスが悪くなっていることが観察されている。
人間とは異なり、ニューラルネットワークは破滅的な忘れ込みに悩まされており、生涯学習することは不可能である。
本稿では,記憶に基づく連続学習について検討し,大惨な忘れ込みを避けるためには,表現空間の大規模な変動が不可欠であることを確認した。
論文 参考訳(メタデータ) (2022-10-11T12:17:43Z) - Exploring Memorization in Adversarial Training [58.38336773082818]
本稿では, 能力, 収束, 一般化, 特に強靭なオーバーフィッティングの深い理解を促進するための, 対人訓練(AT)における記憶効果について検討する。
本稿では,詳細な記憶分析を動機とした新たな緩和アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:39:57Z) - Toward Understanding the Feature Learning Process of Self-supervised
Contrastive Learning [43.504548777955854]
本研究では,その特徴学習過程を解析することにより,ニューラルネットワークの特徴表現のコントラスト学習について検討する。
textbfReLUネットワークを用いたコントラスト学習は、適切な拡張が採用されれば、所望のスパース特徴を確実に学習できることを実証する。
論文 参考訳(メタデータ) (2021-05-31T16:42:09Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Encoding-based Memory Modules for Recurrent Neural Networks [79.42778415729475]
本稿では,リカレントニューラルネットワークの設計とトレーニングの観点から,記憶サブタスクについて考察する。
本稿では,線形オートエンコーダを組み込んだエンコーディングベースのメモリコンポーネントを特徴とする新しいモデルであるLinear Memory Networkを提案する。
論文 参考訳(メタデータ) (2020-01-31T11:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。