論文の概要: Are Neurons Actually Collapsed? On the Fine-Grained Structure in Neural
Representations
- arxiv url: http://arxiv.org/abs/2306.17105v1
- Date: Thu, 29 Jun 2023 17:07:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 12:18:47.088609
- Title: Are Neurons Actually Collapsed? On the Fine-Grained Structure in Neural
Representations
- Title(参考訳): ニューロンは実際に崩壊したのか?
神経表現におけるきめ細かい構造について
- Authors: Yongyi Yang, Jacob Steinhardt, Wei Hu
- Abstract要約: 最近の研究は、よく訓練されたニューラルネットワークで興味深い'Neural Collapse'現象を観測している。
これは、最後の層表現がラベルによって完全に決定されていることを示唆している。
明らかな崩壊は、表現において重要なきめ細かな構造を隠蔽することを示す。
- 参考スコア(独自算出の注目度): 28.249932563821712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has observed an intriguing ''Neural Collapse'' phenomenon in
well-trained neural networks, where the last-layer representations of training
samples with the same label collapse into each other. This appears to suggest
that the last-layer representations are completely determined by the labels,
and do not depend on the intrinsic structure of input distribution. We provide
evidence that this is not a complete description, and that the apparent
collapse hides important fine-grained structure in the representations.
Specifically, even when representations apparently collapse, the small amount
of remaining variation can still faithfully and accurately captures the
intrinsic structure of input distribution. As an example, if we train on
CIFAR-10 using only 5 coarse-grained labels (by combining two classes into one
super-class) until convergence, we can reconstruct the original 10-class labels
from the learned representations via unsupervised clustering. The reconstructed
labels achieve $93\%$ accuracy on the CIFAR-10 test set, nearly matching the
normal CIFAR-10 accuracy for the same architecture. We also provide an initial
theoretical result showing the fine-grained representation structure in a
simplified synthetic setting. Our results show concretely how the structure of
input data can play a significant role in determining the fine-grained
structure of neural representations, going beyond what Neural Collapse
predicts.
- Abstract(参考訳): 近年の研究では、よく訓練されたニューラルネットワークにおいて、同じラベルを持つトレーニングサンプルの最後の層が互いに崩壊する「ニューラル崩壊」現象が注目されている。
これは、最後の層表現がラベルによって完全に決定され、入力分布の内在構造に依存しないことを示している。
これは完全な記述ではなく、明らかな崩壊は表現において重要なきめ細かい構造を隠蔽することを示す。
具体的には、表現が崩壊しているように見える場合でも、わずかな変動が入力分布の固有構造を忠実かつ正確に捉えることができる。
例えば、収束するまで5つの粗いラベル(2つのクラスを1つのスーパークラスに組み合わせて)を使ってCIFAR-10でトレーニングすると、教師なしクラスタリングによって学習された表現からオリジナルの10クラスのラベルを再構築できる。
再建されたラベルは CIFAR-10 テストセットで 93\% の精度を達成し、同じアーキテクチャの通常の CIFAR-10 の精度とほぼ一致する。
また,簡単な合成設定で細粒度表現構造を示す最初の理論的結果を示す。
以上の結果から, 入力データの構造が神経表現の微細な構造を決定する上で, どのように重要な役割を果たすかが明らかとなった。
関連論文リスト
- Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Inducing Neural Collapse in Deep Long-tailed Learning [13.242721780822848]
クラス不均衡データの高品質な表現を学習するための2つの明示的な特徴正規化項を提案する。
提案された正規化により、ニューラル崩壊現象はクラス不均衡分布の下に現れる。
本手法は, 実装が容易で, 有効であり, 既存のほとんどの方法に組み込むことができる。
論文 参考訳(メタデータ) (2023-02-24T05:07:05Z) - Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class
Incremental Learning [120.53458753007851]
FSCIL(Few-shot class-incremental Learning)は、新しいセッションにおいて、新しいクラスごとにいくつかのトレーニングサンプルしかアクセスできないため、難しい問題である。
我々は最近発見された神経崩壊現象にインスパイアされたFSCILのこの不整合ジレンマに対処する。
我々は、FSCILのための神経崩壊誘発フレームワークを提案する。MiniImageNet、CUB-200、CIFAR-100データセットの実験により、提案したフレームワークが最先端のパフォーマンスより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Understanding Imbalanced Semantic Segmentation Through Neural Collapse [81.89121711426951]
セマンティックセグメンテーションは自然に文脈的相関とクラス間の不均衡分布をもたらすことを示す。
機能中心にレギュレータを導入し、ネットワークが魅力ある構造に近い機能を学ぶことを奨励する。
我々の手法は、ScanNet200テストリーダーボードで1位にランクインし、新しい記録を樹立する。
論文 参考訳(メタデータ) (2023-01-03T13:51:51Z) - Neural Collapse in Deep Linear Networks: From Balanced to Imbalanced
Data [12.225207401994737]
大量のパラメータを持つ複雑な系は、収束するまでのトレーニングで同じ構造を持つことを示す。
特に、最終層の特徴がクラス平均に崩壊することが観察されている。
本結果は,最終層の特徴と分類器をベクトルからなる幾何学へ収束させることを示す。
論文 参考訳(メタデータ) (2023-01-01T16:29:56Z) - Isometric Representations in Neural Networks Improve Robustness [0.0]
我々は、クラス内メートル法構造を同時に維持しながら分類を行うためにニューラルネットワークを訓練する。
我々は、等尺正則化がMNISTに対する敵攻撃に対する堅牢性を改善することを検証する。
論文 参考訳(メタデータ) (2022-11-02T16:18:18Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。