論文の概要: Stacked unsupervised learning with a network architecture found by
supervised meta-learning
- arxiv url: http://arxiv.org/abs/2206.02716v1
- Date: Mon, 6 Jun 2022 16:17:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 14:45:48.686049
- Title: Stacked unsupervised learning with a network architecture found by
supervised meta-learning
- Title(参考訳): 教師付きメタラーニングによるネットワークアーキテクチャによる教師なし学習の積み重ね
- Authors: Kyle Luther and H. Sebastian Seung
- Abstract要約: 階層化された教師なし学習は、バックプロパゲーションよりも生物学的に妥当に思える。
しかし、SULは実践的な応用においてバックプロパゲーションには程遠い。
MNIST桁の完全教師なしクラスタリングが可能なSULアルゴリズムを示す。
- 参考スコア(独自算出の注目度): 4.209801809583906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stacked unsupervised learning (SUL) seems more biologically plausible than
backpropagation, because learning is local to each layer. But SUL has fallen
far short of backpropagation in practical applications, undermining the idea
that SUL can explain how brains learn. Here we show an SUL algorithm that can
perform completely unsupervised clustering of MNIST digits with comparable
accuracy relative to unsupervised algorithms based on backpropagation. Our
algorithm is exceeded only by self-supervised methods requiring training data
augmentation by geometric distortions. The only prior knowledge in our
unsupervised algorithm is implicit in the network architecture. Multiple
convolutional "energy layers" contain a sum-of-squares nonlinearity, inspired
by "energy models" of primary visual cortex. Convolutional kernels are learned
with a fast minibatch implementation of the K-Subspaces algorithm. High
accuracy requires preprocessing with an initial whitening layer,
representations that are less sparse during inference than learning, and
rescaling for gain control. The hyperparameters of the network architecture are
found by supervised meta-learning, which optimizes unsupervised clustering
accuracy. We regard such dependence of unsupervised learning on prior knowledge
implicit in network architecture as biologically plausible, and analogous to
the dependence of brain architecture on evolutionary history.
- Abstract(参考訳): 積み重ねた教師なし学習(SUL)は、学習が各層に局所的であるため、バックプロパゲーションよりも生物学的に妥当であるように見える。
しかし、SULは実践的な応用には程遠いため、SULが脳がどのように学習するかを説明できるという考えを弱めている。
本稿では,バックプロパゲーションに基づく教師なしアルゴリズムと同等の精度でmnist桁の教師なしクラスタリングを行うsulアルゴリズムを示す。
本アルゴリズムは,幾何学的歪みによる学習データ拡張を必要とする自己教師あり手法によってのみ超過される。
教師なしアルゴリズムにおける唯一の事前知識は、ネットワークアーキテクチャにおいて暗黙である。
複数の畳み込みの「エネルギー層」は、一次視覚野の「エネルギーモデル」にインスパイアされた2乗の非線形性を含む。
畳み込みカーネルはk-部分空間アルゴリズムの高速実装によって学習される。
高い精度では、初期ホワイトニング層による前処理、学習よりも推論時にスパースが少ない表現、ゲインコントロールのための再スケーリングが必要である。
ネットワークアーキテクチャのハイパーパラメータは教師なしのクラスタリング精度を最適化する教師なしメタラーニングによって見出される。
ネットワークアーキテクチャにおいて暗黙の事前知識に対する教師なし学習の依存は生物学的に妥当であり、進化史における脳アーキテクチャの依存と類似していると考える。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Information Flow in Deep Neural Networks [0.6922389632860545]
ディープニューラルネットワークの動作や構造に関する包括的な理論的理解は存在しない。
深層ネットワークはしばしば、不明確な解釈と信頼性を持つブラックボックスと見なされる。
この研究は、情報理論の原理と技法をディープラーニングモデルに適用し、理論的理解を高め、より良いアルゴリズムを設計することを目的としている。
論文 参考訳(メタデータ) (2022-02-10T23:32:26Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Auto-tuning of Deep Neural Networks by Conflicting Layer Removal [0.0]
トレーニングモデルのテスト精度を低下させる層を識別する新しい手法を提案する。
矛盾する層は、トレーニングの開始時に早期に検出される。
訓練された残存ネットワークのレイヤの約60%が、アーキテクチャから完全に取り除かれることを示しています。
論文 参考訳(メタデータ) (2021-03-07T11:51:55Z) - Incremental Learning via Rate Reduction [26.323357617265163]
現在のディープラーニングアーキテクチャは、破滅的な忘れ込みに悩まされており、新しいクラスで漸進的にトレーニングされた時に、以前に学習したクラスの知識を保持することができません。
本稿では,ネットワークの各層をバック伝搬なしで明示的に計算する,レート低減の原理から導かれる代替の「ホワイトボックス」アーキテクチャを提案する。
このパラダイムの下では、事前訓練されたネットワークと新しいデータクラスが与えられた場合、我々のアプローチは、すべての過去のクラスと新しいクラスとの共同トレーニングをエミュレートする新しいネットワークを構築することができることを示す。
論文 参考訳(メタデータ) (2020-11-30T07:23:55Z) - MAP Propagation Algorithm: Faster Learning with a Team of Reinforcement
Learning Agents [0.0]
ニューラルネットワークをトレーニングする別の方法は、ネットワークの各ユニットを強化学習エージェントとして扱うことである。
本稿では,この分散を著しく低減するMAP伝搬という新しいアルゴリズムを提案する。
当社の作業は、深層強化学習におけるエージェントチームの広範な適用を可能にします。
論文 参考訳(メタデータ) (2020-10-15T17:17:39Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - LoCo: Local Contrastive Representation Learning [93.98029899866866]
重なり合うローカルブロックが重なり合うことで、デコーダの深さを効果的に増加させ、上位ブロックが暗黙的に下位ブロックにフィードバックを送ることができることを示す。
このシンプルな設計は、ローカル学習とエンドツーエンドのコントラスト学習アルゴリズムのパフォーマンスギャップを初めて埋める。
論文 参考訳(メタデータ) (2020-08-04T05:41:29Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。