論文の概要: Teaching Recurrent Neural Networks to Modify Chaotic Memories by Example
- arxiv url: http://arxiv.org/abs/2005.01186v1
- Date: Sun, 3 May 2020 20:51:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 06:41:20.391715
- Title: Teaching Recurrent Neural Networks to Modify Chaotic Memories by Example
- Title(参考訳): リカレントニューラルネットワークによるカオス記憶の具体例
- Authors: Jason Z. Kim, Zhixin Lu, Erfan Nozari, George J. Pappas, Danielle S.
Bassett
- Abstract要約: 繰り返しニューラルネットワークは,実例のみを用いて複雑な情報の表現を変更できることが示される。
我々は,これらの計算を学習するためのメカニズムを提供し,一つのネットワークが同時に複数の計算を学習できることを実証する。
- 参考スコア(独自算出の注目度): 14.91507266777207
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The ability to store and manipulate information is a hallmark of
computational systems. Whereas computers are carefully engineered to represent
and perform mathematical operations on structured data, neurobiological systems
perform analogous functions despite flexible organization and unstructured
sensory input. Recent efforts have made progress in modeling the representation
and recall of information in neural systems. However, precisely how neural
systems learn to modify these representations remains far from understood. Here
we demonstrate that a recurrent neural network (RNN) can learn to modify its
representation of complex information using only examples, and we explain the
associated learning mechanism with new theory. Specifically, we drive an RNN
with examples of translated, linearly transformed, or pre-bifurcated time
series from a chaotic Lorenz system, alongside an additional control signal
that changes value for each example. By training the network to replicate the
Lorenz inputs, it learns to autonomously evolve about a Lorenz-shaped manifold.
Additionally, it learns to continuously interpolate and extrapolate the
translation, transformation, and bifurcation of this representation far beyond
the training data by changing the control signal. Finally, we provide a
mechanism for how these computations are learned, and demonstrate that a single
network can simultaneously learn multiple computations. Together, our results
provide a simple but powerful mechanism by which an RNN can learn to manipulate
internal representations of complex information, allowing for the principled
study and precise design of RNNs.
- Abstract(参考訳): 情報を保存し、操作する能力は、計算システムの目印である。
コンピュータは構造化データ上で数学的操作を表現・実行するために慎重に設計されているのに対し、神経生物学システムは柔軟性のある組織と非構造化感覚入力にもかかわらず類似の機能を果たす。
近年,神経系における情報表現とリコールのモデル化が進められている。
しかし、ニューラルネットワークがこれらの表現をどう修正するかは、まだ理解されていない。
ここでは、リカレントニューラルネットワーク(RNN)が、実例のみを用いて複雑な情報の表現を変更することを学習できることを示し、関連する学習メカニズムを新しい理論で説明する。
具体的には、カオスロレンツシステムから翻訳された、線形変換された、あるいは分岐前の時系列の例をRNNで駆動し、各例の値を変更する制御信号を追加する。
lorenz入力を再現するためにネットワークをトレーニングすることで、lorenz形式の多様体について自律的に進化することを学ぶ。
さらに、制御信号を変更してトレーニングデータを超えて、この表現の翻訳、変換、分岐を継続的に補間し、外挿することを学ぶ。
最後に、これらの計算を学習するメカニズムを提供し、単一のネットワークが同時に複数の計算を学習できることを実証する。
その結果,RNNが複雑な情報の内部表現を操作できることを学習し,RNNの原理と正確な設計を可能にする,シンプルかつ強力なメカニズムが得られた。
関連論文リスト
- Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - Spiking representation learning for associative memories [0.0]
本稿では、教師なし表現学習と連想記憶操作を行う新しい人工スパイクニューラルネットワーク(SNN)を提案する。
モデルの構造は新皮質列状構造から派生し,隠れた表現を学習するためのフィードフォワードプロジェクションと,連想記憶を形成するための繰り返しプロジェクションを組み合わせたものである。
論文 参考訳(メタデータ) (2024-06-05T08:30:11Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Optimal Approximation with Sparse Neural Networks and Applications [0.0]
深い疎結合ニューラルネットワークを用いて、関数クラスの複雑性を$L(mathbb Rd)$で測定する。
また、ニューラルネットワークを誘導する関数の可算コレクションである表現システムについても紹介する。
次に、レート歪曲理論とウェッジレット構成を用いて、$beta$マンガ的関数と呼ばれるクラスの複雑性を分析する。
論文 参考訳(メタデータ) (2021-08-14T05:14:13Z) - Malicious Network Traffic Detection via Deep Learning: An Information
Theoretic View [0.0]
本研究では,ホメオモルフィズムがマルウェアのトラフィックデータセットの学習表現に与える影響について検討する。
この結果から,学習された表現の詳細と,すべてのパラメータの多様体上で定義された特定の座標系は,関数近似とは全く異なることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T15:37:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。