論文の概要: Interaction Networks: Using a Reinforcement Learner to train other
Machine Learning algorithms
- arxiv url: http://arxiv.org/abs/2006.08457v1
- Date: Mon, 15 Jun 2020 15:03:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 02:38:37.136895
- Title: Interaction Networks: Using a Reinforcement Learner to train other
Machine Learning algorithms
- Title(参考訳): インタラクションネットワーク:Reinforcement Learnerを使って他の機械学習アルゴリズムをトレーニングする
- Authors: Florian Dietz
- Abstract要約: 脳内のニューロンの配線は、現代の人工ニューラルネットワークにおける接続の配線よりも柔軟である。
インタラクションネットワークは、従来のニューラルネットワークのコレクション、メモリ位置のセット、強化学習者で構成される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The wiring of neurons in the brain is more flexible than the wiring of
connections in contemporary artificial neural networks. It is possible that
this extra flexibility is important for efficient problem solving and learning.
This paper introduces the Interaction Network. Interaction Networks aim to
capture some of this extra flexibility.
An Interaction Network consists of a collection of conventional neural
networks, a set of memory locations, and a DQN or other reinforcement learner.
The DQN decides when each of the neural networks is executed, and on what
memory locations. In this way, the individual neural networks can be trained on
different data, for different tasks. At the same time, the results of the
individual networks influence the decision process of the reinforcement
learner. This results in a feedback loop that allows the DQN to perform actions
that improve its own decision-making.
Any existing type of neural network can be reproduced in an Interaction
Network in its entirety, with only a constant computational overhead.
Interaction Networks can then introduce additional features to improve
performance further. These make the algorithm more flexible and general, but at
the expense of being harder to train.
In this paper, thought experiments are used to explore how the additional
abilities of Interaction Networks could be used to improve various existing
types of neural networks.
Several experiments have been run to prove that the concept is sound. These
show that the basic idea works, but they also reveal a number of challenges
that do not appear in conventional neural networks, which make Interaction
Networks very hard to train.
Further research needs to be done to alleviate these issues. A number of
promising avenues of research to achieve this are outlined in this paper.
- Abstract(参考訳): 脳内のニューロンの配線は、現代の人工ニューラルネットワークにおける接続の配線よりも柔軟である。
この余分な柔軟性は、効率的な問題解決と学習に重要である可能性がある。
本稿ではインタラクションネットワークを紹介する。
インタラクションネットワークは、この余分な柔軟性を捉えることを目指している。
インタラクションネットワークは、従来のニューラルネットワークの集合、メモリ位置のセット、およびdqnまたは他の強化学習者からなる。
dqnは、各ニューラルネットワークの実行時期とメモリ位置を決定する。
このように、個々のニューラルネットワークは、異なるタスクのために、異なるデータでトレーニングすることができる。
同時に、個々のネットワークの結果が強化学習者の意思決定プロセスに影響を及ぼす。
これにより、DQNは自身の意思決定を改善するアクションを実行することができる。
既存のタイプのニューラルネットワークは、計算オーバーヘッドを一定に抑えながら、インタラクションネットワーク全体の中で再生することができる。
インタラクションネットワークは、パフォーマンスをさらに向上するための追加機能を導入することができる。
これらはアルゴリズムをより柔軟で汎用的なものにしますが、訓練が難しくなります。
本稿では,既存のニューラルネットワークを改良するために,インタラクションネットワークの付加能力をどのように活用できるかを検討するために,思考実験を用いる。
概念が健全であることを証明するために、いくつかの実験が行われた。
これらは基本的なアイデアが機能することを示しているが、従来のニューラルネットワークには現れない多くの課題も明らかにしているため、インタラクションネットワークのトレーニングが非常に困難である。
これらの問題を解決するためには、さらなる研究が必要である。
これを実現するためのいくつかの有望な研究成果を本稿で概説する。
関連論文リスト
- Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Expressivity of Spiking Neural Networks [15.181458163440634]
本研究では,ニューロンの発射時間内に情報を符号化したスパイクニューラルネットワークの能力について検討する。
ReLUネットワークとは対照的に、スパイクニューラルネットワークは連続関数と不連続関数の両方を実現することができる。
論文 参考訳(メタデータ) (2023-08-16T08:45:53Z) - A Sparse Quantized Hopfield Network for Online-Continual Memory [0.0]
神経系は、ノイズの多いデータポイントのストリームが非独立で同一に分散された(非i.d.)方法で提示されるオンライン学習を行う。
一方、ディープネットワークは、通常非ローカルな学習アルゴリズムを使用し、オフライン、非ノイズ、すなわち設定で訓練される。
我々は、スパース量子ホップフィールドネットワーク(SQHN)と呼ばれる新しいニューラルネットワークにこの種のモデルを実装する。
論文 参考訳(メタデータ) (2023-07-27T17:46:17Z) - Spike-based computation using classical recurrent neural networks [1.9171404264679484]
スパイキングニューラルネットワーク(英: Spiking Neural Network)は、ニューロン間の通信が、スパイクと呼ばれるイベントのみによって構成される人工ニューラルネットワークである。
我々は、よく知られた、訓練が容易なリカレントニューラルネットワークのダイナミクスを変更して、イベントベースにする。
この新ネットワークは,MNISTベンチマークにおいて,他の種類のスパイクネットワークに匹敵する性能が得られることを示す。
論文 参考訳(メタデータ) (2023-06-06T12:19:12Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Deep Reinforcement Learning Guided Graph Neural Networks for Brain
Network Analysis [61.53545734991802]
本稿では,各脳ネットワークに最適なGNNアーキテクチャを探索する新しい脳ネットワーク表現フレームワークBN-GNNを提案する。
提案するBN-GNNは,脳ネットワーク解析タスクにおける従来のGNNの性能を向上させる。
論文 参考訳(メタデータ) (2022-03-18T07:05:27Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Locality Guided Neural Networks for Explainable Artificial Intelligence [12.435539489388708]
LGNN(Locality Guided Neural Network)と呼ばれる,バック伝搬のための新しいアルゴリズムを提案する。
LGNNはディープネットワークの各層内の隣接ニューロン間の局所性を保っている。
実験では,CIFAR100 上の画像分類のための様々な VGG と Wide ResNet (WRN) ネットワークを訓練した。
論文 参考訳(メタデータ) (2020-07-12T23:45:51Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Neural Rule Ensembles: Encoding Sparse Feature Interactions into Neural
Networks [3.7277730514654555]
決定木を用いて、関連する特徴とその相互作用をキャプチャし、抽出した関係をニューラルネットワークにエンコードするマッピングを定義する。
同時に、機能選択により、アートツリーベースのアプローチの状況と比較して、コンパクトな表現の学習が可能になる。
論文 参考訳(メタデータ) (2020-02-11T11:22:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。