論文の概要: Dynamically handling task disruptions by composing together behavior
modules
- arxiv url: http://arxiv.org/abs/2207.06482v1
- Date: Sun, 5 Jun 2022 17:27:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 12:19:55.942148
- Title: Dynamically handling task disruptions by composing together behavior
modules
- Title(参考訳): ビヘイビアモジュールの構成によるタスク中断の動的処理
- Authors: Thomas E. Portegys
- Abstract要約: 生物学的ニューラルネットワークは、目的に向かって生物を誘導するタスクディスラプションの存在下で機能する。
このプロジェクトでは、個別に学習したパスモジュールによって、ベースパスのオーバーソーシングが破壊される。
その後、ネットワークのパフォーマンスをこれらのパスでテストし、それを断片的に学習する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Biological neural networks operate in the presence of task disruptions as
they guide organisms toward goals. A familiar stream of stimulus-response
causations can be disrupted by subtask streams imposed by the environment. For
example, taking a familiar path to a foraging area might be disrupted by the
presence of a predator, necessitating a "detour" to the area. The detour can be
a known alternative path that must be dynamically composed with the original
path to accomplish the overall task. In this project, overarching base paths
are disrupted by independently learned path modules in the form of insertion,
substitution, and deletion modifications to the base paths such that the
resulting modified paths are novel to the network. The network's performance is
then tested on these paths that have been learned in piecemeal fashion. In sum,
the network must compose a new task on the fly. Several network architectures
are tested: Time delay neural network (TDNN), Long short-term memory (LSTM),
Temporal convolutional network (TCN), and Morphognosis, a hierarchical neural
network. LSTM and Morphognosis perform significantly better for this task.
- Abstract(参考訳): 生物学的ニューラルネットワークは、目的に向かって生物を誘導するタスクディスラプションの存在下で機能する。
刺激応答因果関係の慣れ親しんだ流れは、環境によって課されるサブタスクストリームによって破壊される。
例えば、餌食地域への親しみやすい道は捕食者の存在によって妨げられ、その地域への「行き詰まり」が必要となる。
detourは、タスク全体を達成するために、元のパスと動的に組み合わせなければならない既知の代替パスである。
このプロジェクトでは、ベースパスの挿入、置換、削除という形で独立に学習されたパスモジュールによって、全体的なベースパスが破壊され、結果として生じる修正パスはネットワークにとって新しいものとなる。
ネットワークのパフォーマンスは、断片的に学習されたこれらのパス上でテストされる。
まとめると、ネットワークはオンザフライで新しいタスクを構成する必要がある。
TDNN(Time delay Neural Network)、LSTM(Long Short-term memory)、TCN(Temporal Convolutional Network)、階層型ニューラルネットワーク(Morphognosis)など、いくつかのネットワークアーキテクチャがテストされている。
LSTMとMorphognosisは,この課題に対して有意に改善した。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Pathfinding Neural Cellular Automata [23.831530224401575]
Pathfindingは、ロボットパス計画、トランスポートルーティング、ゲームプレイなど、幅広い複雑なAIタスクの重要なサブコンポーネントである。
我々は, Breadth-First Search (BFS) のモデル,すなわち最短経路探索のハンドコードと学習を行う。
本稿では、Depth-First Search(DFS)のニューラル実装を提案し、グラフの直径を計算するためのNAAを生成するために、ニューラルネットワークBFSと組み合わせる方法について概説する。
我々は,これらの手書きNCAに触発されたアーキテクチャ変更を実験し,グリッド迷路の直径問題を解くためにゼロからネットワークをトレーニングし,高い能力の一般化を示した。
論文 参考訳(メタデータ) (2023-01-17T11:45:51Z) - Interference Cancellation GAN Framework for Dynamic Channels [74.22393885274728]
チャネルのあらゆる変更に適応できるオンライントレーニングフレームワークを導入します。
我々のフレームワークは、非常にダイナミックなチャネル上での最近のニューラルネットワークモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-08-17T02:01:18Z) - Simulating Network Paths with Recurrent Buffering Units [4.7590500506853415]
我々は,送信者が提供する時間変化負荷に応じて,エンドツーエンドのパケット遅延値を生成するモデルを求める。
本稿では,リカレントバッファリングユニット(Recurrent Buffering Unit)と呼ばれる新しいRNNスタイルのアーキテクチャに物理ネットワークパスの意味を埋め込む,ネットワークシミュレーションのための新しいグレーボックスアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-23T16:46:31Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Beneficial Perturbation Network for designing general adaptive
artificial intelligence systems [14.226973149346886]
我々は、動的状況に対応するために、ネットワーク外、タスク依存バイアスユニットを付加した新しいタイプのディープニューラルネットワークを提案する。
我々のアプローチはメモリ効率が高く、パラメータ効率が高く、多くのタスクに対応でき、様々なタスクやドメインで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-09-27T01:28:10Z) - Routing Networks with Co-training for Continual Learning [5.957609459173546]
連続学習のためのスパースルーティングネットワークを提案する。
各入力に対して、これらのネットワークアーキテクチャは専門家のネットワークを介して異なる経路を活性化する。
実際に,協調学習と呼ぶルーティングネットワークのための新しいトレーニング手法を開発する必要がある。
論文 参考訳(メタデータ) (2020-09-09T15:58:51Z) - Online Spatio-Temporal Learning in Deep Neural Networks [1.6624384368855523]
オンライン学習は、最近研究コミュニティの注目を集め、BPTTを近似するアプローチや、SNNに適用する生物学的に有望なスキームに焦点をあてている。
ここでは、空間的および時間的勾配成分の明確な分離に基づく別の視点を示す。
私たちは、オンラインスパイキング時間学習(OSTL)という、深層SNNのための新しいオンライン学習アルゴリズムの第一原理から派生した。
浅いネットワークの場合、OSTLはBPTTと同等の勾配であり、BPTT同値勾配を持つSNNのオンライントレーニングを初めて行うことができる。さらに、提案された定式化はSNNアーキテクチャのクラスを公開する。
論文 参考訳(メタデータ) (2020-07-24T18:10:18Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Side-Tuning: A Baseline for Network Adaptation via Additive Side
Networks [95.51368472949308]
適応は、トレーニングデータが少ない場合や、ネットワークのプリエンプションをエンコードしたい場合などに有効である。
本稿では,サイドチューニングという簡単な方法を提案する。
論文 参考訳(メタデータ) (2019-12-31T18:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。