論文の概要: Dynamically handling task disruptions by composing together behavior
modules
- arxiv url: http://arxiv.org/abs/2207.06482v1
- Date: Sun, 5 Jun 2022 17:27:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 12:19:55.942148
- Title: Dynamically handling task disruptions by composing together behavior
modules
- Title(参考訳): ビヘイビアモジュールの構成によるタスク中断の動的処理
- Authors: Thomas E. Portegys
- Abstract要約: 生物学的ニューラルネットワークは、目的に向かって生物を誘導するタスクディスラプションの存在下で機能する。
このプロジェクトでは、個別に学習したパスモジュールによって、ベースパスのオーバーソーシングが破壊される。
その後、ネットワークのパフォーマンスをこれらのパスでテストし、それを断片的に学習する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Biological neural networks operate in the presence of task disruptions as
they guide organisms toward goals. A familiar stream of stimulus-response
causations can be disrupted by subtask streams imposed by the environment. For
example, taking a familiar path to a foraging area might be disrupted by the
presence of a predator, necessitating a "detour" to the area. The detour can be
a known alternative path that must be dynamically composed with the original
path to accomplish the overall task. In this project, overarching base paths
are disrupted by independently learned path modules in the form of insertion,
substitution, and deletion modifications to the base paths such that the
resulting modified paths are novel to the network. The network's performance is
then tested on these paths that have been learned in piecemeal fashion. In sum,
the network must compose a new task on the fly. Several network architectures
are tested: Time delay neural network (TDNN), Long short-term memory (LSTM),
Temporal convolutional network (TCN), and Morphognosis, a hierarchical neural
network. LSTM and Morphognosis perform significantly better for this task.
- Abstract(参考訳): 生物学的ニューラルネットワークは、目的に向かって生物を誘導するタスクディスラプションの存在下で機能する。
刺激応答因果関係の慣れ親しんだ流れは、環境によって課されるサブタスクストリームによって破壊される。
例えば、餌食地域への親しみやすい道は捕食者の存在によって妨げられ、その地域への「行き詰まり」が必要となる。
detourは、タスク全体を達成するために、元のパスと動的に組み合わせなければならない既知の代替パスである。
このプロジェクトでは、ベースパスの挿入、置換、削除という形で独立に学習されたパスモジュールによって、全体的なベースパスが破壊され、結果として生じる修正パスはネットワークにとって新しいものとなる。
ネットワークのパフォーマンスは、断片的に学習されたこれらのパス上でテストされる。
まとめると、ネットワークはオンザフライで新しいタスクを構成する必要がある。
TDNN(Time delay Neural Network)、LSTM(Long Short-term memory)、TCN(Temporal Convolutional Network)、階層型ニューラルネットワーク(Morphognosis)など、いくつかのネットワークアーキテクチャがテストされている。
LSTMとMorphognosisは,この課題に対して有意に改善した。
関連論文リスト
- Flexible task abstractions emerge in linear networks with fast and bounded units [47.11054206483159]
重みとゲートが勾配降下によって協調的に最適化される線形ゲートネットワークを解析する。
その結果,タスクの抽象化はタスクとサブタスクの合成による一般化を支援することがわかった。
我々の研究は、シナプス的および神経的ゲーティングにおける関節勾配降下から生じる動物の認知的柔軟性の理論を提供する。
論文 参考訳(メタデータ) (2024-11-06T11:24:02Z) - Maelstrom Networks [19.33916380545711]
我々は、リカレントネットワークの強度とフィードフォワードニューラルネットワークのパターンマッチング機能を組み合わせた代替パラダイムを提供する。
これにより、ネットワークをアンロールすることなくフィードフォワードトレーニングの強みを活用することができる。
それは、データが時間領域内で因果的に整理される誘導バイアスを利用するシーケンシャルメモリを備えたニューラルネットワークを提供する。
論文 参考訳(メタデータ) (2024-08-29T15:39:04Z) - Pathfinding Neural Cellular Automata [23.831530224401575]
Pathfindingは、ロボットパス計画、トランスポートルーティング、ゲームプレイなど、幅広い複雑なAIタスクの重要なサブコンポーネントである。
我々は, Breadth-First Search (BFS) のモデル,すなわち最短経路探索のハンドコードと学習を行う。
本稿では、Depth-First Search(DFS)のニューラル実装を提案し、グラフの直径を計算するためのNAAを生成するために、ニューラルネットワークBFSと組み合わせる方法について概説する。
我々は,これらの手書きNCAに触発されたアーキテクチャ変更を実験し,グリッド迷路の直径問題を解くためにゼロからネットワークをトレーニングし,高い能力の一般化を示した。
論文 参考訳(メタデータ) (2023-01-17T11:45:51Z) - Interference Cancellation GAN Framework for Dynamic Channels [74.22393885274728]
チャネルのあらゆる変更に適応できるオンライントレーニングフレームワークを導入します。
我々のフレームワークは、非常にダイナミックなチャネル上での最近のニューラルネットワークモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-08-17T02:01:18Z) - Simulating Network Paths with Recurrent Buffering Units [4.7590500506853415]
我々は,送信者が提供する時間変化負荷に応じて,エンドツーエンドのパケット遅延値を生成するモデルを求める。
本稿では,リカレントバッファリングユニット(Recurrent Buffering Unit)と呼ばれる新しいRNNスタイルのアーキテクチャに物理ネットワークパスの意味を埋め込む,ネットワークシミュレーションのための新しいグレーボックスアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-23T16:46:31Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Beneficial Perturbation Network for designing general adaptive
artificial intelligence systems [14.226973149346886]
我々は、動的状況に対応するために、ネットワーク外、タスク依存バイアスユニットを付加した新しいタイプのディープニューラルネットワークを提案する。
我々のアプローチはメモリ効率が高く、パラメータ効率が高く、多くのタスクに対応でき、様々なタスクやドメインで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-09-27T01:28:10Z) - Routing Networks with Co-training for Continual Learning [5.957609459173546]
連続学習のためのスパースルーティングネットワークを提案する。
各入力に対して、これらのネットワークアーキテクチャは専門家のネットワークを介して異なる経路を活性化する。
実際に,協調学習と呼ぶルーティングネットワークのための新しいトレーニング手法を開発する必要がある。
論文 参考訳(メタデータ) (2020-09-09T15:58:51Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Side-Tuning: A Baseline for Network Adaptation via Additive Side
Networks [95.51368472949308]
適応は、トレーニングデータが少ない場合や、ネットワークのプリエンプションをエンコードしたい場合などに有効である。
本稿では,サイドチューニングという簡単な方法を提案する。
論文 参考訳(メタデータ) (2019-12-31T18:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。