論文の概要: From implicit learning to explicit representations
- arxiv url: http://arxiv.org/abs/2204.02484v1
- Date: Tue, 5 Apr 2022 20:35:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-18 05:18:04.691276
- Title: From implicit learning to explicit representations
- Title(参考訳): 暗黙の学習から明示的な表現へ
- Authors: Naomi Chaix-Eichel and Snigdha Dagar and Quentin Lanneau and Karen
Sobriel and Thomas Boraud and Fr\'ed\'eric Alexandre and Nicolas P. Rougier
- Abstract要約: 我々は、単純なモデルが明示的なワーキングメモリを使わずに、変更処理をいかに解決できるかを実証する。
モデルの内部アクティビティの分析により、メモリが実際にネットワークのダイナミックス内でエンコードされていることが明らかになった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using the reservoir computing framework, we demonstrate how a simple model
can solve an alternation task without an explicit working memory. To do so, a
simple bot equipped with sensors navigates inside a 8-shaped maze and turns
alternatively right and left at the same intersection in the maze. The analysis
of the model's internal activity reveals that the memory is actually encoded
inside the dynamics of the network. However, such dynamic working memory is not
accessible such as to bias the behavior into one of the two attractors (left
and right). To do so, external cues are fed to the bot such that it can follow
arbitrary sequences, instructed by the cue. This model highlights the idea that
procedural learning and its internal representation can be dissociated. If the
former allows to produce behavior, it is not sufficient to allow for an
explicit and fine-grained manipulation.
- Abstract(参考訳): 本稿では,リザーバコンピューティングフレームワークを用いて,単純なモデルが作業メモリを明示せずに交代タスクを解決できることを示す。
そのために、センサーを内蔵したシンプルなボットが8字型の迷路の中をナビゲートし、迷路の同じ交差点で左右に曲がる。
モデルの内部アクティビティの分析は、メモリが実際にはネットワークのダイナミクス内でエンコードされていることを示している。
しかし、そのような動的なワーキングメモリは、動作を2つのアトラクタ(左と右)の1つにバイアスするなど、アクセスできない。
そのため外部のキューはボットに供給され、キューによって指示された任意のシーケンスに従うことができる。
このモデルは、手続き学習とその内部表現を分離できるという考えを強調している。
前者が振る舞いを生成できるなら、明示的かつきめ細かい操作を可能にするだけでは不十分である。
関連論文リスト
- A Pattern Language for Machine Learning Tasks [0.0]
我々は客観的関数を学習者の行動に関する制約と見なしている。
動作の中核となるタスクと実装の詳細を分離できる形式的なグラフィカル言語を開発する。
概念実証として、「マニピュレータ」と呼ぶ生成モデルに分類器を変換できる新しいタスクを設計する。
論文 参考訳(メタデータ) (2024-07-02T16:50:27Z) - Meaning Representations from Trajectories in Autoregressive Models [106.63181745054571]
入力テキストを拡張可能なすべてのトラジェクトリの分布を考慮し,自己回帰言語モデルから意味表現を抽出する。
この戦略はプロンプトフリーであり、微調整は必要とせず、事前訓練された自己回帰モデルにも適用できる。
我々は,大規模なモデルから得られた表現が人間のアノテーションとよく一致し,意味的類似性タスクにおける他のゼロショットおよびプロンプトフリーメソッドよりも優れており,標準埋め込みが扱えないより複雑なエンタテインメントや包含タスクの解決に使用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-10-23T04:35:58Z) - SIRL: Similarity-based Implicit Representation Learning [44.71701661851492]
ユーザに対して,同じような振る舞いを問うことで,表現をチューニングできることが示される。
これにより、ロボットは、表現に進む必要のあるものと、刺激的なものとをあいまいにすることができる。
論文 参考訳(メタデータ) (2023-01-02T18:59:59Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Learning Discrete State Abstractions With Deep Variational Inference [7.273663549650618]
状態抽象化の一種である近似バイシミュレーションを学習する手法を提案する。
我々はディープ・ニューラルエンコーダを使って状態を連続的な埋め込みにマッピングする。
我々はこれらの埋め込みを、アクション条件付き隠れマルコフモデルを用いて離散表現にマッピングする。
論文 参考訳(メタデータ) (2020-03-09T17:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。