論文の概要: Learning to learn generative programs with Memoised Wake-Sleep
- arxiv url: http://arxiv.org/abs/2007.03132v2
- Date: Wed, 22 Jul 2020 22:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 01:26:02.746722
- Title: Learning to learn generative programs with Memoised Wake-Sleep
- Title(参考訳): Memoized Wake-Sleep を用いた生成プログラムの学習
- Authors: Luke B. Hewitt and Tuan Anh Le and Joshua B. Tenenbaum
- Abstract要約: 本研究では,ニューラルネットワークをシンボル型データ生成プログラムの前提として,推論と先行の両方に使用するニューロシンボリック生成モデルのクラスについて検討する。
そこで本研究では,Wake Sleepを拡張したMemoised Wake-Sleep(MWS)アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 52.439550543743536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a class of neuro-symbolic generative models in which neural networks
are used both for inference and as priors over symbolic, data-generating
programs. As generative models, these programs capture compositional structures
in a naturally explainable form. To tackle the challenge of performing program
induction as an 'inner-loop' to learning, we propose the Memoised Wake-Sleep
(MWS) algorithm, which extends Wake Sleep by explicitly storing and reusing the
best programs discovered by the inference network throughout training. We use
MWS to learn accurate, explainable models in three challenging domains:
stroke-based character modelling, cellular automata, and few-shot learning in a
novel dataset of real-world string concepts.
- Abstract(参考訳): 本研究では,ニューラルネットワークをシンボル型データ生成プログラムの推論と先行の両方に使用するニューラルシンボリック生成モデルについて検討する。
生成モデルとして、これらのプログラムは合成構造を自然に説明可能な形で捉える。
学習における「インナーループ」としてのプログラム誘導の課題に対処するために,学習を通して推論ネットワークが発見する最高のプログラムを明示的に保存・再利用することで,覚醒を延長する覚醒覚醒(MWS)アルゴリズムを提案する。
我々はmwsを用いて,実世界の文字列概念の新たなデータセットにおいて,ストロークに基づく文字モデリング,セルオートマトン,少数ショット学習という3つの課題領域において,正確かつ説明可能なモデルを学習する。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Continual Zero-Shot Learning through Semantically Guided Generative
Random Walks [56.65465792750822]
生成モデルを利用して、学習中に見えない情報が提供されない連続ゼロショット学習の課題に対処する。
本稿では,新しい意味誘導型生成ランダムウォーク(GRW)損失を用いた学習アルゴリズムを提案する。
提案アルゴリズムは,AWA1,AWA2,CUB,SUNデータセットの最先端性能を達成し,既存のCZSL手法を3~7%上回る結果を得た。
論文 参考訳(メタデータ) (2023-08-23T18:10:12Z) - Understanding Activation Patterns in Artificial Neural Networks by
Exploring Stochastic Processes [0.0]
我々はこれまで未利用であったプロセスの枠組みを活用することを提案する。
我々は、実際のニューロンスパイク列車に使用される神経科学技術を活用した、アクティベーション周波数のみに焦点をあてる。
各ネットワークにおけるアクティベーションパターンを記述するパラメータを導出し、アーキテクチャとトレーニングセット間で一貫した差異を明らかにする。
論文 参考訳(メタデータ) (2023-08-01T22:12:30Z) - CodeGen2: Lessons for Training LLMs on Programming and Natural Languages [116.74407069443895]
我々はエンコーダとデコーダベースのモデルを単一のプレフィックスLMに統一する。
学習方法は,「フリーランチ」仮説の主張を考察する。
データ配信においては,混合分布と多言語学習がモデル性能に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-05-03T17:55:25Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - Hebbian Continual Representation Learning [9.54473759331265]
継続的学習は、より現実的なシナリオに機械学習をもたらすことを目的としています。
生物学的にインスパイアされたヘビアン学習が継続的な課題に対処するのに有用かどうかを検討する。
論文 参考訳(メタデータ) (2022-06-28T09:21:03Z) - Assemble Foundation Models for Automatic Code Summarization [9.53949558569201]
ニューラルネットワークに基づく自動コード要約のためのフレキシブルでロバストなアプローチを提案する。
CodeBERT や GPT-2 のような利用可能な基盤モデルを AdaMo という単一のモデルに組み立てる。
本稿では,知識伝達の観点から,連続事前学習と中間微調整という2つの適応型スキームを導入する。
論文 参考訳(メタデータ) (2022-01-13T21:38:33Z) - Embedding Symbolic Temporal Knowledge into Deep Sequential Models [21.45383857094518]
時系列や時系列はロボットのタスク、例えば活動認識や模倣学習で発生することが多い。
深層ニューラルネットワーク(DNN)は、十分なトレーニングデータと計算リソースを与えられたシーケンスを処理する効果的なデータ駆動手法として登場した。
グラフニューラルネットワークを用いて定式から生成された自動機械のセマンティックな埋め込みを構築する。実験により、これらの学習された埋め込みは、シーケンシャルな動作認識や模倣学習などの下流ロボットタスクの改善につながることが示された。
論文 参考訳(メタデータ) (2021-01-28T13:17:46Z) - On the Generalizability of Neural Program Models with respect to
Semantic-Preserving Program Transformations [25.96895574298886]
意味保存変換に対するニューラルプログラムモデルの一般化性を評価する。
コードには3つの異なるサイズのJavaデータセットと3つの最先端ニューラルネットワークモデルを使用します。
本結果は,抽象構文木のみに基づくニューラルプログラムモデルよりも,プログラム内のデータおよび制御依存性に基づくニューラルプログラムモデルの方が一般化可能であることを示唆している。
論文 参考訳(メタデータ) (2020-07-31T20:39:20Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。