論文の概要: Compositional Generalization via Neural-Symbolic Stack Machines
- arxiv url: http://arxiv.org/abs/2008.06662v2
- Date: Thu, 22 Oct 2020 07:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 20:36:46.368254
- Title: Compositional Generalization via Neural-Symbolic Stack Machines
- Title(参考訳): ニューラルシンボリックスタックマシンによる構成一般化
- Authors: Xinyun Chen, Chen Liang, Adams Wei Yu, Dawn Song, Denny Zhou
- Abstract要約: 合成一般化における制限に対処するためのNear-Symbolic Stack Machine (NeSS)を提案する。
NeSSは、ニューラルネットワークモデルの表現力と、シンボリックスタックマシンが支持する再帰を結合する。
NeSSは4つの領域で100%の一般化性能を達成する。
- 参考スコア(独自算出の注目度): 99.79811868836248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite achieving tremendous success, existing deep learning models have
exposed limitations in compositional generalization, the capability to learn
compositional rules and apply them to unseen cases in a systematic manner. To
tackle this issue, we propose the Neural-Symbolic Stack Machine (NeSS). It
contains a neural network to generate traces, which are then executed by a
symbolic stack machine enhanced with sequence manipulation operations. NeSS
combines the expressive power of neural sequence models with the recursion
supported by the symbolic stack machine. Without training supervision on
execution traces, NeSS achieves 100% generalization performance in four
domains: the SCAN benchmark of language-driven navigation tasks, the task of
few-shot learning of compositional instructions, the compositional machine
translation benchmark, and context-free grammar parsing tasks.
- Abstract(参考訳): 優れた成功を収めたにもかかわらず、既存のディープラーニングモデルは、構成的一般化の限界、構成規則を学習し、体系的な方法で見えないケースに適用する能力を明らかにしている。
そこで我々はNeural-Symbolic Stack Machine (NeSS)を提案する。
トレースを生成するニューラルネットワークが含まれており、シーケンス操作操作によって拡張されたシンボリックスタックマシンによって実行される。
NeSSは、ニューラルネットワークモデルの表現力と、シンボリックスタックマシンが支持する再帰を結合する。
実行トレースのトレーニング監督がなければ、nessは、言語駆動ナビゲーションタスクのスキャンベンチマーク、構成命令の数少ない学習タスク、合成機械翻訳ベンチマーク、文脈自由文法解析タスクの4つのドメインで100%一般化性能を達成している。
関連論文リスト
- The Role of Foundation Models in Neuro-Symbolic Learning and Reasoning [54.56905063752427]
Neuro-Symbolic AI(NeSy)は、AIシステムの安全なデプロイを保証することを約束している。
ニューラルネットワークとシンボリックコンポーネントを順次トレーニングする既存のパイプラインは、広範なラベリングを必要とする。
新しいアーキテクチャであるNeSyGPTは、生データから象徴的特徴を抽出する視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2024-02-02T20:33:14Z) - Nondeterministic Stacks in Neural Networks [0.456877715768796]
我々は、非決定論的プッシュダウンオートマトンを効率的にシミュレートする微分可能なデータ構造を開発する。
これにより、任意の文脈自由言語に対する形式的認識能力が向上することを示す。
また,非決定論的スタックを付加したRNNでは,驚くほど強力な動作が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-25T16:00:40Z) - Mastering Symbolic Operations: Augmenting Language Models with Compiled
Neural Networks [48.14324895100478]
ニューラルアーキテクチャ」は、コンパイルされたニューラルネットワーク(CoNN)を標準変換器に統合する。
CoNNは、人工的に生成された注意重みを通してルールを明示的にエンコードするように設計されたニューラルネットワークモジュールである。
実験は,シンボル操作における長さ一般化,効率,解釈可能性の観点から,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-04T09:50:07Z) - Neural-Symbolic Recursive Machine for Systematic Generalization [113.22455566135757]
我々は、基底記号システム(GSS)のコアとなるニューラル・シンボリック再帰機械(NSR)を紹介する。
NSRは神経知覚、構文解析、意味推論を統合している。
我々はNSRの有効性を,系統的一般化能力の探索を目的とした4つの挑戦的ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-10-04T13:27:38Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z) - Sequence-to-Sequence Learning with Latent Neural Grammars [12.624691611049341]
ニューラルネットワークを用いたシーケンス対シーケンス学習は、シーケンス予測タスクのデファクトスタンダードとなっている。
フレキシブルでパフォーマンスが高いが、これらのモデルはトレーニングのために大きなデータセットを必要とすることが多く、構成の一般化をテストするために設計されたベンチマークで驚くほど失敗することがある。
この研究は、準同期文法を用いたシーケンシャル・ツー・シークエンス学習の代替的、階層的アプローチを探求する。
論文 参考訳(メタデータ) (2021-09-02T17:58:08Z) - SyGNS: A Systematic Generalization Testbed Based on Natural Language
Semantics [39.845425535943534]
自然言語セマンティックス(SyGNS)に基づく体系的一般化テストベッドを提案する。
ニューラルネットワークが、量化子や否定といった論理式の新しい組み合わせを含む文を体系的に解析できるかどうかを検証する。
実験により、Transformer と GRU モデルは、与えられたトレーニングインスタンスの形式に類似しているが、他のモデルには似ていない量化器、否定器、修飾器の組み合わせに一般化できることが示された。
論文 参考訳(メタデータ) (2021-06-02T11:24:41Z) - Neural Complexity Measures [96.06344259626127]
本稿では,一般化を予測するメタラーニングフレームワークであるNeural Complexity(NC)を提案する。
我々のモデルは、データ駆動方式で、多くの異種タスクとの相互作用を通じてスカラー複雑性尺度を学習する。
論文 参考訳(メタデータ) (2020-08-07T02:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。