論文の概要: Learning Algebraic Recombination for Compositional Generalization
- arxiv url: http://arxiv.org/abs/2107.06516v1
- Date: Wed, 14 Jul 2021 07:23:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 14:27:49.027683
- Title: Learning Algebraic Recombination for Compositional Generalization
- Title(参考訳): 合成一般化のための代数的組換えの学習
- Authors: Chenyao Liu, Shengnan An, Zeqi Lin, Qian Liu, Bei Chen, Jian-Guang
Lou, Lijie Wen, Nanning Zheng and Dongmei Zhang
- Abstract要約: 合成一般化のための代数的組換え学習のためのエンドツーエンドニューラルモデルLeARを提案する。
主要な洞察は、意味解析タスクを潜在構文代数学と意味代数学の間の準同型としてモデル化することである。
2つの現実的・包括的構成一般化の実験は、我々のモデルの有効性を実証している。
- 参考スコア(独自算出の注目度): 71.78771157219428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural sequence models exhibit limited compositional generalization ability
in semantic parsing tasks. Compositional generalization requires algebraic
recombination, i.e., dynamically recombining structured expressions in a
recursive manner. However, most previous studies mainly concentrate on
recombining lexical units, which is an important but not sufficient part of
algebraic recombination. In this paper, we propose LeAR, an end-to-end neural
model to learn algebraic recombination for compositional generalization. The
key insight is to model the semantic parsing task as a homomorphism between a
latent syntactic algebra and a semantic algebra, thus encouraging algebraic
recombination. Specifically, we learn two modules jointly: a Composer for
producing latent syntax, and an Interpreter for assigning semantic operations.
Experiments on two realistic and comprehensive compositional generalization
benchmarks demonstrate the effectiveness of our model. The source code is
publicly available at https://github.com/microsoft/ContextualSP.
- Abstract(参考訳): ニューラルシーケンスモデルは、意味解析タスクにおいて限定的な構成一般化能力を示す。
構成一般化には代数的再結合、すなわち構造的表現を再帰的に動的に再結合する必要がある。
しかし、これまでのほとんどの研究は、主に代数的再結合の重要な部分ではあるが十分でない語彙単位の再結合に焦点を当てていた。
本稿では,合成一般化のための代数的組換え学習のためのエンドツーエンドニューラルモデルLeARを提案する。
鍵となる洞察は、意味解析タスクを潜在構文代数と意味代数学の間の準同型としてモデル化し、代数的再結合を促進することである。
具体的には、潜在構文を生成するComposerと、セマンティック操作を割り当てるInterpreterの2つのモジュールを共同で学習する。
2つの現実的および包括的構成一般化ベンチマークの実験は、我々のモデルの有効性を実証した。
ソースコードはhttps://github.com/microsoft/ContextualSPで公開されている。
関連論文リスト
- Compositional Generalization Requires Compositional Parsers [69.77216620997305]
直近のCOGSコーパスにおける構成原理によって導かれるシーケンス・ツー・シーケンスモデルとモデルを比較した。
構造一般化は構成一般化の重要な尺度であり、複雑な構造を認識するモデルを必要とする。
論文 参考訳(メタデータ) (2022-02-24T07:36:35Z) - Learning Algebraic Representation for Systematic Generalization in
Abstract Reasoning [109.21780441933164]
推論における体系的一般化を改善するためのハイブリッドアプローチを提案する。
我々はRaven's Progressive Matrices (RPM) の抽象的空間時間課題に対する代数的表現を用いたプロトタイプを紹介する。
得られた代数的表現は同型によって復号化して解を生成することができることを示す。
論文 参考訳(メタデータ) (2021-11-25T09:56:30Z) - Grounded Graph Decoding Improves Compositional Generalization in
Question Answering [68.72605660152101]
質問応答モデルは、長いシーケンスやより複雑なテスト構造のようなトレーニングパターンの新しい構成に一般化するのに苦労する。
構造化された予測をアテンション機構でグラウンド化することで,言語表現の合成一般化を改善する手法であるグラウンドドグラフデコーディングを提案する。
本モデルは,質問応答における合成一般化の挑戦的ベンチマークである構成自由ベース質問(CFQ)データセットにおいて,最先端のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2021-11-05T17:50:14Z) - Improving Compositional Generalization in Classification Tasks via
Structure Annotations [33.90268697120572]
人間は構成を一般化する能力は大きいが、最先端のニューラルモデルはそれを行うのに苦労している。
まず、自然言語のシーケンス・ツー・シーケンス・データセットを、合成の一般化も必要とする分類データセットに変換する方法について検討する。
第二に、構造的ヒントを提供すること(特にトランスフォーマーモデルの注意マスクとしてパースツリーとエンティティリンクを提供すること)は、構成の一般化に役立つことを示す。
論文 参考訳(メタデータ) (2021-06-19T06:07:27Z) - Abelian Neural Networks [48.52497085313911]
まず、アベリア群演算のためのニューラルネットワークアーキテクチャを構築し、普遍近似特性を導出する。
連想対称の特徴づけを用いて、アベリア半群演算に拡張する。
固定単語埋め込み上でモデルをトレーニングし、元の word2vec よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-02-24T11:52:21Z) - General Data Analytics with Applications to Visual Information Analysis:
A Provable Backward-Compatible Semisimple Paradigm over T-Algebra [7.028302194243312]
我々は最近報告された半単純代数に対する一般データ解析の新しい後方互換性パラダイムを考える。
視覚パターン解析のための標準アルゴリズムを一般化する。
公開データセットの実験では、一般化されたアルゴリズムは標準的アルゴリズムと好意的に比較されている。
論文 参考訳(メタデータ) (2020-10-31T16:41:09Z) - Compositional Generalization by Learning Analytical Expressions [87.15737632096378]
メモリ拡張ニューラルモデルは、合成一般化を達成するために解析式に接続される。
良く知られたベンチマークSCANの実験は、我々のモデルが構成的一般化の優れた能力をつかむことを示した。
論文 参考訳(メタデータ) (2020-06-18T15:50:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。