論文の概要: Recursive Decoding: A Situated Cognition Approach to Compositional
Generation in Grounded Language Understanding
- arxiv url: http://arxiv.org/abs/2201.11766v1
- Date: Thu, 27 Jan 2022 19:13:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 12:35:59.062690
- Title: Recursive Decoding: A Situated Cognition Approach to Compositional
Generation in Grounded Language Understanding
- Title(参考訳): 再帰的復号化:基盤言語理解における構成生成への位置認識アプローチ
- Authors: Matthew Setzler, Scott Howland, Lauren Phillips
- Abstract要約: 本稿では,Seq2seqモデルをトレーニングおよび使用するための新しい手順であるRecursive Decodingを提案する。
1回のパスで出力シーケンス全体を生成するのではなく、モデルは一度に1つのトークンを予測するように訓練される。
RDは、gSCANの2つの以前に無視された一般化タスクに対して劇的な改善をもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compositional generalization is a troubling blind spot for neural language
models. Recent efforts have presented techniques for improving a model's
ability to encode novel combinations of known inputs, but less work has focused
on generating novel combinations of known outputs. Here we focus on this latter
"decode-side" form of generalization in the context of gSCAN, a synthetic
benchmark for compositional generalization in grounded language understanding.
We present Recursive Decoding (RD), a novel procedure for training and using
seq2seq models, targeted towards decode-side generalization. Rather than
generating an entire output sequence in one pass, models are trained to predict
one token at a time. Inputs (i.e., the external gSCAN environment) are then
incrementally updated based on predicted tokens, and re-encoded for the next
decoder time step. RD thus decomposes a complex, out-of-distribution sequence
generation task into a series of incremental predictions that each resemble
what the model has already seen during training. RD yields dramatic improvement
on two previously neglected generalization tasks in gSCAN. We provide analyses
to elucidate these gains over failure of a baseline, and then discuss
implications for generalization in naturalistic grounded language
understanding, and seq2seq more generally.
- Abstract(参考訳): 合成一般化は、ニューラルネットワークモデルにとって厄介な盲点である。
近年の研究では、既知の入力の新しい組み合わせをエンコードするモデルの能力を改善する技術が提案されているが、既知の出力の新しい組み合わせを生成することに注力する作業は少ない。
ここでは、基底言語理解における合成一般化のための合成ベンチマークである gSCAN の文脈において、後者の「デコード側」の一般化形式に焦点を当てる。
本稿では,デコード側一般化を目的とした,セック2セックモデルのトレーニングおよび使用のための新しい手法であるRecursive Decoding(RD)を提案する。
1回のパスで出力シーケンス全体を生成するのではなく、モデルは一度に1つのトークンを予測するように訓練される。
入力(つまり外部のgSCAN環境)は予測トークンに基づいて漸進的に更新され、次のデコーダタイムステップで再符号化される。
したがってRDは、複雑な分布外シーケンス生成タスクを一連の漸進的な予測に分解し、それぞれがトレーニング中に既に見たモデルと似ている。
RDはgSCANの2つの以前に無視された一般化タスクに対して劇的な改善をもたらす。
ベースラインの失敗に対するこれらの利得を解明するための分析を行い、さらに、自然主義的基礎言語理解における一般化とSeq2seqをより一般的に論じる。
関連論文リスト
- ExeDec: Execution Decomposition for Compositional Generalization in Neural Program Synthesis [54.18659323181771]
プログラム合成において望ましいいくつかの異なる構成一般化形式を特徴付ける。
本稿では,ExeDecを提案する。ExeDecは,実行サブゴールを予測し,各ステップでプログラム実行によって段階的に通知される問題を解くための,新しい分解ベースの戦略である。
論文 参考訳(メタデータ) (2023-07-26T01:07:52Z) - Real-World Compositional Generalization with Disentangled
Sequence-to-Sequence Learning [81.24269148865555]
最近提案されたDunangled sequence-to-sequence model (Dangle)は、有望な一般化能力を示している。
このモデルに2つの重要な変更を加え、より不整合表現を奨励し、その計算とメモリ効率を改善する。
具体的には、各タイミングでソースキーと値を適応的に再エンコードするのではなく、表現をアンタングルし、キーを定期的に再エンコードする。
論文 参考訳(メタデータ) (2022-12-12T15:40:30Z) - Hierarchical Sketch Induction for Paraphrase Generation [79.87892048285819]
本稿では、高密度符号化の分解を学習するHRQ-VAE(Hierarchical Refinement Quantized Variational Autoencoders)を紹介する。
HRQ-VAEを用いて、入力文の構文形式を階層化の経路としてエンコードすることで、テスト時の構文スケッチをより容易に予測できる。
論文 参考訳(メタデータ) (2022-03-07T15:28:36Z) - Grounded Graph Decoding Improves Compositional Generalization in
Question Answering [68.72605660152101]
質問応答モデルは、長いシーケンスやより複雑なテスト構造のようなトレーニングパターンの新しい構成に一般化するのに苦労する。
構造化された予測をアテンション機構でグラウンド化することで,言語表現の合成一般化を改善する手法であるグラウンドドグラフデコーディングを提案する。
本モデルは,質問応答における合成一般化の挑戦的ベンチマークである構成自由ベース質問(CFQ)データセットにおいて,最先端のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2021-11-05T17:50:14Z) - Disentangled Sequence to Sequence Learning for Compositional
Generalization [62.954842223732435]
本稿では,ソース入力を適応的に再符号化することで,不整合表現の学習を可能にするシーケンス・ツー・シーケンス・モデルの拡張を提案する。
意味解析と機械翻訳の実験結果から,提案手法はより不整合な表現とより優れた一般化をもたらすことが示された。
論文 参考訳(メタデータ) (2021-10-09T22:27:19Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。