論文の概要: ReaSCAN: Compositional Reasoning in Language Grounding
- arxiv url: http://arxiv.org/abs/2109.08994v1
- Date: Sat, 18 Sep 2021 19:46:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 09:39:16.880807
- Title: ReaSCAN: Compositional Reasoning in Language Grounding
- Title(参考訳): ReaSCAN: 言語接地における合成推論
- Authors: Zhengxuan Wu, Elisa Kreiss, Desmond C. Ong and Christopher Potts
- Abstract要約: 我々は,gSCANが構成的解釈を必要とせず,その手順やシナリオの多くの詳細がタスクの成功に必要でないことを示す。
本稿では,gSCANをベースとしたベンチマークデータセットReaSCANを提案する。
- 参考スコア(独自算出の注目度): 5.529897656818874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to compositionally map language to referents, relations, and
actions is an essential component of language understanding. The recent gSCAN
dataset (Ruis et al. 2020, NeurIPS) is an inspiring attempt to assess the
capacity of models to learn this kind of grounding in scenarios involving
navigational instructions. However, we show that gSCAN's highly constrained
design means that it does not require compositional interpretation and that
many details of its instructions and scenarios are not required for task
success. To address these limitations, we propose ReaSCAN, a benchmark dataset
that builds off gSCAN but requires compositional language interpretation and
reasoning about entities and relations. We assess two models on ReaSCAN: a
multi-modal baseline and a state-of-the-art graph convolutional neural model.
These experiments show that ReaSCAN is substantially harder than gSCAN for both
neural architectures. This suggests that ReaSCAN can serve as a valuable
benchmark for advancing our understanding of models' compositional
generalization and reasoning capabilities.
- Abstract(参考訳): 言語を参照、関係、行動に構成的にマッピングする能力は、言語理解の重要な構成要素である。
最近の gSCAN データセット (Ruis et al. 2020, NeurIPS) は、ナビゲーション命令を含むシナリオにおいて、このような基礎を学習するモデルの能力を評価するための刺激的な試みである。
しかし, gSCANの高度に制約された設計は, 構成的解釈を必要とせず, その手順やシナリオの多くの詳細がタスク成功に必要ではないことを示す。
このような制約に対処するために,gSCANをベースとしたベンチマークデータセットであるReaSCANを提案する。
マルチモーダルベースラインと最先端グラフ畳み込みニューラルモデルであるReaSCANの2つのモデルを評価する。
これらの実験により、ReaSCANは両方のニューラルアーキテクチャにおいてgSCANよりもかなり難しいことが示された。
このことは、ReaSCANがモデルの構成一般化と推論能力の理解を深めるための貴重なベンチマークとなることを示唆している。
関連論文リスト
- Split and Rephrase with Large Language Models [2.499907423888049]
Split and Rephrase (SPRP) タスクは、複雑な文を短い文法文の列に分割する。
タスク上の大きな言語モデルを評価し、主要なメトリクスに基づいて、技術の現状を大幅に改善できることを示します。
論文 参考訳(メタデータ) (2023-12-18T10:16:37Z) - RAVEN: In-Context Learning with Retrieval-Augmented Encoder-Decoder Language Models [57.12888828853409]
RAVENは検索強化されたマスク付き言語モデリングとプレフィックス言語モデリングを組み合わせたモデルである。
フュージョン・イン・コンテキスト・ラーニング(Fusion-in-Context Learning)により、追加のトレーニングを必要とせずに、より多くのコンテキスト内サンプルを利用できる。
本研究は,テキスト内学習のためのエンコーダ・デコーダ言語モデルの構築の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-08-15T17:59:18Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - Physics of Language Models: Part 1, Learning Hierarchical Language Structures [51.68385617116854]
トランスフォーマーベースの言語モデルは効率的だが複雑であり、内部動作を理解することは大きな課題である。
本稿では,長文を生成可能な階層規則を生成する合成CFGのファミリーを紹介する。
我々は、GPTのような生成モデルがこのCFG言語を正確に学習し、それに基づいて文を生成することを実証する。
論文 参考訳(メタデータ) (2023-05-23T04:28:16Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Language Model Cascades [72.18809575261498]
テスト時に1つのモデルで繰り返し対話する、あるいは複数のモデルの合成は、さらに機能を拡張する。
制御フローと動的構造を持つ場合、確率的プログラミングのテクニックが必要となる。
この観点から、スクラッチパッド/思考連鎖、検証器、STaR、選択推論、ツール利用など、いくつかの既存のテクニックを定式化します。
論文 参考訳(メタデータ) (2022-07-21T07:35:18Z) - A Knowledge-Enhanced Adversarial Model for Cross-lingual Structured
Sentiment Analysis [31.05169054736711]
言語間構造的感情分析タスクは、ソース言語からターゲット言語へ知識を伝達することを目的としている。
本稿では,暗黙的分散と明示的構造的知識を両立させた知識強化逆数モデル(textttKEAM)を提案する。
我々は5つのデータセットの実験を行い、textttKEAMと教師なしおよび教師なしの両方の手法を比較した。
論文 参考訳(メタデータ) (2022-05-31T03:07:51Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z) - Systematic Generalization on gSCAN: What is Nearly Solved and What is
Next? [31.981204314287282]
クロスモーダルアテンションを持つ汎用トランスフォーマーベースモデルは,gSCANベンチマークの大部分で高い性能を達成している。
本稿では,オブジェクト間の関係を視覚環境に組み込むデータを生成することで,gSCANのための新しいタスクを提案する。
論文 参考訳(メタデータ) (2021-09-25T00:08:42Z) - Think before you act: A simple baseline for compositional generalization [13.515965758160215]
本稿では,2つの gSCAN テスト分割に対して驚くほど優れた性能を示すモデルを提案する。
我々のモデルは、gSCANタスクを成功させるために、エージェントは(i)目標オブジェクトを(ii)正常にナビゲートする前に識別しなければならないという観察に基づいています。
2つの構成的タスクは、我々のアプローチでは自明に解決されるが、他のタスクは未解決のままである。
論文 参考訳(メタデータ) (2020-09-29T12:27:12Z) - Systematic Generalization on gSCAN with Language Conditioned Embedding [19.39687991647301]
体系的一般化とは、学習アルゴリズムが学習した振る舞いを目に見えない状況に外挿する能力を指す。
本稿では,入力自然言語を条件とした動的メッセージパッシングによるオブジェクトの文脈的埋め込みを学習する手法を提案する。
論文 参考訳(メタデータ) (2020-09-11T17:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。