論文の概要: Think before you act: A simple baseline for compositional generalization
- arxiv url: http://arxiv.org/abs/2009.13962v2
- Date: Thu, 1 Oct 2020 07:11:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:26:04.512891
- Title: Think before you act: A simple baseline for compositional generalization
- Title(参考訳): 行動する前に考える:構成一般化のための単純なベースライン
- Authors: Christina Heinze-Deml and Diane Bouchacourt
- Abstract要約: 本稿では,2つの gSCAN テスト分割に対して驚くほど優れた性能を示すモデルを提案する。
我々のモデルは、gSCANタスクを成功させるために、エージェントは(i)目標オブジェクトを(ii)正常にナビゲートする前に識別しなければならないという観察に基づいています。
2つの構成的タスクは、我々のアプローチでは自明に解決されるが、他のタスクは未解決のままである。
- 参考スコア(独自算出の注目度): 13.515965758160215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrarily to humans who have the ability to recombine familiar expressions
to create novel ones, modern neural networks struggle to do so. This has been
emphasized recently with the introduction of the benchmark dataset "gSCAN"
(Ruis et al. 2020), aiming to evaluate models' performance at compositional
generalization in grounded language understanding. In this work, we challenge
the gSCAN benchmark by proposing a simple model that achieves surprisingly good
performance on two of the gSCAN test splits. Our model is based on the
observation that, to succeed on gSCAN tasks, the agent must (i) identify the
target object (think) before (ii) navigating to it successfully (act).
Concretely, we propose an attention-inspired modification of the baseline model
from (Ruis et al. 2020), together with an auxiliary loss, that takes into
account the sequential nature of steps (i) and (ii). While two compositional
tasks are trivially solved with our approach, we also find that the other tasks
remain unsolved, validating the relevance of gSCAN as a benchmark for
evaluating models' compositional abilities.
- Abstract(参考訳): 慣れ親しんだ表現を組み換えて新しい表現を作り出す能力を持つ人間に対して、現代のニューラルネットワークはそれを行うのに苦労する。
これは最近、基底言語理解における構成一般化におけるモデルの性能評価を目的としたベンチマークデータセット"gSCAN"(Ruis et al. 2020)の導入によって強調されている。
本稿では,2つの gSCAN テスト分割に対して驚くほど優れた性能を示す単純なモデルを提案することで,gSCAN ベンチマークに挑戦する。
我々のモデルは、gSCANタスクを成功させるためには、エージェントがなければならないという観察に基づいている。
(i)対象物(考え)を事前に識別する
(ii)成功に導くこと(法律)
具体的には,ステップの逐次的性質を考慮した補助損失を伴うベースラインモデル(ruis et al. 2020)の注意を引いた修正を提案する。
(i)および
(ii)
2つの構成タスクは自明に解決されるが,他のタスクは未解決のままであり,gscanがモデルの構成能力を評価するベンチマークとしての有用性を検証する。
関連論文リスト
- Co-guiding for Multi-intent Spoken Language Understanding [53.30511968323911]
本稿では,2つのタスク間の相互指導を実現するための2段階のフレームワークを実装した,コガイドネットと呼ばれる新しいモデルを提案する。
第1段階では,単一タスクによる教師付きコントラスト学習を提案し,第2段階ではコガイドによる教師付きコントラスト学習を提案する。
マルチインテリジェントSLU実験の結果,我々のモデルは既存のモデルよりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-22T08:06:22Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - Systematic Generalization on gSCAN: What is Nearly Solved and What is
Next? [31.981204314287282]
クロスモーダルアテンションを持つ汎用トランスフォーマーベースモデルは,gSCANベンチマークの大部分で高い性能を達成している。
本稿では,オブジェクト間の関係を視覚環境に組み込むデータを生成することで,gSCANのための新しいタスクを提案する。
論文 参考訳(メタデータ) (2021-09-25T00:08:42Z) - ReaSCAN: Compositional Reasoning in Language Grounding [5.529897656818874]
我々は,gSCANが構成的解釈を必要とせず,その手順やシナリオの多くの詳細がタスクの成功に必要でないことを示す。
本稿では,gSCANをベースとしたベンチマークデータセットReaSCANを提案する。
論文 参考訳(メタデータ) (2021-09-18T19:46:08Z) - X2Parser: Cross-Lingual and Cross-Domain Framework for Task-Oriented
Compositional Semantic Parsing [51.81533991497547]
タスク指向コンポジションセマンティックパーシング(TCSP)は複雑なネストされたユーザクエリを処理する。
本報告では,TCSPの変換可能なクロスランガルとクロスドメインを比較した。
本稿では,フラット化意図とスロット表現を別々に予測し,両方の予測タスクをシーケンスラベリング問題にキャストすることを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:40:05Z) - Robustness Evaluation of Stacked Generative Adversarial Networks using
Metamorphic Testing [0.39146761527401414]
StackGAN-v2は、入力されたテキスト記述に指定された詳細を反映した高解像度の画像を生成できることが証明されている。
我々は,さまざまな予期せぬトレーニングデータセットを用いたモデルのロバスト性を評価するために,メタモルフィックテスト手法を採用する。
StackGAN-v2アルゴリズムは、たとえメインオブジェクトと最小値の重なり合いであっても、難解なオブジェクトでイメージを入力できる。
論文 参考訳(メタデータ) (2021-03-04T07:29:17Z) - Sequential Transfer in Reinforcement Learning with a Generative Model [48.40219742217783]
本稿では,従来の課題から知識を移譲することで,新たな課題を学習する際のサンプルの複雑さを軽減する方法について述べる。
この種の事前知識を使用することのメリットを明確に示すために,PAC境界のサンプル複雑性を導出する。
簡単なシミュレートされた領域における理論的な発見を実証的に検証する。
論文 参考訳(メタデータ) (2020-07-01T19:53:35Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。