論文の概要: Compositional Generalization in Grounded Language Learning via Induced
Model Sparsity
- arxiv url: http://arxiv.org/abs/2207.02518v1
- Date: Wed, 6 Jul 2022 08:46:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 22:02:34.914202
- Title: Compositional Generalization in Grounded Language Learning via Induced
Model Sparsity
- Title(参考訳): 誘導モデルによる基底言語学習における合成一般化
- Authors: Sam Spilsbury and Alexander Ilin
- Abstract要約: グリッド環境における単純な言語条件のナビゲーション問題について考察する。
本研究では,オブジェクトの指示文と属性のスパース相関を助長するエージェントを設計し,それらを組み合わせて目的を導出する。
我々のエージェントは、少数のデモンストレーションから学習した場合でも、新しいプロパティの組み合わせを含む目標に対して高いレベルのパフォーマンスを維持している。
- 参考スコア(独自算出の注目度): 81.38804205212425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We provide a study of how induced model sparsity can help achieve
compositional generalization and better sample efficiency in grounded language
learning problems. We consider simple language-conditioned navigation problems
in a grid world environment with disentangled observations. We show that
standard neural architectures do not always yield compositional generalization.
To address this, we design an agent that contains a goal identification module
that encourages sparse correlations between words in the instruction and
attributes of objects, composing them together to find the goal. The output of
the goal identification module is the input to a value iteration network
planner. Our agent maintains a high level of performance on goals containing
novel combinations of properties even when learning from a handful of
demonstrations. We examine the internal representations of our agent and find
the correct correspondences between words in its dictionary and attributes in
the environment.
- Abstract(参考訳): 基底型言語学習問題において,モデルスパーシティが構成一般化とサンプル効率の向上にどのように役立つかを検討する。
グリッド環境における単純な言語条件のナビゲーション問題について考察する。
標準のニューラルアーキテクチャは必ずしも合成一般化をもたらすとは限らない。
そこで本研究では,オブジェクトの属性と命令中の単語間の疎相関を助長する目標識別モジュールを具備したエージェントを設計し,それらを組み合わせてゴールを見つける。
目標識別モジュールの出力は、値反復ネットワークプランナへの入力である。
我々のエージェントは、少数のデモンストレーションから学んだ場合でも、新しいプロパティの組み合わせを含む目標に対して高いレベルのパフォーマンスを維持している。
エージェントの内部表現を調べ,その辞書中の単語と環境における属性との正しい対応を見つけ出す。
関連論文リスト
- Integrating Self-supervised Speech Model with Pseudo Word-level Targets
from Visually-grounded Speech Model [57.78191634042409]
擬似単語レベルのターゲットを学習プロセスに統合するフレームワークであるPseudo-Word HuBERT(PW-HuBERT)を提案する。
4つの音声言語理解(SLU)ベンチマークによる実験結果から,意味情報の収集におけるモデルの有用性が示唆された。
論文 参考訳(メタデータ) (2024-02-08T16:55:21Z) - Exploiting Contextual Target Attributes for Target Sentiment
Classification [53.30511968323911]
TSCの既存のPTLMベースモデルは、1)PTLMをコンテキストエンコーダとして採用した微調整ベースモデル、2)テキスト/単語生成タスクに分類タスクを転送するプロンプトベースモデル、の2つのグループに分類される。
我々は,PTLM を TSC に活用する新たな視点として,言語モデリングと文脈的ターゲット属性による明示的ターゲットコンテキスト相互作用の利点を同時に活用する。
論文 参考訳(メタデータ) (2023-12-21T11:45:28Z) - Feature Interactions Reveal Linguistic Structure in Language Models [2.0178765779788495]
本研究では,ポストホック解釈における特徴帰属手法の文脈における特徴的相互作用について検討した。
私たちは、正規言語分類タスクで完璧にモデルをトレーニングする灰色のボックスの方法論を開発します。
特定の構成下では、いくつかの手法が実際にモデルが獲得した文法規則を明らかにすることができることを示す。
論文 参考訳(メタデータ) (2023-06-21T11:24:41Z) - Leveraging Locality in Abstractive Text Summarization [44.67905693077539]
制限されたコンテキストを持つモデルが、メモリ効率の低いアテンションモデルと比較して競合性能を持つかどうかを検討する。
本モデルは,局所性の原理によってグループ化された入力の一部を含む個々のページに適用される。
論文 参考訳(メタデータ) (2022-05-25T03:59:24Z) - Meta-Learning to Compositionally Generalize [34.656819307701156]
教師あり学習のメタラーニング拡張版を実装した。
既存のトレーニングデータをサブサンプリングすることでメタ学習のためのタスクのペアを構築する。
COGSおよびSCANデータセットの実験結果から、類似性駆動型メタラーニングにより一般化性能が向上することが示された。
論文 参考訳(メタデータ) (2021-06-08T11:21:48Z) - Language in a (Search) Box: Grounding Language Learning in Real-World
Human-Machine Interaction [4.137464623395377]
ユーザデータのみから、接地領域、表記関数、合成関数がどのように学習されるかを示す。
合成性およびゼロショット推論タスクに関する基礎的セマンティクスをベンチマークする。
論文 参考訳(メタデータ) (2021-04-18T15:03:16Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - A Framework to Learn with Interpretation [2.3741312212138896]
本稿では,予測モデルとその関連解釈モデルを共同で学習する新しい枠組みを提案する。
我々は,選択した隠れ層の出力を入力として取り込む,高レベル属性関数の小型辞書を求める。
学習した機能を視覚化する詳細なパイプラインも開発されている。
論文 参考訳(メタデータ) (2020-10-19T09:26:28Z) - Learning Universal Representations from Word to Sentence [89.82415322763475]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
本稿では, 単語, 句, 文の観点から, 類似したデータセットを構築するためのアプローチを提案する。
適切なトレーニング設定を組み込んだよく訓練されたトランスフォーマーモデルが、効果的に普遍的な表現が得られることを実証的に検証する。
論文 参考訳(メタデータ) (2020-09-10T03:53:18Z) - Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction [80.38130122127882]
ニューラルリレーション抽出(RE)に関連する言語特性を対象とした14の探索タスクを導入する。
私たちは、40以上の異なるエンコーダアーキテクチャと2つのデータセットでトレーニングされた言語的特徴の組み合わせによって学習された表現を研究するためにそれらを使用します。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
論文 参考訳(メタデータ) (2020-04-17T09:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。