論文の概要: Compositional Generalization via Semantic Tagging
- arxiv url: http://arxiv.org/abs/2010.11818v2
- Date: Thu, 9 Sep 2021 08:42:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 06:41:19.381611
- Title: Compositional Generalization via Semantic Tagging
- Title(参考訳): 意味タグによる合成一般化
- Authors: Hao Zheng and Mirella Lapata
- Abstract要約: 本稿では,シーケンス・ツー・シーケンスモデルの表現性と一般性を保存するための新しいデコードフレームワークを提案する。
提案手法は, モデルアーキテクチャ, ドメイン, セマンティックフォーマリズム間の構成一般化を一貫して改善することを示す。
- 参考スコア(独自算出の注目度): 81.24269148865555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although neural sequence-to-sequence models have been successfully applied to
semantic parsing, they fail at compositional generalization, i.e., they are
unable to systematically generalize to unseen compositions of seen components.
Motivated by traditional semantic parsing where compositionality is explicitly
accounted for by symbolic grammars, we propose a new decoding framework that
preserves the expressivity and generality of sequence-to-sequence models while
featuring lexicon-style alignments and disentangled information processing.
Specifically, we decompose decoding into two phases where an input utterance is
first tagged with semantic symbols representing the meaning of individual
words, and then a sequence-to-sequence model is used to predict the final
meaning representation conditioning on the utterance and the predicted tag
sequence. Experimental results on three semantic parsing datasets show that the
proposed approach consistently improves compositional generalization across
model architectures, domains, and semantic formalisms.
- Abstract(参考訳): ニューラルネットワークのシーケンスからシーケンスへのモデルは意味解析にうまく適用されているが、合成の一般化、すなわち見掛けられたコンポーネントの見当たらない合成に体系的に一般化することができない。
合成性は記号文法によって明示的に説明される伝統的な意味解析によって動機付けられ,語彙型アライメントとアンタングル情報処理を特徴とするシーケンス・ツー・シーケンスモデルの表現性と一般性を保持する新しいデコードフレームワークを提案する。
具体的には、まず入力発話が個々の単語の意味を表す意味記号でタグ付けされた2つのフェーズに分解し、次に、列から列までのモデルを用いて、発話と予測されたタグシーケンスの最終的な意味表現条件を予測する。
3つのセマンティック解析データセットの実験結果から,提案手法はモデルアーキテクチャ,ドメイン,セマンティックフォーマリズム間の合成一般化を一貫して改善することが示された。
関連論文リスト
- Learning Syntax Without Planting Trees: Understanding When and Why Transformers Generalize Hierarchically [74.96551626420188]
自然言語データに基づいて訓練されたトランスフォーマーは、その階層構造を学習し、目に見えない構文構造を持つ文に一般化することが示されている。
本研究では,変圧器モデルにおける帰納バイアスの発生源と,そのような一般化行動を引き起こす可能性のあるトレーニングについて検討する。
論文 参考訳(メタデータ) (2024-04-25T07:10:29Z) - Variational Cross-Graph Reasoning and Adaptive Structured Semantics
Learning for Compositional Temporal Grounding [143.5927158318524]
テンポラルグラウンドティング(Temporal grounding)とは、クエリ文に従って、未編集のビデオから特定のセグメントを特定するタスクである。
新たに構成時間グラウンドタスクを導入し,2つの新しいデータセット分割を構築した。
ビデオや言語に内在する構造的意味論は、構成的一般化を実現する上で重要な要素である、と我々は主張する。
論文 参考訳(メタデータ) (2023-01-22T08:02:23Z) - Compositional Generalization Requires Compositional Parsers [69.77216620997305]
直近のCOGSコーパスにおける構成原理によって導かれるシーケンス・ツー・シーケンスモデルとモデルを比較した。
構造一般化は構成一般化の重要な尺度であり、複雑な構造を認識するモデルを必要とする。
論文 参考訳(メタデータ) (2022-02-24T07:36:35Z) - Plurality and Quantification in Graph Representation of Meaning [4.82512586077023]
我々のグラフ言語は、モナディックな2階変数のみを用いた自然言語意味論の本質を網羅している。
単純な構文意味インタフェースで意味グラフを構築するための統一型機構を提案する。
現在のグラフ形式は、分配的述語、カテゴリー横断接続、および量化表現のスコープ置換における言語問題に適用される。
論文 参考訳(メタデータ) (2021-12-13T07:04:41Z) - Disentangled Sequence to Sequence Learning for Compositional
Generalization [62.954842223732435]
本稿では,ソース入力を適応的に再符号化することで,不整合表現の学習を可能にするシーケンス・ツー・シーケンス・モデルの拡張を提案する。
意味解析と機械翻訳の実験結果から,提案手法はより不整合な表現とより優れた一般化をもたらすことが示された。
論文 参考訳(メタデータ) (2021-10-09T22:27:19Z) - Improving Compositional Generalization in Classification Tasks via
Structure Annotations [33.90268697120572]
人間は構成を一般化する能力は大きいが、最先端のニューラルモデルはそれを行うのに苦労している。
まず、自然言語のシーケンス・ツー・シーケンス・データセットを、合成の一般化も必要とする分類データセットに変換する方法について検討する。
第二に、構造的ヒントを提供すること(特にトランスフォーマーモデルの注意マスクとしてパースツリーとエンティティリンクを提供すること)は、構成の一般化に役立つことを示す。
論文 参考訳(メタデータ) (2021-06-19T06:07:27Z) - Hierarchical Poset Decoding for Compositional Generalization in Language [52.13611501363484]
出力が部分的に順序付けられた集合(命題)である構造化予測タスクとして人間の言語理解を形式化する。
現在のエンコーダ・デコーダアーキテクチャは意味論のポーズ構造を適切に考慮していない。
本稿では,言語における合成一般化のための新しい階層型ポーズデコーディングパラダイムを提案する。
論文 参考訳(メタデータ) (2020-10-15T14:34:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。