論文の概要: Hierarchical Poset Decoding for Compositional Generalization in Language
- arxiv url: http://arxiv.org/abs/2010.07792v1
- Date: Thu, 15 Oct 2020 14:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 03:00:46.221980
- Title: Hierarchical Poset Decoding for Compositional Generalization in Language
- Title(参考訳): 言語における合成一般化のための階層型ポセットデコーディング
- Authors: Yinuo Guo, Zeqi Lin, Jian-Guang Lou, Dongmei Zhang
- Abstract要約: 出力が部分的に順序付けられた集合(命題)である構造化予測タスクとして人間の言語理解を形式化する。
現在のエンコーダ・デコーダアーキテクチャは意味論のポーズ構造を適切に考慮していない。
本稿では,言語における合成一般化のための新しい階層型ポーズデコーディングパラダイムを提案する。
- 参考スコア(独自算出の注目度): 52.13611501363484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We formalize human language understanding as a structured prediction task
where the output is a partially ordered set (poset). Current encoder-decoder
architectures do not take the poset structure of semantics into account
properly, thus suffering from poor compositional generalization ability. In
this paper, we propose a novel hierarchical poset decoding paradigm for
compositional generalization in language. Intuitively: (1) the proposed
paradigm enforces partial permutation invariance in semantics, thus avoiding
overfitting to bias ordering information; (2) the hierarchical mechanism allows
to capture high-level structures of posets. We evaluate our proposed decoder on
Compositional Freebase Questions (CFQ), a large and realistic natural language
question answering dataset that is specifically designed to measure
compositional generalization. Results show that it outperforms current
decoders.
- Abstract(参考訳): 我々は、出力が半順序集合(poset)である構造化予測タスクとして、人間の言語理解を形式化する。
現在のエンコーダ・デコーダアーキテクチャは意味論のポーズ構造を適切に考慮していないため、構成一般化能力に乏しい。
本稿では,言語における合成一般化のための新しい階層型ポーズデコーディングパラダイムを提案する。
直感的に:(1)提案するパラダイムでは,意味論における部分的置換不変性が強制されるため,バイアス順序情報への過剰適合を回避できる。
我々は,構成的一般化を測定するために特別に設計された,大規模かつ現実的な自然言語質問応答データセットCFQについて,提案するデコーダの評価を行った。
結果は現在のデコーダよりも優れていることを示している。
関連論文リスト
- Learning Syntax Without Planting Trees: Understanding When and Why Transformers Generalize Hierarchically [74.96551626420188]
自然言語データに基づいて訓練されたトランスフォーマーは、その階層構造を学習し、目に見えない構文構造を持つ文に一般化することが示されている。
本研究では,変圧器モデルにおける帰納バイアスの発生源と,そのような一般化行動を引き起こす可能性のあるトレーニングについて検討する。
論文 参考訳(メタデータ) (2024-04-25T07:10:29Z) - Forming Trees with Treeformers [3.8073142980733]
トランスフォーマーのような最先端のニューラルネットワークモデルの多くは、そのアーキテクチャに明確な階層構造を持たない。
CKYアルゴリズムにインスパイアされた汎用エンコーダモジュールであるTreeformerを紹介する。
実験では, 階層構造をトランスフォーマーに組み込むことの利点を実証した。
論文 参考訳(メタデータ) (2022-07-14T14:39:30Z) - Compositional Generalization Requires Compositional Parsers [69.77216620997305]
直近のCOGSコーパスにおける構成原理によって導かれるシーケンス・ツー・シーケンスモデルとモデルを比較した。
構造一般化は構成一般化の重要な尺度であり、複雑な構造を認識するモデルを必要とする。
論文 参考訳(メタデータ) (2022-02-24T07:36:35Z) - Grounded Graph Decoding Improves Compositional Generalization in
Question Answering [68.72605660152101]
質問応答モデルは、長いシーケンスやより複雑なテスト構造のようなトレーニングパターンの新しい構成に一般化するのに苦労する。
構造化された予測をアテンション機構でグラウンド化することで,言語表現の合成一般化を改善する手法であるグラウンドドグラフデコーディングを提案する。
本モデルは,質問応答における合成一般化の挑戦的ベンチマークである構成自由ベース質問(CFQ)データセットにおいて,最先端のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2021-11-05T17:50:14Z) - Disentangled Sequence to Sequence Learning for Compositional
Generalization [62.954842223732435]
本稿では,ソース入力を適応的に再符号化することで,不整合表現の学習を可能にするシーケンス・ツー・シーケンス・モデルの拡張を提案する。
意味解析と機械翻訳の実験結果から,提案手法はより不整合な表現とより優れた一般化をもたらすことが示された。
論文 参考訳(メタデータ) (2021-10-09T22:27:19Z) - Improving Compositional Generalization in Classification Tasks via
Structure Annotations [33.90268697120572]
人間は構成を一般化する能力は大きいが、最先端のニューラルモデルはそれを行うのに苦労している。
まず、自然言語のシーケンス・ツー・シーケンス・データセットを、合成の一般化も必要とする分類データセットに変換する方法について検討する。
第二に、構造的ヒントを提供すること(特にトランスフォーマーモデルの注意マスクとしてパースツリーとエンティティリンクを提供すること)は、構成の一般化に役立つことを示す。
論文 参考訳(メタデータ) (2021-06-19T06:07:27Z) - Compositional Generalization via Semantic Tagging [81.24269148865555]
本稿では,シーケンス・ツー・シーケンスモデルの表現性と一般性を保存するための新しいデコードフレームワークを提案する。
提案手法は, モデルアーキテクチャ, ドメイン, セマンティックフォーマリズム間の構成一般化を一貫して改善することを示す。
論文 参考訳(メタデータ) (2020-10-22T15:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。