論文の概要: Unsupervised Learning of Explainable Parse Trees for Improved
Generalisation
- arxiv url: http://arxiv.org/abs/2104.04998v1
- Date: Sun, 11 Apr 2021 12:10:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:37:47.990366
- Title: Unsupervised Learning of Explainable Parse Trees for Improved
Generalisation
- Title(参考訳): 一般化改善のための説明可能な解析木の教師なし学習
- Authors: Atul Sahay, Ayush Maheshwari, Ritesh Kumar, Ganesh Ramakrishnan,
Manjesh Kumar Hanawal, Kavi Arya
- Abstract要約: より有意義で説明しやすい解析木構造を学ぶために、Tree-LSTMよりも注意メカニズムを提案します。
また,提案モデルの自然言語推論,意味的関連性,感情分析タスクにおける優れた性能を示す。
- 参考スコア(独自算出の注目度): 15.576061447736057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recursive neural networks (RvNN) have been shown useful for learning sentence
representations and helped achieve competitive performance on several natural
language inference tasks. However, recent RvNN-based models fail to learn
simple grammar and meaningful semantics in their intermediate tree
representation. In this work, we propose an attention mechanism over Tree-LSTMs
to learn more meaningful and explainable parse tree structures. We also
demonstrate the superior performance of our proposed model on natural language
inference, semantic relatedness, and sentiment analysis tasks and compare them
with other state-of-the-art RvNN based methods. Further, we present a detailed
qualitative and quantitative analysis of the learned parse trees and show that
the discovered linguistic structures are more explainable, semantically
meaningful, and grammatically correct than recent approaches. The source code
of the paper is available at
https://github.com/atul04/Explainable-Latent-Structures-Using-Attention.
- Abstract(参考訳): 再帰的ニューラルネットワーク(rvnn)は文表現の学習に有用であり、いくつかの自然言語推論タスクにおいて競合性能を達成するのに役立った。
しかし、最近のRvNNベースのモデルは、その中間木表現において単純な文法や意味的な意味学を学ばない。
本稿では,より有意義で説明可能な解析木構造を学ぶために,木-lstmsに対する注意機構を提案する。
また,提案モデルの自然言語推論,意味的関連性,感情分析タスクにおける優れた性能を実証し,他の最先端rvnnベース手法と比較した。
さらに, 学習したパース木の質的, 定量的解析を行い, 発見された言語構造が近年のアプローチよりも説明可能, 意味的, 文法的に正しいことを示す。
論文のソースコードはhttps://github.com/atul04/explainable-latent-structures-using-attentionで入手できる。
関連論文リスト
- Incorporating Constituent Syntax for Coreference Resolution [50.71868417008133]
本稿では,構成構文構造をグラフベースで組み込む手法を提案する。
また、高次近傍情報を利用して構成木に富んだ構造をエンコードすることも検討する。
on the English and Chinese parts of OntoNotes 5.0 benchmark shows that our proposed model beats a strong baseline or a new-of-the-art performance。
論文 参考訳(メタデータ) (2022-02-22T07:40:42Z) - Learning Gradual Argumentation Frameworks using Genetic Algorithms [5.953590600890214]
本稿では,議論型分類モデルの構造を同時に学習する遺伝的アルゴリズムを提案する。
本プロトタイプでは,学習性能と解釈可能性の観点から,決定木に匹敵する論証的分類モデルを学習する。
論文 参考訳(メタデータ) (2021-06-25T12:33:31Z) - Learning compositional structures for semantic graph parsing [81.41592892863979]
本稿では、AM依存性解析をニューラル潜在変数モデルで直接トレーニングする方法を示す。
本モデルでは,いくつかの言語現象を独自に把握し,教師あり学習に匹敵する精度を達成している。
論文 参考訳(メタデータ) (2021-06-08T14:20:07Z) - Can RNNs learn Recursive Nested Subject-Verb Agreements? [4.094098809740732]
言語処理にはネストした木構造を抽出する機能が必要である。
リカレントニューラルネットワーク(RNN)の最近の進歩は、いくつかの言語タスクでほぼ人間に近いパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-01-06T20:47:02Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - Recursive Top-Down Production for Sentence Generation with Latent Trees [77.56794870399288]
自然および合成言語に対する文脈自由文法の生成特性をモデル化する。
潜伏二分木構造にN$の葉を持つ動的プログラミングアルゴリズムを提案する。
また,Multi30kデータセットを用いたドイツ語と英語の翻訳実験を行った。
論文 参考訳(メタデータ) (2020-10-09T17:47:16Z) - Exploiting Syntactic Structure for Better Language Modeling: A Syntactic
Distance Approach [78.77265671634454]
我々はマルチタスクの目的、すなわち、モデルが単語を同時に予測し、また「シンタクティック距離」と呼ばれる形態で真実解析木を解析する。
Penn Treebank と Chinese Treebank のデータセットによる実験結果から,地上の真理解析木を追加の訓練信号として提供すると,そのモデルはより低いパープレキシティを実現し,より良い品質で木を誘導できることが示された。
論文 参考訳(メタデータ) (2020-05-12T15:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。