論文の概要: Recognizing semantic relation in sentence pairs using Tree-RNNs and
Typed dependencies
- arxiv url: http://arxiv.org/abs/2201.04810v1
- Date: Thu, 13 Jan 2022 06:59:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-14 13:07:45.158891
- Title: Recognizing semantic relation in sentence pairs using Tree-RNNs and
Typed dependencies
- Title(参考訳): Tree-RNNとTypedによる文対の意味関係の認識
- Authors: Jeena Kleenankandy, K A Abdul Nazeer
- Abstract要約: 本研究では,依存性解析で同定された文法的関係型を用いた依存性ツリーRNN(DT-RNN)の改良を提案する。
SICKデータセットを用いた文対における意味関連性スコアリング(SRS)とテキストエンタテインメント(RTE)の認識実験は,有意な結果を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recursive neural networks (Tree-RNNs) based on dependency trees are
ubiquitous in modeling sentence meanings as they effectively capture semantic
relationships between non-neighborhood words. However, recognizing semantically
dissimilar sentences with the same words and syntax is still a challenge to
Tree-RNNs. This work proposes an improvement to Dependency Tree-RNN (DT-RNN)
using the grammatical relationship type identified in the dependency parse. Our
experiments on semantic relatedness scoring (SRS) and recognizing textual
entailment (RTE) in sentence pairs using SICK (Sentence Involving Compositional
Knowledge) dataset show encouraging results. The model achieved a 2%
improvement in classification accuracy for the RTE task over the DT-RNN model.
The results show that Pearson's and Spearman's correlation measures between the
model's predicted similarity scores and human ratings are higher than those of
standard DT-RNNs.
- Abstract(参考訳): 係り受け木に基づく再帰的ニューラルネットワーク(tree-rnn)は文の意味のモデル化においてユビキタスである。
しかし、同じ単語と構文で意味的に異なる文を認識することは、Tree-RNNにとって依然として課題である。
本研究では,依存性解析で同定された文法的関係型を用いた依存性ツリーRNN(DT-RNN)の改良を提案する。
SICK(Sentence Involving Compositional Knowledge)データセットを用いた文対における意味的関連性評価(SRS)とテキスト・エンターメント(RTE)の認識実験を行った。
このモデルはdt-rnnモデルよりもrteタスクの分類精度が2%向上した。
その結果,pearson と spearman の相関尺度は標準の dt-rnn よりも高いことがわかった。
関連論文リスト
- Entity-Aware Self-Attention and Contextualized GCN for Enhanced Relation Extraction in Long Sentences [5.453850739960517]
本稿では,入力文の構文構造とシーケンスの意味的文脈を効率的に組み込んだ,エンティティを意識した自己意図型GCN(ESC-GCN)を提案する。
本モデルでは,既存の依存性ベースモデルやシーケンスベースモデルと比較して,パフォーマンスの向上を実現している。
論文 参考訳(メタデータ) (2024-09-15T10:50:51Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Can RNNs learn Recursive Nested Subject-Verb Agreements? [4.094098809740732]
言語処理にはネストした木構造を抽出する機能が必要である。
リカレントニューラルネットワーク(RNN)の最近の進歩は、いくつかの言語タスクでほぼ人間に近いパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-01-06T20:47:02Z) - R$^2$-Net: Relation of Relation Learning Network for Sentence Semantic
Matching [58.72111690643359]
文意味マッチングのための関係学習ネットワーク(R2-Net)を提案する。
最初にBERTを使用して、グローバルな視点から入力文をエンコードします。
次に、cnnベースのエンコーダは、ローカルな視点からキーワードやフレーズ情報をキャプチャするように設計されている。
関係情報抽出にラベルを十分に活用するために,関係分類タスクの自己教師付き関係性を導入する。
論文 参考訳(メタデータ) (2020-12-16T13:11:30Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - High-order Semantic Role Labeling [86.29371274587146]
本稿では,ニューラルセマンティックロールラベリングモデルのための高階グラフ構造を提案する。
これにより、モデルは孤立述語-引数対だけでなく、述語-引数対間の相互作用も明示的に考慮することができる。
CoNLL-2009ベンチマークの7つの言語に対する実験結果から、高次構造学習技術は強力なSRLモデルに有益であることが示された。
論文 参考訳(メタデータ) (2020-10-09T15:33:54Z) - Building Interpretable Interaction Trees for Deep NLP Models [38.50154540331266]
文中の成分間の相互作用の特性を解析するための6つの指標が提案されている。
本手法は,BERT,ELMo,LSTM,CNN,Transformerネットワーク内で符号化された単語の相互作用を定量化する。
論文 参考訳(メタデータ) (2020-06-29T10:26:50Z) - Combining word embeddings and convolutional neural networks to detect
duplicated questions [0.0]
本稿では,単語埋め込みと畳み込みニューラルネットワークの強みを組み合わせることで,意味論的に類似した質問を識別する簡単な手法を提案する。
私たちのネットワークは、400万以上の質問ペアを含むQuoraデータセットでトレーニングされています。
論文 参考訳(メタデータ) (2020-06-08T12:30:25Z) - Exploiting Syntactic Structure for Better Language Modeling: A Syntactic
Distance Approach [78.77265671634454]
我々はマルチタスクの目的、すなわち、モデルが単語を同時に予測し、また「シンタクティック距離」と呼ばれる形態で真実解析木を解析する。
Penn Treebank と Chinese Treebank のデータセットによる実験結果から,地上の真理解析木を追加の訓練信号として提供すると,そのモデルはより低いパープレキシティを実現し,より良い品質で木を誘導できることが示された。
論文 参考訳(メタデータ) (2020-05-12T15:35:00Z) - Linguistically Driven Graph Capsule Network for Visual Question
Reasoning [153.76012414126643]
我々は「言語的に駆動されるグラフカプセルネットワーク」と呼ばれる階層的構成推論モデルを提案する。
具体的には,各カプセルを最下層に結合させ,元の質問に1つの単語を埋め込んだ言語的埋め込みを視覚的証拠で橋渡しする。
CLEVRデータセット、CLEVR合成生成テスト、およびFinalQAデータセットの実験は、我々のエンドツーエンドモデルの有効性と構成一般化能力を示す。
論文 参考訳(メタデータ) (2020-03-23T03:34:25Z) - An enhanced Tree-LSTM architecture for sentence semantic modeling using
typed dependencies [0.0]
Tree-based Long short term memory (LSTM) ネットワークは、言語テキストの意味をモデル化するための最先端技術となっている。
本稿では、シーケンスの2つの入力間の関係をモデル化できる、リレーショナルゲートLSTMと呼ばれる拡張LSTMアーキテクチャを提案する。
また、文依存解析構造と依存型を用いて、文の意味を密度の高いベクトルに埋め込むTyped Dependency Tree-LSTMモデルを導入する。
論文 参考訳(メタデータ) (2020-02-18T18:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。