論文の概要: Pruned Graph Neural Network for Short Story Ordering
- arxiv url: http://arxiv.org/abs/2203.06778v1
- Date: Sun, 13 Mar 2022 22:25:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 06:20:19.806349
- Title: Pruned Graph Neural Network for Short Story Ordering
- Title(参考訳): ショートストーリーオーダリングのためのPruned Graph Neural Network
- Authors: Melika Golestani, Zeinab Borhanifard, Farnaz Tahmasebian, and Heshaam
Faili
- Abstract要約: コヒーレンスを最大化する順序に文を整理することは、文の順序付けとして知られている。
そこで本研究では,文章間のエッジを生成するために,短い物語の文中心グラフを構築する手法を提案する。
また,代名詞を代名詞の代名詞に置き換えることによって,文中心性グラフの文を効果的にエンコードすることが観察された。
- 参考スコア(独自算出の注目度): 0.7087237546722617
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text coherence is a fundamental problem in natural language generation and
understanding. Organizing sentences into an order that maximizes coherence is
known as sentence ordering. This paper is proposing a new approach based on the
graph neural network approach to encode a set of sentences and learn orderings
of short stories. We propose a new method for constructing sentence-entity
graphs of short stories to create the edges between sentences and reduce noise
in our graph by replacing the pronouns with their referring entities. We
improve the sentence ordering by introducing an aggregation method based on
majority voting of state-of-the-art methods and our proposed one. Our approach
employs a BERT-based model to learn semantic representations of the sentences.
The results demonstrate that the proposed method significantly outperforms
existing baselines on a corpus of short stories with a new state-of-the-art
performance in terms of Perfect Match Ratio (PMR) and Kendall's Tau (Tau)
metrics. More precisely, our method increases PMR and Tau criteria by more than
5% and 4.3%, respectively. These outcomes highlight the benefit of forming the
edges between sentences based on their cosine similarity. We also observe that
replacing pronouns with their referring entities effectively encodes sentences
in sentence-entity graphs.
- Abstract(参考訳): テキストコヒーレンスは自然言語の生成と理解における根本的な問題である。
文をコヒーレンスを最大化する順序に整理することは、文順序と呼ばれる。
本稿では,文の集合を符号化し,短編の順序を学習するためのグラフニューラルネットワークアプローチに基づく新しいアプローチを提案する。
そこで本研究では,短文の文実体グラフを構築し,文間のエッジを作成し,代名詞を参照エンティティに置き換えることで,文の雑音を低減する新しい手法を提案する。
我々は,最先端手法の多数決に基づく集計手法を導入し,文の順序付けを改善した。
提案手法では,文の意味表現の学習にBERTに基づくモデルを用いる。
その結果,提案手法は,PMR(Perfect Match Ratio)とKendall's Tau(Tau)の指標を用いて,新しい最先端性能を持つ短編のコーパスにおいて,既存のベースラインを著しく上回ることを示した。
より正確には,本手法はPMRおよびTau基準を5%以上,Tau基準を4.3%以上向上させる。
これらの結果は、コサインの類似性に基づいて文間の縁を形成する利点を強調している。
また,代名詞から参照エンティティへの置換は,文実体グラフの文を効果的にエンコードする。
関連論文リスト
- A Novel Word Pair-based Gaussian Sentence Similarity Algorithm For Bengali Extractive Text Summarization [1.3791394805787949]
本稿では,2つの文間の意味的関係を計算するために,ワードペアベースのガウス文類似性(WGSS)アルゴリズムを提案する。
単語平均化法で直面する文表現問題を補正する単語対単語ベースで2つの文を比較する。
提案手法は, 4つの異なるデータセットを用いて検証し, ROUGEの平均値に対して43.2%向上した。
論文 参考訳(メタデータ) (2024-11-26T07:42:16Z) - DenoSent: A Denoising Objective for Self-Supervised Sentence
Representation Learning [59.4644086610381]
本稿では,他の視点,すなわち文内視点から継承する新たな認知的目的を提案する。
離散ノイズと連続ノイズの両方を導入することで、ノイズの多い文を生成し、モデルを元の形式に復元するように訓練する。
我々の経験的評価は,本手法が意味的テキスト類似性(STS)と幅広い伝達タスクの両面で競合する結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-24T17:48:45Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Hierarchical Heterogeneous Graph Representation Learning for Short Text
Classification [60.233529926965836]
短文分類のためのグラフニューラルネットワーク(GNN)に基づく ShiNE と呼ばれる新しい手法を提案する。
まず,短文データセットを単語レベル成分グラフからなる階層的不均一グラフとしてモデル化する。
そして、類似した短いテキスト間の効果的なラベル伝搬を容易にするショート文書グラフを動的に学習する。
論文 参考訳(メタデータ) (2021-10-30T05:33:05Z) - Sentence Structure and Word Relationship Modeling for Emphasis Selection [33.71757542373714]
強調選択は、短い文で強調する単語の選択に焦点を当てた、新しく提案されたタスクである。
従来の手法では、リッチな文構造と単語関係情報を無視しながら、文のシーケンス情報のみを考慮する。
本稿では,文構造グラフによる文構造と,単語類似性グラフによる単語関係を考慮した新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-29T04:43:25Z) - Using BERT Encoding and Sentence-Level Language Model for Sentence
Ordering [0.9134244356393667]
本稿では,短い記事のコーパスにおける文順序付けのアルゴリズムを提案する。
提案手法では,アテンション機構を用いて文の依存関係をキャプチャするUniversal Transformer (UT) に基づく言語モデルを用いる。
提案モデルには文、言語モデル、Brute Force Searchによる文配列の3つのコンポーネントが含まれている。
論文 参考訳(メタデータ) (2021-08-24T23:03:36Z) - Three Sentences Are All You Need: Local Path Enhanced Document Relation
Extraction [54.95848026576076]
本稿では,文書レベルREのエビデンス文を選択するための,恥ずかしいほど単純だが効果的な方法を提案する。
私たちはhttps://github.com/AndrewZhe/Three-Sentences-Are-All-You-Need.comでコードを公開しました。
論文 参考訳(メタデータ) (2021-06-03T12:29:40Z) - InsertGNN: Can Graph Neural Networks Outperform Humans in TOEFL Sentence
Insertion Problem? [66.70154236519186]
センテンス挿入は繊細だが基本的なNLP問題である。
文順序付け、テキストコヒーレンス、質問応答(QA)の現在のアプローチは、その解決には適さない。
本稿では,この問題をグラフとして表現し,グラフニューラルネットワーク(GNN)を用いて文間の関係を学習するモデルであるInsertGNNを提案する。
論文 参考訳(メタデータ) (2021-03-28T06:50:31Z) - Neural Sentence Ordering Based on Constraint Graphs [32.14555157902546]
文順序付けは、正しい順序で文のリストを整理することを目的としている。
文間の多粒性順序に基づく新しいアプローチを考案する。
これらの順序は複数の制約グラフを形成し、グラフ同型ネットワークによって符号化され、文表現に融合される。
論文 参考訳(メタデータ) (2021-01-27T02:53:10Z) - Unsupervised Extractive Summarization by Pre-training Hierarchical
Transformers [107.12125265675483]
教師なし抽出文書要約は、訓練中にラベル付き要約を用いることなく、文書から重要な文章を選択することを目的としている。
既存の手法は主にグラフベースで、文をノードとして、エッジの重みは文の類似性によって測定される。
教師なし抽出要約のための文のランク付けにはトランスフォーマーの注意が利用できることがわかった。
論文 参考訳(メタデータ) (2020-10-16T08:44:09Z) - Inducing Alignment Structure with Gated Graph Attention Networks for
Sentence Matching [24.02847802702168]
本稿では,文マッチングのためのグラフベースの手法を提案する。
文ペアをグラフとして表現し、慎重に設計する。
次に,文マッチングのために構築したグラフを符号化するために,新しいゲートグラフアテンションネットワークを用いる。
論文 参考訳(メタデータ) (2020-10-15T11:25:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。