論文の概要: ABCD: A Graph Framework to Convert Complex Sentences to a Covering Set
of Simple Sentences
- arxiv url: http://arxiv.org/abs/2106.12027v1
- Date: Tue, 22 Jun 2021 19:31:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-06-24 15:37:20.887949
- Title: ABCD: A Graph Framework to Convert Complex Sentences to a Covering Set
of Simple Sentences
- Title(参考訳): ABCD:複雑な文を単純な文のカバーセットに変換するグラフフレームワーク
- Authors: Yanjun Gao, Ting-hao (Kenneth) Huang, Rebecca J. Passonneau
- Abstract要約: 本稿では,各複雑な文を,ソースのテンション付き節から派生した単純な文に分解するタスクを提案する。
私たちのニューラルモデルは、単語の隣接性と文法的依存関係を組み合わせたグラフのアクセプション、ブレーク、コピー、ドロップの各要素を学びます。
複雑な文分解の訓練と評価を目的とした新しいデータセットであるDeSSEを紹介する。
- 参考スコア(独自算出の注目度): 7.639576741566091
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Atomic clauses are fundamental text units for understanding complex
sentences. Identifying the atomic sentences within complex sentences is
important for applications such as summarization, argument mining, discourse
analysis, discourse parsing, and question answering. Previous work mainly
relies on rule-based methods dependent on parsing. We propose a new task to
decompose each complex sentence into simple sentences derived from the tensed
clauses in the source, and a novel problem formulation as a graph edit task.
Our neural model learns to Accept, Break, Copy or Drop elements of a graph that
combines word adjacency and grammatical dependencies. The full processing
pipeline includes modules for graph construction, graph editing, and sentence
generation from the output graph. We introduce DeSSE, a new dataset designed to
train and evaluate complex sentence decomposition, and MinWiki, a subset of
MinWikiSplit. ABCD achieves comparable performance as two parsing baselines on
MinWiki. On DeSSE, which has a more even balance of complex sentence types, our
model achieves higher accuracy on the number of atomic sentences than an
encoder-decoder baseline. Results include a detailed error analysis.
- Abstract(参考訳): アトミック節は複雑な文を理解するための基本的なテキスト単位である。
複雑な文内の原子文の識別は、要約、引数マイニング、談話分析、談話解析、質問応答といった応用において重要である。
以前の仕事は、主にパースに依存するルールベースのメソッドに依存している。
本稿では,各複雑な文をソースのテンション付き節から派生した単純な文に分解する新たなタスクを提案し,グラフ編集タスクとしての新たな問題定式化を提案する。
我々のニューラルモデルは、単語の隣接性と文法的依存関係を組み合わせたグラフのアクセプション、ブレーク、コピー、ドロップの各要素を学ぶ。
完全な処理パイプラインは、グラフ構築、グラフ編集、および出力グラフからの文生成のためのモジュールを含む。
我々は、複雑な文の分解を訓練し評価するための新しいデータセットであるDeSSEと、MinWikiSplitのサブセットであるMinWikiを紹介する。
ABCDはMinWikiの2つの解析ベースラインと同等のパフォーマンスを達成している。
複雑な文型のバランスがより均一なDeSSEでは、エンコーダ-デコーダベースラインよりも原子文数の精度が高い。
結果は詳細なエラー解析を含む。
関連論文リスト
- Conjunct Resolution in the Face of Verbal Omissions [51.220650412095665]
本稿では,テキスト上で直接動作する接続分解タスクを提案し,コーディネーション構造に欠けている要素を復元するために,分割・言い換えパラダイムを利用する。
クラウドソースアノテーションによる自然に発生する動詞の省略例を10万件以上を含む,大規模なデータセットをキュレートする。
我々は、このタスクのために様々な神経ベースラインをトレーニングし、最良の手法が適切なパフォーマンスを得る一方で、改善のための十分なスペースを残していることを示す。
論文 参考訳(メタデータ) (2023-05-26T08:44:02Z) - Syntactic Complexity Identification, Measurement, and Reduction Through
Controlled Syntactic Simplification [0.0]
本稿では,複合文と複合文を簡易文の集合に分割・言い換える,古典的な構文的依存性に基づく手法を提案する。
また,文の構文的複雑さを同定し,測定するアルゴリズムも導入した。
この研究は、WSDM-2023 Conferenceにおいて、Learning with Knowledge Graphs (IWLKG) に関する国際ワークショップで受け入れられ、発表された。
論文 参考訳(メタデータ) (2023-04-16T13:13:58Z) - Grounded Graph Decoding Improves Compositional Generalization in
Question Answering [68.72605660152101]
質問応答モデルは、長いシーケンスやより複雑なテスト構造のようなトレーニングパターンの新しい構成に一般化するのに苦労する。
構造化された予測をアテンション機構でグラウンド化することで,言語表現の合成一般化を改善する手法であるグラウンドドグラフデコーディングを提案する。
本モデルは,質問応答における合成一般化の挑戦的ベンチマークである構成自由ベース質問(CFQ)データセットにおいて,最先端のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2021-11-05T17:50:14Z) - Clustering and Network Analysis for the Embedding Spaces of Sentences
and Sub-Sentences [69.3939291118954]
本稿では,文とサブ文の埋め込みを対象とする包括的クラスタリングとネットワーク解析について検討する。
その結果,1つの手法が最もクラスタリング可能な埋め込みを生成することがわかった。
一般に、スパン部分文の埋め込みは、原文よりもクラスタリング特性が優れている。
論文 参考訳(メタデータ) (2021-10-02T00:47:35Z) - Using BERT Encoding and Sentence-Level Language Model for Sentence
Ordering [0.9134244356393667]
本稿では,短い記事のコーパスにおける文順序付けのアルゴリズムを提案する。
提案手法では,アテンション機構を用いて文の依存関係をキャプチャするUniversal Transformer (UT) に基づく言語モデルを用いる。
提案モデルには文、言語モデル、Brute Force Searchによる文配列の3つのコンポーネントが含まれている。
論文 参考訳(メタデータ) (2021-08-24T23:03:36Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z) - Inducing Alignment Structure with Gated Graph Attention Networks for
Sentence Matching [24.02847802702168]
本稿では,文マッチングのためのグラフベースの手法を提案する。
文ペアをグラフとして表現し、慎重に設計する。
次に,文マッチングのために構築したグラフを符号化するために,新しいゲートグラフアテンションネットワークを用いる。
論文 参考訳(メタデータ) (2020-10-15T11:25:54Z) - ASSET: A Dataset for Tuning and Evaluation of Sentence Simplification
Models with Multiple Rewriting Transformations [97.27005783856285]
本稿では,英語で文の単純化を評価するための新しいデータセットであるASSETを紹介する。
ASSETの単純化は、タスクの他の標準評価データセットと比較して、単純さの特徴を捉えるのに優れていることを示す。
論文 参考訳(メタデータ) (2020-05-01T16:44:54Z) - CompLex: A New Corpus for Lexical Complexity Prediction from Likert
Scale Data [13.224233182417636]
本稿では,連続語彙複雑性予測のための最初の英語データセットを提案する。
我々は5点のLikertスケールスキームを用いて、聖書、Europarl、バイオメディカルテキストの3つのソース/ドメインから、複雑な単語をテキストに注釈付けする。
論文 参考訳(メタデータ) (2020-03-16T03:54:22Z) - Fact-aware Sentence Split and Rephrase with Permutation Invariant
Training [93.66323661321113]
Sentence Split と Rephrase は、複雑な文をいくつかの単純な文に分解し、その意味を保存することを目的としている。
従来の研究では、パラレル文対からのSeq2seq学習によってこの問題に対処する傾向があった。
本稿では,この課題に対するSeq2seq学習における順序分散の効果を検証するために,置換訓練を導入する。
論文 参考訳(メタデータ) (2020-01-16T07:30:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。