論文の概要: Sentence Compression as Deletion with Contextual Embeddings
- arxiv url: http://arxiv.org/abs/2006.03210v1
- Date: Fri, 5 Jun 2020 02:40:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 03:17:21.711187
- Title: Sentence Compression as Deletion with Contextual Embeddings
- Title(参考訳): 文脈埋め込みによる削除としての文圧縮
- Authors: Minh-Tien Nguyen and Bui Cong Minh and Dung Tien Le and Le Thai Linh
- Abstract要約: 我々は、入力のコンテキストをキャプチャするモデルを可能にするコンテキスト埋め込みを利用する。
Googleデータセットのベンチマークによる実験結果から,文脈埋め込みを利用することで,このモデルが新たな最先端のFスコアを実現することが示された。
- 参考スコア(独自算出の注目度): 3.3263205689999444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sentence compression is the task of creating a shorter version of an input
sentence while keeping important information. In this paper, we extend the task
of compression by deletion with the use of contextual embeddings. Different
from prior work usually using non-contextual embeddings (Glove or Word2Vec), we
exploit contextual embeddings that enable our model capturing the context of
inputs. More precisely, we utilize contextual embeddings stacked by
bidirectional Long-short Term Memory and Conditional Random Fields for dealing
with sequence labeling. Experimental results on a benchmark Google dataset show
that by utilizing contextual embeddings, our model achieves a new
state-of-the-art F-score compared to strong methods reported on the leader
board.
- Abstract(参考訳): 文圧縮は、重要な情報を保持しながら、入力文の短いバージョンを作成するタスクである。
本稿では,文脈埋め込みを用いて,削除による圧縮作業を拡張する。
通常、非コンテキスト埋め込み(GloveやWord2Vec)を使った以前の作業とは違い、コンテキスト埋め込みを利用して入力のコンテキストをキャプチャします。
より正確には、双方向長短項記憶と条件ランダムフィールドを重畳したコンテキスト埋め込みを用いてシーケンスラベリングを扱う。
ベンチマークgoogleデータセットにおける実験の結果は、コンテキスト埋め込みを利用することで、リーダボードで報告された強力なメソッドと比較して、新たな最先端のf-scoreが実現できることを示しています。
関連論文リスト
- Conjunct Resolution in the Face of Verbal Omissions [51.220650412095665]
本稿では,テキスト上で直接動作する接続分解タスクを提案し,コーディネーション構造に欠けている要素を復元するために,分割・言い換えパラダイムを利用する。
クラウドソースアノテーションによる自然に発生する動詞の省略例を10万件以上を含む,大規模なデータセットをキュレートする。
我々は、このタスクのために様々な神経ベースラインをトレーニングし、最良の手法が適切なパフォーマンスを得る一方で、改善のための十分なスペースを残していることを示す。
論文 参考訳(メタデータ) (2023-05-26T08:44:02Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Unsupervised Matching of Data and Text [6.2520079463149205]
テキストコンテンツと構造化データとを教師なし設定でマッチングするフレームワークを導入する。
提案手法は,コーパスの内容に対して微細なグラフを構築し,低次元空間で一致する対象を表現するために単語埋め込みを導出する。
実使用事例と公開データセットの実験により、我々のフレームワークは単語埋め込みや微調整言語モデルよりも優れた埋め込みを生成することが示された。
論文 参考訳(メタデータ) (2021-12-16T10:40:48Z) - Clustering and Network Analysis for the Embedding Spaces of Sentences
and Sub-Sentences [69.3939291118954]
本稿では,文とサブ文の埋め込みを対象とする包括的クラスタリングとネットワーク解析について検討する。
その結果,1つの手法が最もクラスタリング可能な埋め込みを生成することがわかった。
一般に、スパン部分文の埋め込みは、原文よりもクラスタリング特性が優れている。
論文 参考訳(メタデータ) (2021-10-02T00:47:35Z) - Text Ranking and Classification using Data Compression [1.332560004325655]
テキスト分類における言語に依存しないアプローチを提案する。
我々は、Zstandard圧縮機を使用し、これらのアイデアをいくつかの方法で強化し、結果のテクニックをZestと呼ぶ。
Zestは実運用環境における言語固有の多次元コンテンツ埋め込みと競合するが,公開データセット上の他のカウント手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-09-23T18:13:17Z) - A Condense-then-Select Strategy for Text Summarization [53.10242552203694]
テキスト要約のための新しいcondense-then-selectフレームワークを提案する。
我々のフレームワークは、文レベルの圧縮の効率を高く保ちながら、有能な情報の損失を避けるのに役立ちます。
論文 参考訳(メタデータ) (2021-06-19T10:33:10Z) - A Comparative Study on Structural and Semantic Properties of Sentence
Embeddings [77.34726150561087]
本稿では,関係抽出に広く利用されている大規模データセットを用いた実験セットを提案する。
異なる埋め込み空間は、構造的および意味的特性に対して異なる強度を持つことを示す。
これらの結果は,埋め込み型関係抽出法の開発に有用な情報を提供する。
論文 参考訳(メタデータ) (2020-09-23T15:45:32Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。