論文の概要: LSBert: A Simple Framework for Lexical Simplification
- arxiv url: http://arxiv.org/abs/2006.14939v1
- Date: Thu, 25 Jun 2020 09:15:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 04:26:02.960797
- Title: LSBert: A Simple Framework for Lexical Simplification
- Title(参考訳): LSBert: 語彙単純化のためのシンプルなフレームワーク
- Authors: Jipeng Qiang and Yun Li and Yi Zhu and Yunhao Yuan and Xindong Wu
- Abstract要約: 本稿では,事前学習した表現モデルBertに基づく語彙単純化フレームワークLSBertを提案する。
本システムでは,文法的に正確かつ意味論的に適切である語彙的単純化を出力する。
- 参考スコア(独自算出の注目度): 32.75631197427934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lexical simplification (LS) aims to replace complex words in a given sentence
with their simpler alternatives of equivalent meaning, to simplify the
sentence. Recently unsupervised lexical simplification approaches only rely on
the complex word itself regardless of the given sentence to generate candidate
substitutions, which will inevitably produce a large number of spurious
candidates. In this paper, we propose a lexical simplification framework LSBert
based on pretrained representation model Bert, that is capable of (1) making
use of the wider context when both detecting the words in need of
simplification and generating substitue candidates, and (2) taking five
high-quality features into account for ranking candidates, including Bert
prediction order, Bert-based language model, and the paraphrase database PPDB,
in addition to the word frequency and word similarity commonly used in other LS
methods. We show that our system outputs lexical simplifications that are
grammatically correct and semantically appropriate, and obtains obvious
improvement compared with these baselines, outperforming the state-of-the-art
by 29.8 Accuracy points on three well-known benchmarks.
- Abstract(参考訳): lexical simplification (ls) は、与えられた文の複雑な単語を、同等の意味のより単純な代替語に置き換えることを目的としている。
最近、教師なし語彙単純化のアプローチは、与えられた文にかかわらず複雑な単語自体に依存して候補置換を生成し、必然的に多くの突発的候補を生成する。
In this paper, we propose a lexical simplification framework LSBert based on pretrained representation model Bert, that is capable of (1) making use of the wider context when both detecting the words in need of simplification and generating substitue candidates, and (2) taking five high-quality features into account for ranking candidates, including Bert prediction order, Bert-based language model, and the paraphrase database PPDB, in addition to the word frequency and word similarity commonly used in other LS methods.
本システムは,文法的に正確かつ意味的に適切である語彙的単純化を出力し,これらベースラインと比較して明らかに改善し,既知の3つのベンチマークの精度点を29.8で上回った。
関連論文リスト
- SimpLex: a lexical text simplification architecture [0.5156484100374059]
簡単な英文を生成するための新しい単純化アーキテクチャである textscSimpLex を提案する。
提案アーキテクチャでは、ワード埋め込み(Word2Vec)とパープレキシティ(perplexity)、文変換(BERT、RoBERTa、GPT2)、コサイン類似(cosine similarity)のいずれかを使用する。
このソリューションはユーザフレンドリーで使いやすいソフトウェアに組み込まれている。
論文 参考訳(メタデータ) (2023-04-14T08:52:31Z) - Sentence Simplification via Large Language Models [15.07021692249856]
文の単純化は、複雑な文を本来の意味を保ちながら、より単純な文に言い換えることを目的としている。
大規模言語モデル(LLM)は、様々な自然言語処理タスクを実行する能力を示した。
論文 参考訳(メタデータ) (2023-02-23T12:11:58Z) - NapSS: Paragraph-level Medical Text Simplification via Narrative
Prompting and Sentence-matching Summarization [46.772517928718216]
そこで我々はNapSSと呼ばれる2段階戦略を提案する。
NapSSは、オリジナルの物語の流れが保存されていることを保証しながら、関連コンテンツを特定し、単純化する。
本モデルは,英語医療コーパスのSeq2seqベースラインよりも有意に優れている。
論文 参考訳(メタデータ) (2023-02-11T02:20:25Z) - MANTIS at TSAR-2022 Shared Task: Improved Unsupervised Lexical
Simplification with Pretrained Encoders [31.64341800095214]
我々は,テキストの簡略化,アクセシビリティ,可読性に関するEMNLP 2022ワークショップの,語彙的単純化に関するTSAR-2022共有タスクへの貢献を紹介する。
我々のアプローチは、事前訓練エンコーダ(LSBert)システムを用いて、教師なし語彙単純化システムを構築し、拡張する。
当社のベストパフォーマンスシステムはLSBertの精度を5.9%向上し,33位中2位となった。
論文 参考訳(メタデータ) (2022-12-19T20:57:45Z) - SimpleBERT: A Pre-trained Model That Learns to Generate Simple Words [59.142185753887645]
本研究では,テキストの簡易化を継続する事前学習手法を提案する。
我々は、継続事前学習に小規模な単純なテキストデータセットを使用し、簡単な単語を識別するために2つの方法を用いる。
語彙単純化タスクと文簡略化タスクの両方においてBERTを超えるSimpleBERTを得る。
論文 参考訳(メタデータ) (2022-04-16T11:28:01Z) - Short-Term Word-Learning in a Dynamically Changing Environment [63.025297637716534]
本稿では、単語/フレーズメモリと、このメモリにアクセスして単語やフレーズを正しく認識するためのメカニズムを用いて、エンドツーエンドのASRシステムを補完する方法を示す。
誤報がわずかに増加しただけで, 単語の検出速度が大幅に向上した。
論文 参考訳(メタデータ) (2022-03-29T10:05:39Z) - LexSubCon: Integrating Knowledge from Lexical Resources into Contextual
Embeddings for Lexical Substitution [76.615287796753]
本稿では,コンテキスト埋め込みモデルに基づくエンドツーエンドの語彙置換フレームワークであるLexSubConを紹介する。
これは文脈情報と構造化語彙資源からの知識を組み合わせることで達成される。
我々の実験によると、LexSubConはLS07とCoInCoベンチマークデータセットで従来の最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-11T21:25:56Z) - Enhancing Pre-trained Language Model with Lexical Simplification [41.34550924004487]
lexical simplification (ls) は、そのような語彙の多様性を減らすための認識された方法である。
テキスト分類におけるPrLMの性能を効果的に向上する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-12-30T07:49:00Z) - Chinese Lexical Simplification [29.464388721085548]
中国の語彙単純化(CLS)に関する研究は行われていない。
アノテーション取得の難しさを回避するため,我々はCLSの最初のベンチマークデータセットを手作業で作成する。
複雑な単語の代用候補を生成するために,5種類のメソッドをベースラインとして提示する。
論文 参考訳(メタデータ) (2020-10-14T12:55:36Z) - ASSET: A Dataset for Tuning and Evaluation of Sentence Simplification
Models with Multiple Rewriting Transformations [97.27005783856285]
本稿では,英語で文の単純化を評価するための新しいデータセットであるASSETを紹介する。
ASSETの単純化は、タスクの他の標準評価データセットと比較して、単純さの特徴を捉えるのに優れていることを示す。
論文 参考訳(メタデータ) (2020-05-01T16:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。