論文の概要: ParaLS: Lexical Substitution via Pretrained Paraphraser
- arxiv url: http://arxiv.org/abs/2305.08146v1
- Date: Sun, 14 May 2023 12:49:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 17:15:47.700689
- Title: ParaLS: Lexical Substitution via Pretrained Paraphraser
- Title(参考訳): ParaLS:プレトレーニングパラフラザーによる語彙置換
- Authors: Jipeng Qiang, Kang Liu, Yun Li, Yunhao Yuan, Yi Zhu
- Abstract要約: 本研究では,代用候補をパラフラザーから生成する方法を検討する。
本稿では,デコード中の対象単語の変動に着目した2つの簡単なデコード戦略を提案する。
- 参考スコア(独自算出の注目度): 18.929859707202517
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Lexical substitution (LS) aims at finding appropriate substitutes for a
target word in a sentence. Recently, LS methods based on pretrained language
models have made remarkable progress, generating potential substitutes for a
target word through analysis of its contextual surroundings. However, these
methods tend to overlook the preservation of the sentence's meaning when
generating the substitutes. This study explores how to generate the substitute
candidates from a paraphraser, as the generated paraphrases from a paraphraser
contain variations in word choice and preserve the sentence's meaning. Since we
cannot directly generate the substitutes via commonly used decoding strategies,
we propose two simple decoding strategies that focus on the variations of the
target word during decoding. Experimental results show that our methods
outperform state-of-the-art LS methods based on pre-trained language models on
three benchmarks.
- Abstract(参考訳): 語彙置換(LS)は、文中の対象単語の適切な置換を見つけることを目的としている。
近年,事前訓練された言語モデルに基づくLS手法が顕著な進歩を遂げ,その文脈環境の分析を通じて,対象単語の潜在的代用を生成する。
しかし、これらの方法は代用語を生成する際に文の意味の保存を過小評価する傾向がある。
本研究では,代用候補をパラフレーズから生成する方法を検討する。パラフレーズから生成されたパラフレーズには,単語選択のバリエーションが含まれており,文の意味を保っている。
一般的なデコード戦略では代替語を直接生成することはできないため,デコード中の対象単語のバリエーションに着目した2つの単純なデコード戦略を提案する。
実験の結果,本手法は3つのベンチマークで事前学習した言語モデルに基づき,最先端ls法を上回った。
関連論文リスト
- Multilingual Lexical Simplification via Paraphrase Generation [19.275642346073557]
パラフレーズ生成による新しい多言語LS法を提案する。
パラフレーズ処理は多言語ニューラルマシン翻訳におけるゼロショット翻訳タスクとみなす。
提案手法は,英語,スペイン語,ポルトガル語で,BERT法とゼロショットGPT3法を大きく上回る。
論文 参考訳(メタデータ) (2023-07-28T03:47:44Z) - Unsupervised Lexical Substitution with Decontextualised Embeddings [48.00929769805882]
事前学習された言語モデルを用いた語彙置換の新しい教師なし手法を提案する。
本手法は,文脈的および非文脈的単語埋め込みの類似性に基づいて代用語を検索する。
我々は、英語とイタリア語で実験を行い、我々の手法が強いベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-09-17T03:51:47Z) - Always Keep your Target in Mind: Studying Semantics and Improving
Performance of Neural Lexical Substitution [124.99894592871385]
本稿では,従来の言語モデルと最近の言語モデルの両方を用いた語彙置換手法の大規模比較研究を行う。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによるすでに競合する結果がさらに大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-06-07T16:16:19Z) - BOS at LSCDiscovery: Lexical Substitution for Interpretable Lexical
Semantic Change Detection [0.48733623015338234]
スペイン語におけるLexical Semantic Change DetectionにおけるLSCDiscovery共有タスクに対する解を提案する。
我々のアプローチは、与えられた単語の古い感覚と新しい感覚を記述した語彙代用を生成することに基づいている。
論文 参考訳(メタデータ) (2022-06-07T11:40:29Z) - LexSubCon: Integrating Knowledge from Lexical Resources into Contextual
Embeddings for Lexical Substitution [76.615287796753]
本稿では,コンテキスト埋め込みモデルに基づくエンドツーエンドの語彙置換フレームワークであるLexSubConを紹介する。
これは文脈情報と構造化語彙資源からの知識を組み合わせることで達成される。
我々の実験によると、LexSubConはLS07とCoInCoベンチマークデータセットで従来の最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-11T21:25:56Z) - Fake it Till You Make it: Self-Supervised Semantic Shifts for
Monolingual Word Embedding Tasks [58.87961226278285]
語彙意味変化をモデル化するための自己教師付きアプローチを提案する。
本手法は,任意のアライメント法を用いて意味変化の検出に利用できることを示す。
3つの異なるデータセットに対する実験結果を用いて,本手法の有用性について述べる。
論文 参考訳(メタデータ) (2021-01-30T18:59:43Z) - A Comparative Study of Lexical Substitution Approaches based on Neural
Language Models [117.96628873753123]
本稿では,一般的なニューラル言語とマスキング言語モデルの大規模比較研究について述べる。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによって達成された既に競合する結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2020-05-29T18:43:22Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。