論文の概要: An LLM-Enhanced Adversarial Editing System for Lexical Simplification
- arxiv url: http://arxiv.org/abs/2402.14704v2
- Date: Fri, 23 Feb 2024 03:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 11:47:08.425417
- Title: An LLM-Enhanced Adversarial Editing System for Lexical Simplification
- Title(参考訳): 語彙単純化のためのLLM強化逆編集システム
- Authors: Keren Tan, Kangyang Luo, Yunshi Lan, Zheng Yuan, Jinlong Shu
- Abstract要約: Lexical Simplificationは、語彙レベルでのテキストの簡略化を目的としている。
既存のメソッドはアノテーション付きデータに大きく依存している。
並列コーパスのない新しいLS法を提案する。
- 参考スコア(独自算出の注目度): 11.286130143695772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lexical Simplification (LS) aims to simplify text at the lexical level.
Existing methods rely heavily on annotated data, making it challenging to apply
in low-resource scenarios. In this paper, we propose a novel LS method without
parallel corpora. This method employs an Adversarial Editing System with
guidance from a confusion loss and an invariance loss to predict lexical edits
in the original sentences. Meanwhile, we introduce an innovative LLM-enhanced
loss to enable the distillation of knowledge from Large Language Models (LLMs)
into a small-size LS system. From that, complex words within sentences are
masked and a Difficulty-aware Filling module is crafted to replace masked
positions with simpler words. At last, extensive experimental results and
analyses on three benchmark LS datasets demonstrate the effectiveness of our
proposed method.
- Abstract(参考訳): Lexical Simplification (LS) は、語彙レベルでのテキストの簡略化を目的としている。
既存のメソッドはアノテーション付きデータに大きく依存しており、低リソースのシナリオでは適用が難しい。
本稿では,並列コーパスを含まない新しいLS法を提案する。
本手法では,原文の語彙的編集を予測するために,混乱損失と不変損失から導出する逆編集システムを用いる。
一方,大規模言語モデル(LLM)からの知識の蒸留を小型LSシステムに導入するために,革新的なLLM強化損失を導入する。
そこから、文中の複雑な単語はマスクされ、難易度対応の充填モジュールはマスクされた位置を単純な単語に置き換える。
最後に,3つのベンチマークLSデータセットの広範な実験結果と解析を行い,提案手法の有効性を示した。
関連論文リスト
- From Noise to Clarity: Unraveling the Adversarial Suffix of Large
Language Model Attacks via Translation of Text Embeddings [64.26248561154509]
近年の研究では、有害な指示に接尾辞を付けることで、LSMの防御をハックできることが判明している。
本稿では,非可読な逆接尾辞をコヒーレントかつ可読なテキストに翻訳可能な逆接尾辞埋め込み翻訳フレームワーク(ASETF)を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:46:27Z) - Towards ASR Robust Spoken Language Understanding Through In-Context
Learning With Word Confusion Networks [68.79880423713597]
本稿では,トップ仮説のみに頼るのではなく,ASRシステムの格子出力を利用する手法を提案する。
音声質問応答と意図分類を網羅した文脈内学習実験により,LLMの音声書き起こしに対する弾力性について明らかにした。
論文 参考訳(メタデータ) (2024-01-05T17:58:10Z) - Improving Factual Consistency of Text Summarization by Adversarially
Decoupling Comprehension and Embellishment Abilities of LLMs [67.56087611675606]
大規模言語モデル(LLM)は、本来の記事と現実的に矛盾する要約を生成する。
これらの幻覚は、従来の方法による検出が困難である。
LLM(DECENT)の能力を阻害する逆デカップリング法を提案する。
論文 参考訳(メタデータ) (2023-10-30T08:40:16Z) - SeqXGPT: Sentence-Level AI-Generated Text Detection [62.3792779440284]
大規模言語モデル(LLM)を用いた文書の合成による文レベル検出の課題について紹介する。
次に,文レベルのAIGT検出機能として,ホワイトボックスLEMのログ確率リストを利用した textbfSequence textbfX (Check) textbfGPT を提案する。
論文 参考訳(メタデータ) (2023-10-13T07:18:53Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z) - Sentence Simplification via Large Language Models [15.07021692249856]
文の単純化は、複雑な文を本来の意味を保ちながら、より単純な文に言い換えることを目的としている。
大規模言語モデル(LLM)は、様々な自然言語処理タスクを実行する能力を示した。
論文 参考訳(メタデータ) (2023-02-23T12:11:58Z) - Enhancing Pre-trained Language Model with Lexical Simplification [41.34550924004487]
lexical simplification (ls) は、そのような語彙の多様性を減らすための認識された方法である。
テキスト分類におけるPrLMの性能を効果的に向上する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-12-30T07:49:00Z) - Controllable Text Simplification with Explicit Paraphrasing [88.02804405275785]
テキストの単純化は、語彙パラフレーズ、削除、分割など、いくつかの書き換え変換を通じて文の可読性を向上させる。
現在の単純化システムは、主にシーケンス・ツー・シーケンスのモデルであり、これらすべての操作を同時に実行するためにエンドツーエンドで訓練されている。
そこで我々は,言語的に動機づけられた規則を用いて分割と削除を行い,それらをニューラルパラフレーズモデルと組み合わせて様々な書き直しスタイルを創出するハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:44:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。