論文の概要: MANTIS at TSAR-2022 Shared Task: Improved Unsupervised Lexical
Simplification with Pretrained Encoders
- arxiv url: http://arxiv.org/abs/2212.09855v1
- Date: Mon, 19 Dec 2022 20:57:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 15:04:46.624031
- Title: MANTIS at TSAR-2022 Shared Task: Improved Unsupervised Lexical
Simplification with Pretrained Encoders
- Title(参考訳): tsar-2022におけるmantisの共有課題:事前学習エンコーダによる教師なし語彙単純化の改善
- Authors: Xiaofei Li, Daniel Wiechmann, Yu Qiao, Elma Kerz
- Abstract要約: 我々は,テキストの簡略化,アクセシビリティ,可読性に関するEMNLP 2022ワークショップの,語彙的単純化に関するTSAR-2022共有タスクへの貢献を紹介する。
我々のアプローチは、事前訓練エンコーダ(LSBert)システムを用いて、教師なし語彙単純化システムを構築し、拡張する。
当社のベストパフォーマンスシステムはLSBertの精度を5.9%向上し,33位中2位となった。
- 参考スコア(独自算出の注目度): 31.64341800095214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present our contribution to the TSAR-2022 Shared Task on
Lexical Simplification of the EMNLP 2022 Workshop on Text Simplification,
Accessibility, and Readability. Our approach builds on and extends the
unsupervised lexical simplification system with pretrained encoders (LSBert)
system in the following ways: For the subtask of simplification candidate
selection, it utilizes a RoBERTa transformer language model and expands the
size of the generated candidate list. For subsequent substitution ranking, it
introduces a new feature weighting scheme and adopts a candidate filtering
method based on textual entailment to maximize semantic similarity between the
target word and its simplification. Our best-performing system improves LSBert
by 5.9% accuracy and achieves second place out of 33 ranked solutions.
- Abstract(参考訳): 本稿では,テキストの簡略化,アクセシビリティ,可読性に関するワークショップ,EMNLP 2022の語彙単純化に関するTSAR-2022共有タスクへの貢献について述べる。
単純化候補選択のサブタスクでは、robertaトランスフォーマー言語モデルを使用し、生成された候補リストのサイズを拡大します。
その後の代用ランキングでは、新たな特徴重み付け方式を導入し、対象単語と単純化のセマンティックな類似性を最大化するために、テキストエンターメントに基づく候補フィルタリング方式を採用する。
我々のベストパフォーマンスシステムはLSBertを5.9%精度で改善し、33のソリューションのうち2位にランクインする。
関連論文リスト
- Balancing Diversity and Risk in LLM Sampling: How to Select Your Method and Parameter for Open-Ended Text Generation [60.493180081319785]
本稿では,各復号工程における多様性とリスクのトレードオフを考慮し,トラクションサンプリング手法の本質的な能力を推定する体系的手法を提案する。
本研究は,既存のトラクションサンプリング手法の総合的な比較と,ユーザのガイドラインとして推奨されるパラメータについて紹介する。
論文 参考訳(メタデータ) (2024-08-24T14:14:32Z) - Sub-SA: Strengthen In-context Learning via Submodular Selective Annotation [4.846839863393725]
サブモジュールに基づく選択的アノテーション法であるSub-SA(Submodular Selective )を提案する。
Sub-SAの目的は、アノテーションのコストを削減しつつ、コンテキスト内サンプルの品質を向上させることである。
また、ラベルなしデータセットの多様性と代表性のバランスを改善するために、RPR(Reward and Penalty Regularization)を提案する。
論文 参考訳(メタデータ) (2024-07-08T07:47:30Z) - An LLM-Enhanced Adversarial Editing System for Lexical Simplification [10.519804917399744]
Lexical Simplificationは、語彙レベルでのテキストの簡略化を目的としている。
既存のメソッドはアノテーション付きデータに大きく依存している。
並列コーパスのない新しいLS法を提案する。
論文 参考訳(メタデータ) (2024-02-22T17:04:30Z) - Lexical Simplification using multi level and modular approach [1.9559144041082446]
本稿では、我々のチーム「teamPN」による英語サブタスクの作業について説明する。
我々は,現代のトランスフォーマーモデルと従来のNLP手法を組み合わせたモジュールパイプラインを構築した。
論文 参考訳(メタデータ) (2023-02-03T15:57:54Z) - UniHD at TSAR-2022 Shared Task: Is Compute All We Need for Lexical
Simplification? [2.931632009516441]
GPT-3応答に基づくパイプラインを記述し、少数のトレーニングインスタンスで、幅広い設定で競合するアプローチを上回ります。
スペイン語とポルトガル語のサブセットを適用することで、従来のプロンプトに小さな変更を加えるだけで、最先端の結果が得られます。
論文 参考訳(メタデータ) (2023-01-04T18:59:20Z) - Hierarchical Sketch Induction for Paraphrase Generation [79.87892048285819]
本稿では、高密度符号化の分解を学習するHRQ-VAE(Hierarchical Refinement Quantized Variational Autoencoders)を紹介する。
HRQ-VAEを用いて、入力文の構文形式を階層化の経路としてエンコードすることで、テスト時の構文スケッチをより容易に予測できる。
論文 参考訳(メタデータ) (2022-03-07T15:28:36Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z) - Improving Sequence-to-Sequence Pre-training via Sequence Span Rewriting [54.03356526990088]
本稿では,Sequence Span Rewriting (SSR) を自己教師付きシーケンス・ツー・シーケンス(seq2seq)事前学習目的として提案する。
SSRは、モデルに不完全なスパンを書き直すように監督することで、より細かい学習信号をテキスト表現に提供します。
各種Seq2seqタスクのT5モデルによる実験により,SSRはSeq2seq事前学習を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-01-02T10:27:11Z) - Controllable Text Simplification with Explicit Paraphrasing [88.02804405275785]
テキストの単純化は、語彙パラフレーズ、削除、分割など、いくつかの書き換え変換を通じて文の可読性を向上させる。
現在の単純化システムは、主にシーケンス・ツー・シーケンスのモデルであり、これらすべての操作を同時に実行するためにエンドツーエンドで訓練されている。
そこで我々は,言語的に動機づけられた規則を用いて分割と削除を行い,それらをニューラルパラフレーズモデルと組み合わせて様々な書き直しスタイルを創出するハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:44:40Z) - LSBert: A Simple Framework for Lexical Simplification [32.75631197427934]
本稿では,事前学習した表現モデルBertに基づく語彙単純化フレームワークLSBertを提案する。
本システムでは,文法的に正確かつ意味論的に適切である語彙的単純化を出力する。
論文 参考訳(メタデータ) (2020-06-25T09:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。