論文の概要: Text Style Transfer with Parameter-efficient LLM Finetuning and Round-trip Translation
- arxiv url: http://arxiv.org/abs/2602.15013v1
- Date: Mon, 16 Feb 2026 18:52:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.637976
- Title: Text Style Transfer with Parameter-efficient LLM Finetuning and Round-trip Translation
- Title(参考訳): LLMファインタニングとラウンドトリップ変換によるテキストスタイル変換
- Authors: Ruoxi Liu, Philipp Koehn,
- Abstract要約: 本稿では,大規模言語モデル(LLM)のパラメータ効率の高い微調整に基づくテキストスタイル転送(TST)の新しい手法を提案する。
スタイル間をマッピングする並列コーパスの不足に対処するため,本研究では,単言語コーパスからこのような並列データセットを合成するために,ラウンドトリップ変換を用いる。
このアプローチは、スタイリスティックな属性を欠いた'中立化'テキストを生成し、本質的に、トレーニング時間と推論時間で共有入力スタイルを作成する。
- 参考スコア(独自算出の注目度): 10.019350580061536
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper proposes a novel method for Text Style Transfer (TST) based on parameter-efficient fine-tuning of Large Language Models (LLMs). Addressing the scarcity of parallel corpora that map between styles, the study employs roundtrip translation to synthesize such parallel datasets from monolingual corpora. This approach creates 'neutralized' text devoid of stylistic attributes, essentially creating a shared input style at training-time and inference-time. Experimental results demonstrate consistent superiority of this method over zero-shot prompting and fewshot ICL techniques measured by BLEU scores and style accuracy scores across four investigated domains. Furthermore, the integration of retrieval-augmented generation (RAG) for terminology and name knowledge enhances robustness and stylistic consistency.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) のパラメータ効率の高い微調整に基づくテキストスタイル転送(TST)の新しい手法を提案する。
スタイル間をマッピングする並列コーパスの不足に対処するため,本研究では,単言語コーパスからこのような並列データセットを合成するために,ラウンドトリップ変換を用いる。
このアプローチは、スタイリスティックな属性を欠いた'中立化'テキストを生成し、本質的に、トレーニング時間と推論時間で共有入力スタイルを作成する。
実験により, BLEUスコアと4つの領域にわたるスタイル精度スコアを用いて, ゼロショットプロンプト法とスプリットショットICL法に比較して, この手法が一貫した優位性を示した。
さらに、用語と名前の知識のための検索強化生成(RAG)の統合により、堅牢性とスタイリスティックな一貫性が向上する。
関連論文リスト
- Resource-Efficient Adaptation of Large Language Models for Text Embeddings via Prompt Engineering and Contrastive Fine-tuning [3.9914181590063884]
大規模言語モデル(LLM)は自然言語処理(NLP)の基盤となっている。
プリトレーニングされたデコーダのみのLLMの適応戦略について検討する。
論文 参考訳(メタデータ) (2025-07-30T14:49:30Z) - Are Large Language Models Actually Good at Text Style Transfer? [0.17751300245073598]
テキストスタイル転送(TST)を用いた大規模言語モデル(LLM)の性能解析を行う。
TSTは、中核的な内容を保持しながら、テキストの言語スタイルを変更することを含む。
我々は、ゼロショットと少数ショットのプロンプトと、公開されているデータセットに対するパラメータ効率の微調整を用いて、事前訓練されたLLMの能力を評価する。
論文 参考訳(メタデータ) (2024-06-09T18:45:41Z) - Cross-domain Chinese Sentence Pattern Parsing [67.1381983012038]
文パターン構造解析(SPS)は、主に言語教育に使用される構文解析法である。
既存のSPSは教科書のコーパスに大きく依存しており、クロスドメイン機能に欠ける。
本稿では,大規模言語モデル(LLM)を自己学習フレームワーク内で活用する革新的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-26T05:30:48Z) - Unsupervised Text Style Transfer via LLMs and Attention Masking with
Multi-way Interactions [18.64326057581588]
非教師付きテキストスタイル転送(UTST)が自然言語処理(NLP)分野における重要な課題として浮上している。
本稿では,命令を調整したパイプライン・フレームワークであるLarge Language Models (LLMs) から注目マスキング・モデルへの知識蒸留,構築された並列例を用いたコンテキスト内学習の4つの方法を提案する。
これらのマルチウェイインタラクションは、スタイルの強さ、コンテンツ保存、テキストの流布といった観点から、ベースラインを改善することを実証的に示しています。
論文 参考訳(メタデータ) (2024-02-21T09:28:02Z) - CAT-LLM: Style-enhanced Large Language Models with Text Style Definition for Chinese Article-style Transfer [9.346955510106403]
複雑な中国語長文におけるスタイル転送の課題に対処する中国語記事スタイル転送(CAT-LLM)フレームワークを提案する。
Cat-LLMは、記事スタイルを分析し、モデル化するための機械学習アルゴリズムを統合する、bespoke pluggable Text Style Definition (TSD)モジュールを備えている。
内部スタイルツリーの動的拡張をサポートし、新しい多様なスタイル定義をシームレスに組み込むことができる。
論文 参考訳(メタデータ) (2024-01-11T07:18:46Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
Alignedcotは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - Improving Text Generation with Student-Forcing Optimal Transport [122.11881937642401]
トレーニングモードとテストモードで生成されたシーケンスに最適なトランスポート(OT)を提案する。
テキストシーケンスの構造的および文脈的情報に基づいて、OT学習を改善するための拡張も提案されている。
提案手法の有効性は,機械翻訳,テキスト要約,テキスト生成タスクにおいて検証される。
論文 参考訳(メタデータ) (2020-10-12T19:42:25Z) - Contextual Text Style Transfer [73.66285813595616]
コンテキストテキストスタイル転送は、文をその周囲のコンテキストを考慮した所望のスタイルに変換することを目的としている。
本稿では,各入力文とその周辺コンテキストに対して2つの異なるエンコーダを使用するコンテキスト認識スタイル転送(CAST)モデルを提案する。
Enron-ContextとReddit-Contextという2つの新しいベンチマークが、フォーマル性と攻撃性スタイルの転送のために導入された。
論文 参考訳(メタデータ) (2020-04-30T23:01:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。