論文の概要: Steering Large Language Models with Register Analysis for Arbitrary Style Transfer
- arxiv url: http://arxiv.org/abs/2505.00679v1
- Date: Thu, 01 May 2025 17:39:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.386146
- Title: Steering Large Language Models with Register Analysis for Arbitrary Style Transfer
- Title(参考訳): 任意スタイル転送のためのレジスタ解析による大規模言語モデルのステアリング
- Authors: Xinchen Yang, Marine Carpuat,
- Abstract要約: 大規模言語モデル(LLM)は、様々なスタイルでテキストを書き換える強力な能力を示している。
本稿では,LLMを誘導するレジスタ解析に基づくプロンプト手法を提案する。
- 参考スコア(独自算出の注目度): 13.381890596224867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated strong capabilities in rewriting text across various styles. However, effectively leveraging this ability for example-based arbitrary style transfer, where an input text is rewritten to match the style of a given exemplar, remains an open challenge. A key question is how to describe the style of the exemplar to guide LLMs toward high-quality rewrites. In this work, we propose a prompting method based on register analysis to guide LLMs to perform this task. Empirical evaluations across multiple style transfer tasks show that our prompting approach enhances style transfer strength while preserving meaning more effectively than existing prompting strategies.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々なスタイルでテキストを書き換える強力な能力を示している。
しかし、入力テキストが書き直された任意のスタイル転送を例ベースの任意のスタイル転送に効果的に活用することは、依然としてオープンな課題である。
鍵となる疑問は、LLMを高品質な書き直しへと導くために、どのようにして模範的なスタイルを記述するかである。
本研究では,LLMを誘導するレジスタ解析に基づくプロンプト手法を提案する。
複数のスタイル転送タスクに対する実証的な評価は,従来のプロンプトよりも効果的に意味を保ちながら,我々のプロンプト化アプローチがスタイル転送強度を高めることを示している。
関連論文リスト
- Authorship Style Transfer with Policy Optimization [26.34892894935038]
オーサシップスタイルの転送は、ソースの本来の意味を保ちながら、指定されたテキストを指定されたターゲットに書き換えることを目的としている。
既存のアプローチでは、モデルトレーニングのための多くのターゲットスタイルの例が利用可能になっている。
論文 参考訳(メタデータ) (2024-03-12T19:34:54Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - MSSRNet: Manipulating Sequential Style Representation for Unsupervised
Text Style Transfer [82.37710853235535]
教師なしのテキストスタイル転送タスクは、メインのコンテンツを保持しながらテキストをターゲットのスタイルに書き換えることを目的としている。
従来の方法では、固定サイズのベクトルを使ってテキストスタイルを規制するが、個々のトークンのスタイル強度を正確に伝達することは困難である。
提案手法は,テキスト中の各トークンに個々のスタイルベクトルを割り当てることでこの問題に対処する。
論文 参考訳(メタデータ) (2023-06-12T13:12:29Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - Prompt-Based Editing for Text Style Transfer [25.863546922455498]
テキストスタイル転送のためのプロンプトベースの編集手法を提案する。
我々は,プロンプトベースの生成問題を,学習自由なプロセスである分類問題に変換する。
我々のアプローチは、20倍のパラメータを持つ最先端のシステムよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-01-27T21:31:14Z) - Replacing Language Model for Style Transfer [6.364517234783756]
テキストスタイル転送(TST)のためのシーケンス・ツー・シーケンス言語モデリングフレームワークである置換言語モデル(RLM)を導入する。
提案手法は,ソース文の各トークンを類似した意味を持つテキストスパンで自動回帰的に置き換える。
新しいスパンは非自己回帰型マスキング言語モデルによって生成され、置換されたトークンのローカルコンテキストの意味をよりよく保存することができる。
論文 参考訳(メタデータ) (2022-11-14T13:35:55Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z) - A Recipe For Arbitrary Text Style Transfer with Large Language Models [21.311464494438148]
本稿では,文の書き直し作業としてスタイル転送をフレーム化するプロンプト手法を提案する。
強化されたゼロショット学習は単純で、感情のような標準スタイルのトランスファータスクだけでなく、「このメロドラマティック」や「メタファを挿入する」といった任意の変換にも有望な結果を示す。
論文 参考訳(メタデータ) (2021-09-08T20:08:38Z) - Reformulating Unsupervised Style Transfer as Paraphrase Generation [48.83148014000888]
パラフレーズ生成問題として教師なしスタイル転送を再構成する。
本稿では,自動生成したパラフレーズデータに基づいて,微調整事前学習言語モデルに基づく簡単な手法を提案する。
また、11種類の異なるスタイルで15万文の大規模なデータセットを収集することで、より現実的なスタイルの転送設定に転換する。
論文 参考訳(メタデータ) (2020-10-12T13:31:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。