論文の概要: LLM-driven Constrained Copy Generation through Iterative Refinement
- arxiv url: http://arxiv.org/abs/2504.10391v1
- Date: Mon, 14 Apr 2025 16:38:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:52:48.213815
- Title: LLM-driven Constrained Copy Generation through Iterative Refinement
- Title(参考訳): 反復リファインメントによるLCM駆動拘束型コピー生成
- Authors: Varun Vasudevan, Faezeh Akhavizadegan, Abhinav Prakash, Yokila Arora, Jason Cho, Tanya Mendiratta, Sushant Kumar, Kannan Achan,
- Abstract要約: 本稿では,反復的改良を用いた拡張性のあるコピー生成のためのエンドツーエンドフレームワークを提案する。
これらの制約の例としては、長さ、話題、キーワード、好みの語彙順応、声のトーンがある。
以上の結果から, 反復改良により, 複写成功率が16.25-35.91$%向上することが示唆された。
- 参考スコア(独自算出の注目度): 8.297656135501395
- License:
- Abstract: Crafting a marketing message (copy), or copywriting is a challenging generation task, as the copy must adhere to various constraints. Copy creation is inherently iterative for humans, starting with an initial draft followed by successive refinements. However, manual copy creation is time-consuming and expensive, resulting in only a few copies for each use case. This limitation restricts our ability to personalize content to customers. Contrary to the manual approach, LLMs can generate copies quickly, but the generated content does not consistently meet all the constraints on the first attempt (similar to humans). While recent studies have shown promise in improving constrained generation through iterative refinement, they have primarily addressed tasks with only a few simple constraints. Consequently, the effectiveness of iterative refinement for tasks such as copy generation, which involves many intricate constraints, remains unclear. To address this gap, we propose an LLM-based end-to-end framework for scalable copy generation using iterative refinement. To the best of our knowledge, this is the first study to address multiple challenging constraints simultaneously in copy generation. Examples of these constraints include length, topics, keywords, preferred lexical ordering, and tone of voice. We demonstrate the performance of our framework by creating copies for e-commerce banners for three different use cases of varying complexity. Our results show that iterative refinement increases the copy success rate by $16.25-35.91$% across use cases. Furthermore, the copies generated using our approach outperformed manually created content in multiple pilot studies using a multi-armed bandit framework. The winning copy improved the click-through rate by $38.5-45.21$%.
- Abstract(参考訳): コピーはさまざまな制約に従わなければならないため、マーケティングメッセージ(コピー)やコピーライティングは難しい生成タスクになります。
コピーの作成は人間にとって本質的に反復的であり、最初のドラフトから始まり、続いて改良が続く。
しかし、手動のコピー作成は時間がかかり、コストがかかるため、各ユースケースのコピーはわずかである。
この制限は、顧客にコンテンツをパーソナライズする能力を制限します。
手動のアプローチとは対照的に、LLMはコピーを素早く生成できるが、生成されたコンテンツは最初の試み(人間に似ている)に関するすべての制約を一貫して満たさない。
最近の研究では、反復的な改善を通じて制約付き世代を改善するという約束が示されているが、それらは主にいくつかの単純な制約でタスクに対処してきた。
その結果、複雑な制約を多く含むコピー生成などのタスクに対する反復的改善の有効性は、まだ不明である。
このギャップに対処するために,反復修正を用いたスケーラブルコピー生成のためのLLMベースのエンドツーエンドフレームワークを提案する。
我々の知る限りでは、コピー生成において複数の困難な制約に同時に対処する最初の研究である。
これらの制約の例としては、長さ、話題、キーワード、好みの語彙順応、声のトーンがある。
複雑さの異なる3つのユースケースに対して,eコマースバナーのコピーを作成することで,フレームワークの性能を実証する。
以上の結果から, 反復改良により, 複写成功率が16.25-35.91$%向上することが示唆された。
さらに,本手法を用いて作成したコピーは,マルチアーム・バンディット・フレームワークを用いて,複数のパイロット実験において手作業によるコンテンツ生成に優れていた。
勝利したコピーはクリックスルー率を38.5-45.21$%改善した。
関連論文リスト
- Language Models can Self-Lengthen to Generate Long Texts [74.96074422345806]
本稿では,Self-Lengthenというイノベーティブな反復学習フレームワークを紹介する。
補助的なデータやプロプライエタリなモデルを必要としない、大規模言語モデルの本質的な知識とスキルのみを活用する。
ベンチマークと人的評価の実験により、Self-Lengthenは長文生成において既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-10-31T13:47:10Z) - Unlocking Tokens as Data Points for Generalization Bounds on Larger Language Models [79.70436109672599]
LLaMA2-70Bほどの大きさの大規模言語モデルの非空一般化境界を導出する。
我々の研究は、実際にデプロイされ、高品質なテキストを生成するモデルに対する最初の非空き境界を達成する。
論文 参考訳(メタデータ) (2024-07-25T16:13:58Z) - CopyBench: Measuring Literal and Non-Literal Reproduction of Copyright-Protected Text in Language Model Generation [132.00910067533982]
LM世代におけるリテラルコピーと非リテラルコピーの両方を測定するために設計されたベンチマークであるCopyBenchを紹介する。
リテラル複写は比較的稀であるが、イベント複写と文字複写という2種類の非リテラル複写は、7Bパラメータのモデルでも発生する。
論文 参考訳(メタデータ) (2024-07-09T17:58:18Z) - Generating Attractive and Authentic Copywriting from Customer Reviews [7.159225692930055]
本稿では,顧客のレビューに基づいて,商品の実践的体験を手軽に提供し,コピーライティングを生成することを提案する。
そこで我々は,強化学習により強化されたシーケンス・ツー・シーケンス(Sequence-to-Sequence)フレームワークを開発した。
我々のフレームワークは、LLaMA-2-chat-7BやGPT-3.5など、既存のベースラインやゼロショットの大規模言語モデルよりも優れています。
論文 参考訳(メタデータ) (2024-04-22T06:33:28Z) - Copy Is All You Need [66.00852205068327]
既存のテキストコレクションからテキストセグメントを段階的にコピーするテキスト生成を定式化する。
提案手法は, 自動評価と人的評価の両方により, より優れた生成品質を実現する。
当社のアプローチでは,より大規模なテキストコレクションにスケールアップすることで,さらなるパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-07-13T05:03:26Z) - Tractable Control for Autoregressive Language Generation [82.79160918147852]
本稿では,自動回帰テキスト生成モデルに語彙制約を課すために,トラクタブル確率モデル(TPM)を提案する。
本稿では,GeLaToが制約付きテキスト生成のための挑戦的ベンチマークにおいて,最先端のパフォーマンスを実現することを示す。
我々の研究は、大きな言語モデルを制御するための新しい道を開き、さらに表現力のあるTPMの開発を動機付けます。
論文 参考訳(メタデータ) (2023-04-15T00:19:44Z) - May the Force Be with Your Copy Mechanism: Enhanced Supervised-Copy
Method for Natural Language Generation [1.2453219864236247]
本稿では,どの単語をコピーする必要があるか,どの単語を生成する必要があるかをモデルが決定するのに役立つ,コピーネットワークの新しい教師付きアプローチを提案する。
具体的には、ソースシーケンスとターゲット語彙をコピーのガイダンスとして利用する目的関数を再定義する。
データ・テキスト・ジェネレーションと抽象的要約タスクの実験結果から,本手法が複写品質を高め,抽象性の程度を向上することを確認した。
論文 参考訳(メタデータ) (2021-12-20T06:54:28Z) - CopyNext: Explicit Span Copying and Alignment in Sequence to Sequence
Models [31.832217465573503]
明示的なトークンレベルのコピー操作を持つモデルを示し、それを全スパンのコピーに拡張する。
我々のモデルは入力と出力のスパン間のハードアライメントを提供し、情報抽出のような非伝統的なセq2seqの応用を可能にする。
論文 参考訳(メタデータ) (2020-10-28T22:45:16Z) - Copy that! Editing Sequences by Copying Spans [40.23377412674599]
1ステップで入力のスパン全体を出力にコピーできるSeq2seqモデルの拡張を提案する。
自然言語とソースコードの様々な編集タスクの実験において、我々の新しいモデルはより単純なベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2020-06-08T17:42:18Z) - Token Manipulation Generative Adversarial Network for Text Generation [0.0]
我々は条件付きテキスト生成問題を,make-a-blank と fill-in-blank の2つのタスクに分解し,前者を拡張してより複雑なトークン操作を行う。
提案モデルでは,限界に対処するだけでなく,品質や多様性の面で性能を損なうことなく良好な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-05-06T13:10:43Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。