論文の概要: GCOF: Self-iterative Text Generation for Copywriting Using Large
Language Model
- arxiv url: http://arxiv.org/abs/2402.13667v1
- Date: Wed, 21 Feb 2024 09:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 15:53:27.587330
- Title: GCOF: Self-iterative Text Generation for Copywriting Using Large
Language Model
- Title(参考訳): GCOF:大規模言語モデルを用いた複写用セルフイテレーティブテキスト生成
- Authors: Jianghui Zhou, Ya Gao, Jie Liu, Xuemin Zhao, Zhaohua Yang, Yue Wu,
Lirong Shi
- Abstract要約: ChatGPTのような大規模言語モデルは、マーケティングコピーの生成を大幅に単純化した。
我々は、マーケティングコピー作成の効率性とエンゲージメントを高めるために設計された遺伝的コピー最適化フレームワーク(GCOF)を紹介する。
オンラインの結果,我々のフレームワークで作成したコピーは,クリックスルーレート(CTR)の平均値が50%以上上昇することがわかった。
- 参考スコア(独自算出の注目度): 6.439245424286433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models(LLM) such as ChatGPT have substantially simplified the
generation of marketing copy, yet producing content satisfying domain specific
requirements, such as effectively engaging customers, remains a significant
challenge. In this work, we introduce the Genetic Copy Optimization Framework
(GCOF) designed to enhance both efficiency and engagememnt of marketing copy
creation. We conduct explicit feature engineering within the prompts of LLM.
Additionally, we modify the crossover operator in Genetic Algorithm (GA),
integrating it into the GCOF to enable automatic feature engineering. This
integration facilitates a self-iterative refinement of the marketing copy.
Compared to human curated copy, Online results indicate that copy produced by
our framework achieves an average increase in click-through rate (CTR) of over
$50\%$.
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)は、マーケティングコピーの生成を大幅に単純化しているが、効果的に顧客を惹きつけるようなドメイン固有の要求を満たすコンテンツを生成することは大きな課題である。
本稿では,マーケティングコピー作成の効率性とエンゲージメントを高めるために設計された遺伝的コピー最適化フレームワーク(GCOF)を紹介する。
LLMのプロンプト内で、明示的な特徴工学を行う。
さらに,遺伝的アルゴリズム(GA)のクロスオーバー演算子を改良し,GCOFに統合して自動機能工学を実現する。
この統合により、マーケティングコピーの自己改善が容易になる。
オンライン検索の結果から,本フレームワークで作成したコピーはクリックスルー率(CTR)が平均50 %以上向上することがわかった。
関連論文リスト
- UniGen: A Unified Framework for Textual Dataset Generation Using Large Language Models [88.16197692794707]
UniGenは、多様で正確で高度に制御可能なデータセットを作成するように設計された包括的なフレームワークである。
データ多様性を強化するため、UniGenは属性誘導生成モジュールとグループチェック機能を備えている。
大規模な実験は、UniGenによって生成されたデータの優れた品質を示す。
論文 参考訳(メタデータ) (2024-06-27T07:56:44Z) - Adaptable Logical Control for Large Language Models [68.27725600175013]
Ctrl-Gは、推論時にモデル生成のトラクタブルでフレキシブルな制御を容易にする適応可能なフレームワークである。
TULU2-7Bモデルに適用したCtrl-Gは、インタラクティブテキスト編集のタスクにおいて、GPT3.5とGPT4より優れていることを示す。
論文 参考訳(メタデータ) (2024-06-19T23:47:59Z) - RAG-Enhanced Commit Message Generation [8.858678357308726]
コミットメッセージ生成は、自動化ソフトウェアエンジニアリングにおける研究ホットスポットとなっている。
本稿では,CommiTメッセージ生成のためのRetrieval-AugmentedフレームワークであるREACTを提案する。
論文 参考訳(メタデータ) (2024-06-08T16:24:24Z) - FOCUS: Forging Originality through Contrastive Use in Self-Plagiarism for Language Models [38.76912842622624]
プレトレーニング言語モデル(PLM)は、様々な自然言語生成(NLG)タスクにおいて印象的な結果を示している。
本研究では, PLMが生成するテキストの独創性を高めることを目的とした, 独特な「自己プラギアリズム」コントラスト的復号戦略を提案する。
論文 参考訳(メタデータ) (2024-06-02T19:17:00Z) - Generating Attractive and Authentic Copywriting from Customer Reviews [7.159225692930055]
本稿では,顧客のレビューに基づいて,商品の実践的体験を手軽に提供し,コピーライティングを生成することを提案する。
そこで我々は,強化学習により強化されたシーケンス・ツー・シーケンス(Sequence-to-Sequence)フレームワークを開発した。
我々のフレームワークは、LLaMA-2-chat-7BやGPT-3.5など、既存のベースラインやゼロショットの大規模言語モデルよりも優れています。
論文 参考訳(メタデータ) (2024-04-22T06:33:28Z) - A Simple but Effective Approach to Improve Structured Language Model
Output for Information Extraction [11.165093163378152]
大規模言語モデル(LLM)は、命令に従って非構造化自然言語を生成する際、印象的な能力を示した。
本稿では,その構造的テキスト生成能力を高めるために,効率的なG&O手法を提案する。
論文 参考訳(メタデータ) (2024-02-20T20:42:02Z) - Connecting Large Language Models with Evolutionary Algorithms Yields
Powerful Prompt Optimizers [70.18534453485849]
EvoPromptは離散的なプロンプト最適化のためのフレームワークである。
進化的アルゴリズム(EA)の概念は、優れた性能と高速収束を示すものである。
人為的なプロンプトと既存の方法で自動プロンプト生成を著しく上回っている。
論文 参考訳(メタデータ) (2023-09-15T16:50:09Z) - Hybrid Retrieval-Augmented Generation for Real-time Composition
Assistance [19.011514931732904]
本稿では,HybridRAG(HybridRAG)フレームワークを提案する。
クラウドベースの大規模言語モデルと、より小さなクライアントサイドの言語モデルとを効率的に組み合わせ、拡張メモリを検索する。
5つのベンチマークデータセットに対する実験により、HybridRAGは低レイテンシを維持しながら、クライアントのみのモデルよりも実用性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-08-08T12:27:20Z) - Stay on topic with Classifier-Free Guidance [57.28934343207042]
CFGは純粋言語モデリングにおける推論時手法として広く利用できることを示す。
CFG は Pythia, GPT-2 および LLaMA ファミリーモデルの性能をタスクの配列にわたって改善することを示す。
論文 参考訳(メタデータ) (2023-06-30T17:07:02Z) - Tractable Control for Autoregressive Language Generation [82.79160918147852]
本稿では,自動回帰テキスト生成モデルに語彙制約を課すために,トラクタブル確率モデル(TPM)を提案する。
本稿では,GeLaToが制約付きテキスト生成のための挑戦的ベンチマークにおいて,最先端のパフォーマンスを実現することを示す。
我々の研究は、大きな言語モデルを制御するための新しい道を開き、さらに表現力のあるTPMの開発を動機付けます。
論文 参考訳(メタデータ) (2023-04-15T00:19:44Z) - One-Shot Adaptation of GAN in Just One CLIP [51.188396199083336]
本稿では,CLIP空間を統一した単一ショットGAN適応方式を提案する。
具体的には、CLIP誘導潜在最適化を用いて、ソースジェネレータ内の参照画像検索という2段階のトレーニング戦略を採用する。
対象のテクスチャで多様な出力を生成し,質的かつ定量的にベースラインモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T13:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。