論文の概要: Recontextualizing Famous Quotes for Brand Slogan Generation
- arxiv url: http://arxiv.org/abs/2602.06049v1
- Date: Mon, 12 Jan 2026 04:56:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-15 14:54:53.659732
- Title: Recontextualizing Famous Quotes for Brand Slogan Generation
- Title(参考訳): ブランドスローガン生成のための有名な文章の再コンテクライズ
- Authors: Ziao Yang, Zizhang Chen, Lei Zhang, Hongfu Liu,
- Abstract要約: 効果的なスローガンは、斬新さと親しみのバランスをとるべきだと我々は主張する。
本稿では,スローガン生成のためのペルソナ関連有名な引用文を再文化する新しいパラダイムを提案する。
- 参考スコア(独自算出の注目度): 9.48100252812595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Slogans are concise and memorable catchphrases that play a crucial role in advertising by conveying brand identity and shaping public perception. However, advertising fatigue reduces the effectiveness of repeated slogans, creating a growing demand for novel, creative, and insightful slogan generation. While recent work leverages large language models (LLMs) for this task, existing approaches often produce stylistically redundant outputs that lack a clear brand persona and appear overtly machine-generated. We argue that effective slogans should balance novelty with familiarity and propose a new paradigm that recontextualizes persona-related famous quotes for slogan generation. Well-known quotes naturally align with slogan-length text, employ rich rhetorical devices, and offer depth and insight, making them a powerful resource for creative generation. Technically, we introduce a modular framework that decomposes slogan generation into interpretable subtasks, including quote matching, structural decomposition, vocabulary replacement, and remix generation. Extensive automatic and human evaluations demonstrate marginal improvements in diversity, novelty, emotional impact, and human preference over three state-of-the-art LLM baselines.
- Abstract(参考訳): スローガンは簡潔で記憶に残るキャッチフレーズであり、ブランドのアイデンティティを伝え、大衆の認識を形作ることで、広告において重要な役割を担っている。
しかし、広告疲労は繰り返しスローガンの有効性を低下させ、新規で創造的で洞察に富んだスローガン生成への需要が増大する。
最近の研究は、このタスクに大規模な言語モデル(LLM)を活用するが、既存のアプローチは、明確なブランドのペルソナを欠いたスタイリスティックな冗長なアウトプットをしばしば生み出す。
実効的なスローガンは、新鮮さと親密さのバランスをとるべきであり、スローガン生成のためのペルソナ関連の有名な引用をテキスト化する新しいパラダイムを提案する。
有名な引用文はスローガン長のテキストと自然に一致し、リッチな修辞的デバイスを使用し、深みと洞察を提供し、創造的な生成のための強力なリソースとなる。
技術的には、引用マッチング、構造分解、語彙置換、リミックス生成など、スローガン生成を解釈可能なサブタスクに分解するモジュラーフレームワークを導入する。
大規模な自動評価と人的評価は、3つの最先端LCMベースラインよりも多様性、ノベルティ、感情的影響、人間の嗜好の限界的な改善を示す。
関連論文リスト
- Galton's Law of Mediocrity: Why Large Language Models Regress to the Mean and Fail at Creativity in Advertising [1.073832573999766]
大規模言語モデル (LLM) は、しばしば安全で汎用的な言い回しをデフォルトとして、流動的なテキストを生成する。
本稿では,この傾向をGalton-style regression to the mean in languageとして定式化し,広告コンセプトにおける創造性ストレステストを用いて評価する。
論文 参考訳(メタデータ) (2025-09-30T04:29:41Z) - PoemTale Diffusion: Minimising Information Loss in Poem to Image Generation with Multi-Stage Prompt Refinement [18.293592213622183]
PoemTale Diffusionは、詩的なテキストから画像への変換で失われる情報を最小化することを目的としている。
これを支援するため,既存の拡散モデルに適用し,自己認識機構を改良する。
詩の分野の研究を促進するために,1111詩からなるP4Iデータセットを紹介する。
論文 参考訳(メタデータ) (2025-07-18T07:33:08Z) - Effective Slogan Generation with Noise Perturbation [2.80888070977859]
本稿では,新たに提案した1:Nマッチングペアデータセット上で,ノイズメトリクスを持つ事前学習型トランスフォーマーT5モデルを活用する新しいアポラチを提案する。
ROUGE1, ROUGELおよびCosine similarityに基づいて生成したスローガンを評価し, スローガンの特異性, コヒーレンス, 流布度の観点からヒトと評価した。
論文 参考訳(メタデータ) (2023-10-06T04:48:48Z) - SmartPatch: Improving Handwritten Word Imitation with Patch
Discriminators [67.54204685189255]
本稿では,現在の最先端手法の性能を向上させる新手法であるSmartPatchを提案する。
我々は、よく知られたパッチ損失と、平行訓練された手書きテキスト認識システムから収集された情報を組み合わせる。
これにより、より強化された局所識別器が実現し、より現実的で高品質な手書き文字が生成される。
論文 参考訳(メタデータ) (2021-05-21T18:34:21Z) - Generating Coherent and Diverse Slogans with Sequence-to-Sequence
Transformer [0.1835211348413763]
簡単な企業記述からスローガンを生成するシーケンス・ツー・シーケンス・トランスフォーマモデルを提案する。
スローガン生成用に微調整されたナイーブシーケンス・ツー・シーケンスモデルでは、偽情報を導入する傾向にある。
我々は、この問題に対処するためにデレキシライズを使用し、生成したスローガンの品質を大きなマージンで改善する。
論文 参考訳(メタデータ) (2021-02-11T10:25:08Z) - Fine-Grained Image Captioning with Global-Local Discriminative Objective [80.73827423555655]
本研究では, 細粒度記述キャプションの生成を容易にするため, グローバルな識別目的を提案する。
提案手法をMS-COCOデータセット上で評価した。
論文 参考訳(メタデータ) (2020-07-21T08:46:02Z) - Improving Adversarial Text Generation by Modeling the Distant Future [155.83051741029732]
テキスト計画手法を考察し、上記の問題を緩和するためのモデルに基づく模倣学習手法を提案する。
本稿では,より長い地平線上の生成過程に焦点をあてる新しいガイドネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-04T05:45:13Z) - PALM: Pre-training an Autoencoding&Autoregressive Language Model for
Context-conditioned Generation [92.7366819044397]
自己指導型事前学習は、自然言語の理解と生成のための強力な技術として登場した。
本研究は,大規模未ラベルコーパス上で自己エンコーディングと自己回帰言語モデルを共同で事前学習する新しいスキームをPALMに提示する。
広範な実験により、PALMは様々な言語生成ベンチマークにおいて、新しい最先端の結果を達成することが示されている。
論文 参考訳(メタデータ) (2020-04-14T06:25:36Z) - Hooks in the Headline: Learning to Generate Headlines with Controlled
Styles [69.30101340243375]
我々は,見出しを3つのスタイルで強化する新しいタスク,Styllistic Headline Generation (SHG)を提案する。
TitleStylistは、要約と再構築タスクをマルチタスクフレームワークに組み合わせることで、スタイル固有の見出しを生成する。
我々のモデルが生成したアトラクションスコアは、最先端の要約モデルの9.68%を超え、人間による参照よりも優れています。
論文 参考訳(メタデータ) (2020-04-04T17:24:47Z) - Metaphoric Paraphrase Generation [58.592750281138265]
クラウドソーシングを用いてその結果を評価し,メタファー的パラフレーズを評価するための自動指標を開発する。
語彙置換ベースラインは正確なパラフレーズを生成できるが、比喩的でないことが多い。
メタファーマスキングモデルでは,メタファー文の生成に優れ,流布やパラフレーズの品質に関してはほぼ同等に機能する。
論文 参考訳(メタデータ) (2020-02-28T16:30:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。