論文の概要: LLM-Generated Ads: From Personalization Parity to Persuasion Superiority
- arxiv url: http://arxiv.org/abs/2512.03373v1
- Date: Wed, 03 Dec 2025 02:13:38 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:14:59.047169
- Title: LLM-Generated Ads: From Personalization Parity to Persuasion Superiority
- Title(参考訳): LLM生成広告:パーソナライズ・パーティからパーソナライズ・スーパーオリティへ
- Authors: Elyas Meguellati, Stefano Civelli, Lei Han, Abraham Bernstein, Shazia Sadiq, Gianluca Demartini,
- Abstract要約: 本稿では,補間レンズを用いた大規模言語モデル (LLM) 生成広告の2部構成について検討する。
最初の研究では、特定の性格特性に合わせてパーソナライズされた広告をLLMが生成できるかどうかを検証した。
第2の研究では、個人のパーソナライゼーションから普遍的説得テストへと焦点を移した。
- 参考スコア(独自算出の注目度): 14.811340973986859
- License:
- Abstract: As large language models (LLMs) become increasingly capable of generating persuasive content, understanding their effectiveness across different advertising strategies becomes critical. This paper presents a two-part investigation examining LLM-generated advertising through complementary lenses: (1) personality-based and (2) psychological persuasion principles. In our first study (n=400), we tested whether LLMs could generate personalized advertisements tailored to specific personality traits (openness and neuroticism) and how their performance compared to human experts. Results showed that LLM-generated ads achieved statistical parity with human-written ads (51.1% vs. 48.9%, p > 0.05), with no significant performance differences for matched personalities. Building on these insights, our second study (n=800) shifted focus from individual personalization to universal persuasion, testing LLM performance across four foundational psychological principles: authority, consensus, cognition, and scarcity. AI-generated ads significantly outperformed human-created content, achieving a 59.1% preference rate (vs. 40.9%, p < 0.001), with the strongest performance in authority (63.0%) and consensus (62.5%) appeals. Qualitative analysis revealed AI's advantage stems from crafting more sophisticated, aspirational messages and achieving superior visual-narrative coherence. Critically, this quality advantage proved robust: even after applying a 21.2 percentage point detection penalty when participants correctly identified AI-origin, AI ads still outperformed human ads, and 29.4% of participants chose AI content despite knowing its origin. These findings demonstrate LLMs' evolution from parity in personalization to superiority in persuasive storytelling, with significant implications for advertising practice given LLMs' near-zero marginal cost and time requirements compared to human experts.
- Abstract(参考訳): 大規模言語モデル(LLM)は、説得力のあるコンテンツを生成する能力が増すにつれて、異なる広告戦略におけるそれらの効果を理解することが重要になる。
補間レンズを用いたLCM生成広告について,(1)パーソナリティに基づく,(2)心理的説得の原則を考察した。
最初の研究(n=400)では、LLMが特定の性格特性(開放性と神経症)に合わせてパーソナライズされた広告を生成できるかどうか、そして、そのパフォーマンスが人間の専門家と比較してどうなのかを検証した。
その結果, LLMが生成した広告は人書き広告(51.1% vs. 48.9%, p > 0.05)と統計的に同等であり, 一致した個人に対して有意な性能差は認められなかった。
これらの知見に基づいて、第2次研究(n=800)は、個人のパーソナライゼーションから普遍的な説得へと焦点を移し、権威、コンセンサス、認知、不足という4つの基礎的心理学的原則でLCMのパフォーマンスをテストした。
AIが生成した広告は、人間の制作したコンテンツを著しく上回り、59.1%の選好率(vs.40.9%、p < 0.001)を達成し、権威(63.0%)とコンセンサス(62.5%)で最大のパフォーマンスを記録した。
質的な分析により、AIの利点は、より洗練され、願望的なメッセージを作り、優れた視覚的物語的コヒーレンスを達成することにあることが明らかになった。
批判的なことに、この品質上の優位性は堅牢であった: 参加者がAI-オリジンを正しく識別した場合に21.2パーセントのポイント検出ペナルティを適用したとしても、AI広告は人間の広告よりも優れており、参加者の29.4%は、その起源を知りながらAIコンテンツを選んだ。
これらの結果から, LLMのパーソナライズにおけるパーソナライズから, 説得的ストーリーテリングにおける優越性への進化が示唆された。
関連論文リスト
- What Makes a Good Natural Language Prompt? [72.3282960118995]
我々は,2022年から2025年にかけて,NLPおよびAIカンファレンスを主導する150以上のプロンプト関連論文を対象としたメタ分析調査を実施している。
本研究では,6次元に分類した21の特性を含む,迅速な品質評価のための特性・人間中心のフレームワークを提案する。
次に、複数プロパティのプロンプト強化を実証的に検討し、単一プロパティのプロンプトが最大の影響を与える場合が多いことを観察する。
論文 参考訳(メタデータ) (2025-06-07T23:19:27Z) - Affordance Benchmark for MLLMs [38.62884479364572]
A4Bench**は,MLLMの2次元における空き知覚能力を評価するために設計された,新しいベンチマークである。
我々は17のMLLM(9つのプロプライエタリと8つのオープンソース)を評価し、それらを人的パフォーマンスと比較した。
結果として、プロプライエタリなモデルは一般的にオープンソースモデルよりも優れていますが、すべてのモデルは人間よりはるかに低いパフォーマンスを示します。
論文 参考訳(メタデータ) (2025-06-01T08:26:34Z) - Bridging the Creativity Understanding Gap: Small-Scale Human Alignment Enables Expert-Level Humor Ranking in LLMs [17.44511150123112]
大規模言語モデル(LLM)は、創造的コンテンツを理解する上で、重大な制限を示してきた。
ユーモア理解を3つの構成要素に分解し,それぞれを体系的に改善することで,この課題を再考する。
改良されたアプローチは、キャプションランキングにおいて82.4%の精度を実現し、前回の67%のベンチマークで顕著に改善した。
論文 参考訳(メタデータ) (2025-02-27T18:29:09Z) - Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Can Language Models Recognize Convincing Arguments? [12.458437450959416]
大規模言語モデル(LLM)は、説得力のある物語を創造し広める可能性について懸念を提起している。
本研究は、説得力のある議論を検知し、その説得力に関する洞察を得るための性能について研究する。
論文 参考訳(メタデータ) (2024-03-31T17:38:33Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。