論文の概要: Ad Insertion in LLM-Generated Responses
- arxiv url: http://arxiv.org/abs/2601.19435v1
- Date: Tue, 27 Jan 2026 10:16:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.281186
- Title: Ad Insertion in LLM-Generated Responses
- Title(参考訳): LLM生成反応におけるアドインサーション
- Authors: Shengwei Xu, Zhaohua Chen, Xiaotie Deng, Zhiyi Huang, Grant Schoenebeck,
- Abstract要約: 2つの切り離し戦略を通じて緊張を解消する実践的な枠組みを提案する。
まず、広告挿入と応答生成を分離し、安全性と明示的な開示を確保する。
次に、ジャンル'(ハイレベルなセマンティッククラスタ)をプロキシとして使用することで、特定のユーザクエリから入札を分離する。
- 参考スコア(独自算出の注目度): 16.434649348378706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sustainable monetization of Large Language Models (LLMs) remains a critical open challenge. Traditional search advertising, which relies on static keywords, fails to capture the fleeting, context-dependent user intents--the specific information, goods, or services a user seeks--embedded in conversational flows. Beyond the standard goal of social welfare maximization, effective LLM advertising imposes additional requirements on contextual coherence (ensuring ads align semantically with transient user intents) and computational efficiency (avoiding user interaction latency), as well as adherence to ethical and regulatory standards, including preserving privacy and ensuring explicit ad disclosure. Although various recent solutions have explored bidding on token-level and query-level, both categories of approaches generally fail to holistically satisfy this multifaceted set of constraints. We propose a practical framework that resolves these tensions through two decoupling strategies. First, we decouple ad insertion from response generation to ensure safety and explicit disclosure. Second, we decouple bidding from specific user queries by using ``genres'' (high-level semantic clusters) as a proxy. This allows advertisers to bid on stable categories rather than sensitive real-time response, reducing computational burden and privacy risks. We demonstrate that applying the VCG auction mechanism to this genre-based framework yields approximately dominant strategy incentive compatibility (DSIC) and individual rationality (IR), as well as approximately optimal social welfare, while maintaining high computational efficiency. Finally, we introduce an "LLM-as-a-Judge" metric to estimate contextual coherence. Our experiments show that this metric correlates strongly with human ratings (Spearman's $ρ\approx 0.66$), outperforming 80% of individual human evaluators.
- Abstract(参考訳): LLM(Large Language Models)の持続可能な収益化は、依然として重要なオープンチャレンジである。
静的なキーワードに依存する従来の検索広告は、特定の情報、商品、あるいはユーザーが求めるサービス(会話の流れに埋め込まれた情報)をキャプチャできない。
社会的福祉の最大化の標準目標に加えて、効果的なLCM広告は、コンテキストコヒーレンス(広告が過渡的なユーザ意図とセマンティックに整合することを保証する)と計算効率(ユーザインタラクションの遅延を回避すること)にさらなる要件を課し、プライバシーの保護や明示的な広告開示の確保を含む倫理的および規制的な基準に準拠している。
近年ではトークンレベルとクエリレベルの入札が検討されているが、どちらのカテゴリのアプローチも、この多面的制約を全体的に満たすことができないのが一般的である。
2つの切り離し戦略によってこれらの緊張を解消する実践的な枠組みを提案する。
まず、広告挿入と応答生成を分離し、安全性と明示的な開示を確保する。
次に、'genres''(ハイレベルなセマンティッククラスタ)をプロキシとして使用することで、特定のユーザクエリから入札を分離します。
これにより広告主は、機密性の高いリアルタイム応答よりも安定したカテゴリを入札でき、計算負荷とプライバシーリスクを低減できる。
本稿では,このジャンルをベースとしたフレームワークにVCGのオークション機構を適用することで,ほぼ支配的な戦略インセンティブ互換性(DSIC)と個人合理性(IR)が得られ,高い計算効率を維持しつつ,ほぼ最適な社会福祉が達成されることを示す。
最後に,文脈コヒーレンスを推定するための"LLM-as-a-Judge"指標を提案する。
実験の結果、この指標は人間の評価値(Spearman's $ρ\approx 0.66$)と強く相関しており、個人の評価値の80%を上回っていることがわかった。
関連論文リスト
- NeuroFilter: Privacy Guardrails for Conversational LLM Agents [50.75206727081996]
本研究は,エージェント型大規模言語モデル(LLM)のプライバシを強制する際の計算上の課題に対処する。
NeuroFilterは、標準違反をモデルのアクティベーション空間における単純な方向にマッピングすることで、コンテキスト整合性を運用するガードレールフレームワークである。
7Bから70Bパラメータのモデルをカバーする15万以上のインタラクションに対する包括的な評価は、NeuroFilterの強力なパフォーマンスを示している。
論文 参考訳(メタデータ) (2026-01-21T05:16:50Z) - Look Twice before You Leap: A Rational Agent Framework for Localized Adversarial Anonymization [5.308328605042682]
我々はRLAA(Ralional Localized Adversarial Anonymization)を提案する。
RLAAは、Attacker-Arbitrator-Anonymizerアーキテクチャを特徴とする、完全にローカライズされたトレーニング不要のフレームワークである。
私たちのコードとデータセットは受け入れ次第リリースされます。
論文 参考訳(メタデータ) (2025-12-07T08:03:43Z) - Towards Context-aware Reasoning-enhanced Generative Searching in E-commerce [61.03081096959132]
そこで本稿では,複雑な状況下でのテキストバウンダリングを改善するための,文脈対応推論強化型生成検索フレームワークを提案する。
提案手法は,強力なベースラインに比べて優れた性能を示し,検索に基づく推薦の有効性を検証した。
論文 参考訳(メタデータ) (2025-10-19T16:46:11Z) - The Hidden Cost of Modeling P(X): Vulnerability to Membership Inference Attacks in Generative Text Classifiers [6.542294761666199]
メンバーシップ推論攻撃(MIA)は、モデルのトレーニングデータセットに特定のサンプルが含まれているかどうかを敵が判断できるようにすることで、重要なプライバシー上の脅威となる。
結合可能性$P(X,Y)$を明示的にモデル化した完全生成型分類器は、メンバシップリークに対して最も脆弱であることを示す。
論文 参考訳(メタデータ) (2025-10-17T18:09:33Z) - Urania: Differentially Private Insights into AI Use [102.27238986985698]
$Urania$は、クラスタリング、パーティション選択、ヒストグラムベースの要約といったDPツールを活用することによって、エンドツーエンドのプライバシ保護を提供する。
結果は、厳密なユーザのプライバシを維持しながら、意味のある会話の洞察を抽出するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2025-06-05T07:00:31Z) - Bounded Rationality for LLMs: Satisficing Alignment at Inference-Time [52.230936493691985]
本稿では,2次基準のしきい値に基づく制約を満たしつつ,主目的を最大化し,アライメントの多面性に対処する推論フレームワークSITAlignを提案する。
我々は、満足度に基づく推論アライメントアプローチの準最適境界を導出することで理論的洞察を提供する。
論文 参考訳(メタデータ) (2025-05-29T17:56:05Z) - Generating Privacy-Preserving Personalized Advice with Zero-Knowledge Proofs and LLMs [0.6906005491572401]
ゼロ知識証明技術,特にzkVMを大規模言語モデル(LLM)と統合するフレームワークを提案する。
この統合により、機密情報を開示することなく、ユーザの特性を検証することにより、プライバシ保護データ共有が可能になる。
論文 参考訳(メタデータ) (2025-02-10T13:02:00Z) - DePrompt: Desensitization and Evaluation of Personal Identifiable Information in Large Language Model Prompts [11.883785681042593]
DePromptは、プロンプトのための脱感作保護および有効性評価フレームワークである。
我々は、コンテキスト属性を統合し、プライバシタイプを定義し、高精度なPIIエンティティ識別を実現する。
私たちのフレームワークはプロンプトに適応可能で、テキストのユーザビリティに依存したシナリオに拡張できます。
論文 参考訳(メタデータ) (2024-08-16T02:38:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。