論文の概要: LLM-Auction: Generative Auction towards LLM-Native Advertising
- arxiv url: http://arxiv.org/abs/2512.10551v1
- Date: Thu, 11 Dec 2025 11:31:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.340141
- Title: LLM-Auction: Generative Auction towards LLM-Native Advertising
- Title(参考訳): LLM-Auction: LLM-Native Advertisingに向けたジェネレーティブオークション
- Authors: Chujie Zhao, Qun Hu, Shiping Song, Dagui Chen, Han Zhu, Jian Xu, Bo Zheng,
- Abstract要約: LLMネイティブ広告のためのオークションとLLM生成を統合した学習型生成オークション機構を提案する。
本稿では,報酬モデルとLLMを交互に最適化するIRPOアルゴリズムを提案する。
LLM-Auctionは、所望の機構特性を達成しつつ、割り当て効率において既存のベースラインを大幅に上回ることを示す。
- 参考スコア(独自算出の注目度): 10.695066036409274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of large language models (LLMs) necessitates novel monetization strategies, among which LLM-native advertising has emerged as a promising paradigm by naturally integrating advertisement within LLM-generated responses. However, this paradigm fundamentally shifts the auction object from discrete ad slots to the distribution over LLM outputs, posing new challenges for designing auction mechanisms. Existing mechanisms for LLM-native advertising adopt frameworks that decouple auction and generation, which either ignore externalities or require multiple LLM inferences for ad allocation, rendering them impractical for industrial scenarios. To address these challenges, we propose LLM-Auction, which to the best of our knowledge is the first learning-based generative auction mechanism that integrates auction and LLM generation for LLM-native advertising. By formulating the allocation optimization as a preference alignment problem between LLM outputs and the mechanism's objective which reflects both advertisers' expected value and user experience, we introduce Iterative Reward-Preference Optimization (IRPO) algorithm that alternately optimizes the reward model and the LLM. This approach enables the LLM to inherently model allocation externalities without any extra inference cost. We further identify the allocation monotonicity and continuity of LLM-Auction, which allows us to prove that a simple first-price payment rule exhibits favorable incentive properties. Additionally, we design an LLM-as-a-judge simulation environment to facilitate large-scale data construction and enable comprehensive quantitative evaluation of the mechanism's performance. Extensive quantitative and qualitative experiments demonstrate that LLM-Auction significantly outperforms existing baselines in allocation efficiency, while achieving the desired mechanism properties.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進歩は, LLM生成応答に広告を自然に組み込むことによって, LLMネイティブ広告が有望なパラダイムとして出現する新たな収益化戦略を必要としている。
しかしながら、このパラダイムは、オークションオブジェクトを離散的な広告スロットからLLM出力上の分布に根本的にシフトさせ、オークション機構を設計する上で新たな課題を提起する。
LLMネイティブ広告の既存のメカニズムは、外部性を無視したり、広告アロケーションのために複数のLCM推論を必要とするような、オークションとジェネレーションを分離するフレームワークを採用している。
これらの課題に対処するため,LLMネイティブ広告のためのオークションとLLM生成を統合した最初の学習ベース生成オークション機構であるLLM-Auctionを提案する。
LLM出力と広告主の期待値とユーザエクスペリエンスの両方を反映したメカニズムの目的との優先順位調整問題としてアロケーション最適化を定式化することにより、報酬モデルとLLMを交互に最適化するIterative Reward-Preference Optimization (IRPO)アルゴリズムを導入する。
このアプローチにより、LLMは本質的に余分な推論コストを伴わずにアロケーションの外部性をモデル化できる。
さらに, LLM-Auctionの分配単調性と連続性を同定し, 簡単な第一価格支払いルールが良好なインセンティブ特性を示すことを示す。
さらに,LLM-as-a-judgeシミュレーション環境を設計し,大規模データ構築を容易にし,機構の性能を定量的に評価する。
大規模定量および定性的実験により、LLM-Auctionは、所望の機構特性を達成しつつ、割り当て効率において既存のベースラインを著しく上回ることを示した。
関連論文リスト
- LLMs for Resource Allocation: A Participatory Budgeting Approach to Inferring Preferences [17.089038477886486]
大規模言語モデル(LLM)は、複雑な意思決定タスクを扱うことがますます期待されているが、構造化されたリソース割り当てを実行する能力はいまだ探索されていない。
i) LLMに基づく資源配分の実践的設定と, (ii) それらの推論能力を評価するための適応ベンチマークとして, PB(Participatory Budgeting)を活用する2目的フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-08T06:45:07Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - PANDA: Preference Adaptation for Enhancing Domain-Specific Abilities of LLMs [49.32067576992511]
大規模言語モデルは、しばしばドメイン固有の最先端モデルによって達成されるパフォーマンスに欠ける。
LLMのドメイン固有の機能を強化する1つの潜在的アプローチは、対応するデータセットを使用してそれらを微調整することである。
LLM(PANDA)のドメイン固有能力を高めるための優先度適応法を提案する。
実験の結果,PANDA はテキスト分類や対話型意思決定タスクにおいて LLM のドメイン固有性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-20T09:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。