論文の概要: Truthful Aggregation of LLMs with an Application to Online Advertising
- arxiv url: http://arxiv.org/abs/2405.05905v1
- Date: Thu, 9 May 2024 17:01:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-10 12:43:04.411697
- Title: Truthful Aggregation of LLMs with an Application to Online Advertising
- Title(参考訳): LLMの真正集約とオンライン広告への応用
- Authors: Ermis Soumalias, Michael J. Curry, Sven Seuken,
- Abstract要約: 本研究では,モデルウェイトへの微調整やアクセスなしに動作可能なオークション機構を提案する。
この機構は、計算資源が増加するにつれて最適に微調整されたLLMの出力に確実に収束するように設計されている。
実験結果から,本機構は最適微調整LDMに効率よく収束するだけでなく,広告主の価値やプラットフォーム収益を大幅に向上させることが明らかとなった。
- 参考スコア(独自算出の注目度): 11.552000005640203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the challenge of aggregating the preferences of multiple agents over LLM-generated replies to user queries, where agents might modify or exaggerate their preferences. New agents may participate for each new query, making fine-tuning LLMs on these preferences impractical. To overcome these challenges, we propose an auction mechanism that operates without fine-tuning or access to model weights. This mechanism is designed to provably converge to the ouput of the optimally fine-tuned LLM as computational resources are increased. The mechanism can also incorporate contextual information about the agents when avaiable, which significantly accelerates its convergence. A well-designed payment rule ensures that truthful reporting is the optimal strategy for all agents, while also promoting an equity property by aligning each agent's utility with her contribution to social welfare - an essential feature for the mechanism's long-term viability. While our approach can be applied whenever monetary transactions are permissible, our flagship application is in online advertising. In this context, advertisers try to steer LLM-generated responses towards their brand interests, while the platform aims to maximize advertiser value and ensure user satisfaction. Experimental results confirm that our mechanism not only converges efficiently to the optimally fine-tuned LLM but also significantly boosts advertiser value and platform revenue, all with minimal computational overhead.
- Abstract(参考訳): LLM 生成したユーザクエリに対する応答に対して,複数のエージェントの嗜好を集約する上で,エージェントが好みを変更したり誇張したりするという課題に対処する。
新しいエージェントは、新しいクエリにそれぞれ参加し、これらの好みに関する微調整 LLM を実用的でないものにすることができる。
これらの課題を克服するために,モデルウェイトを微調整したりアクセスしたりすることなく機能するオークション機構を提案する。
この機構は、計算資源が増加するにつれて最適に微調整されたLLMの出力に確実に収束するように設計されている。
このメカニズムは、測定可能なエージェントに関するコンテキスト情報も組み込むことができ、その収束を著しく加速する。
十分に設計された支払い規則は、誠実な報告が全てのエージェントにとって最適な戦略であることを保証し、また、各エージェントの効用と社会福祉への貢献を整合させることによって、そのメカニズムの長期的な生存性にとって不可欠な特徴である株式資産を促進する。
私たちのアプローチは、金融取引が許容されるたびに適用できますが、主要なアプリケーションはオンライン広告です。
この文脈では、広告主はLSMが生成した反応をブランドの利益に向け、プラットフォームは広告主の価値を最大化し、ユーザー満足度を確保することを目的としている。
実験結果から, 最適微調整LDMに効率よく収束するだけでなく, 広告主の価値やプラットフォーム収益も著しく向上し, 計算オーバーヘッドも最小限に抑えられることがわかった。
関連論文リスト
- WALL-E: World Alignment by Rule Learning Improves World Model-based LLM Agents [55.64361927346957]
大規模言語モデル(LLM)による規則の勾配なし学習のためのニューロシンボリックアプローチを提案する。
我々のLLMエージェントWALL-Eはモデル予測制御(MPC)上に構築されている
MinecraftとALFWorldにおけるオープンワールドの課題について、WALL-Eは既存の方法よりも高い成功率を達成する。
論文 参考訳(メタデータ) (2024-10-09T23:37:36Z) - Ad Auctions for LLMs via Retrieval Augmented Generation [12.9128551468564]
本稿では,大規模言語モデル(LLM)のテキスト出力における広告アロケーションと価格設定のための新しいオークション機構を提案する。
RAGフレームワークに従って,各談話セグメントに対して広告を確率的に検索するセグメントオークションを提案する。
我々は,配分効率と公平性のバランスをとる福祉の新しい概念である対数社会福祉を最大化することを示し,関連するインセンティブに適合する価格設定を特徴付ける。
論文 参考訳(メタデータ) (2024-06-12T22:05:51Z) - Scaling Up LLM Reviews for Google Ads Content Moderation [22.43127685744644]
大規模言語モデル(LLM)は、コンテンツモデレーションのための強力なツールであるが、その推論コストとレイテンシは、大規模なデータセットでカジュアルな使用を禁止している。
本研究では,Google Ads におけるコンテンツに対する LLM レビューのスケールアップ手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T23:47:02Z) - Making Large Language Models Better Knowledge Miners for Online
Marketing with Progressive Prompting Augmentation [34.37733369078883]
マーケティング指向の知識グラフをLLMで抽出するためのプログレッシブプロンプトであるPAIRを提案する。
特に,LLMをベースとした適応的関係フィルタリングプロセスにおける純粋関係生成を知識駆動型プロンプト技術により削減する。
オンラインサービスに関しては,中小のPAIR(LightPAIR)を専門とし,強力な教師LLMによって提供される高品質のコーパスを微調整する。
論文 参考訳(メタデータ) (2023-12-08T03:44:09Z) - The Adoption and Efficacy of Large Language Models: Evidence From Consumer Complaints in the Financial Industry [2.300664273021602]
本研究は、2015年から2024年までの消費者金融保護局に提出された消費者苦情に対するLarge Language Models(LLMs)の効果について検討する。
われわれは100万件以上の苦情を分析し,ChatGPTリリース後のLCM使用量の著しい増加を確認した。
以上の結果から,LCMへのアクセスを促進することで,消費者の関心事の理解を深め,消費者の競争力を高めることができる可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-28T04:07:34Z) - Online Advertisements with LLMs: Opportunities and Challenges [51.96140910798771]
本稿では,オンライン広告システムにおけるLarge Language Models(LLM)の活用の可能性について検討する。
提案手法は,LLM広告の修正,入札,予測,オークションモジュールから構成される。
論文 参考訳(メタデータ) (2023-11-11T02:13:32Z) - Harnessing the Power of LLMs: Evaluating Human-AI Text Co-Creation
through the Lens of News Headline Generation [58.31430028519306]
本研究は, LLMを書き込みに最も有効に活用する方法と, これらのモデルとのインタラクションが, 書き込みプロセスにおけるオーナシップや信頼感にどのように影響するかを考察する。
LLMだけで十分なニュースの見出しを生成することができるが、平均すると、望ましくないモデルのアウトプットを修正するには人間による制御が必要である。
論文 参考訳(メタデータ) (2023-10-16T15:11:01Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - A Cooperative-Competitive Multi-Agent Framework for Auto-bidding in
Online Advertising [53.636153252400945]
本稿では,自動入札のための総合的マルチエージェント強化学習フレームワーク,すなわちMAABを提案し,自動入札戦略を学習する。
当社のアプローチは、社会的福祉の観点から、いくつかの基準的手法を上回り、広告プラットフォームの収益を保証します。
論文 参考訳(メタデータ) (2021-06-11T08:07:14Z) - Modeling Influencer Marketing Campaigns In Social Networks [2.0303656145222857]
世界の38億人以上がソーシャルメディアを積極的に利用している。
本研究では、インフルエンサー広告キャンペーンのダイナミクスをシミュレートできるエージェントベースモデル(ABM)を提案する。
論文 参考訳(メタデータ) (2021-06-03T11:01:06Z) - Dynamic Knapsack Optimization Towards Efficient Multi-Channel Sequential
Advertising [52.3825928886714]
我々は、動的knapsack問題として、シーケンシャルな広告戦略最適化を定式化する。
理論的に保証された二段階最適化フレームワークを提案し、元の最適化空間の解空間を大幅に削減する。
強化学習の探索効率を向上させるため,効果的な行動空間削減手法も考案した。
論文 参考訳(メタデータ) (2020-06-29T18:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。