論文の概要: Online Advertisements with LLMs: Opportunities and Challenges
- arxiv url: http://arxiv.org/abs/2311.07601v2
- Date: Wed, 14 Feb 2024 00:02:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 19:08:34.623487
- Title: Online Advertisements with LLMs: Opportunities and Challenges
- Title(参考訳): LLMのオンライン化 - 機会と課題
- Authors: Soheil Feizi, MohammadTaghi Hajiaghayi, Keivan Rezaei, Suho Shin
- Abstract要約: 本稿では,オンライン広告システムにおけるLarge Language Models(LLM)の活用の可能性について検討する。
プライバシー、レイテンシ、信頼性、そしてそのようなシステムが満たさなければならないユーザーや広告主の満足度など、基本的な要件を探求します。
- 参考スコア(独自算出の注目度): 56.7641065682979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the potential for leveraging Large Language Models (LLM)
in the realm of online advertising systems. We delve into essential
requirements including privacy, latency, reliability as well as the
satisfaction of users and advertisers which such a system must fulfill. We
further introduce a general framework for LLM advertisement, consisting of
modification, bidding, prediction, and auction modules. Different design
considerations for each module is presented, with an in-depth examination of
their practicality and the technical challenges inherent to their
implementation. Finally, we explore the prospect of LLM-based dynamic creative
optimization as a means to significantly enhance the appeal of advertisements
to users and discuss its additional challenges.
- Abstract(参考訳): 本稿では,オンライン広告システムにおけるLarge Language Models(LLM)の活用の可能性について検討する。
我々は、プライバシー、レイテンシ、信頼性、およびそのようなシステムが満たさなければならないユーザーと広告主の満足度といった必須要件を精査する。
さらに,修正,入札,予測,オークションモジュールからなるLCM広告の一般的なフレームワークを紹介する。
各モジュールに対する異なる設計上の考慮事項が提示され、その実用性と実装に固有の技術的課題を詳細に検討する。
最後に,ユーザへの広告の魅力を著しく高める手段として,llmに基づく動的創造的最適化の展望を考察し,さらなる課題について考察する。
関連論文リスト
- PANDA: Preference Adaptation for Enhancing Domain-Specific Abilities of
LLMs [51.17542331993448]
大規模言語モデルは、しばしばドメイン固有の最先端モデルによって達成されるパフォーマンスに欠ける。
LLMのドメイン固有の機能を強化する1つの潜在的アプローチは、対応するデータセットを使用してそれらを微調整することである。
LLM(PANDA)のドメイン固有能力を高めるための優先度適応法を提案する。
実験の結果,PANDA はテキスト分類や対話型意思決定タスクにおいて LLM のドメイン固有性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-20T09:02:55Z) - Supervised Knowledge Makes Large Language Models Better In-context
Learners [97.71733265438044]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Making Large Language Models Better Knowledge Miners for Online
Marketing with Progressive Prompting Augmentation [34.37733369078883]
マーケティング指向の知識グラフをLLMで抽出するためのプログレッシブプロンプトであるPAIRを提案する。
特に,LLMをベースとした適応的関係フィルタリングプロセスにおける純粋関係生成を知識駆動型プロンプト技術により削減する。
オンラインサービスに関しては,中小のPAIR(LightPAIR)を専門とし,強力な教師LLMによって提供される高品質のコーパスを微調整する。
論文 参考訳(メタデータ) (2023-12-08T03:44:09Z) - A Survey on Detection of LLMs-Generated Content [97.87912800179531]
LLMの生成する内容を検出する能力が最重要視されている。
既存の検出戦略とベンチマークの詳細な概要を提供する。
また、様々な攻撃から守るための多面的アプローチの必要性を示唆する。
論文 参考訳(メタデータ) (2023-10-24T09:10:26Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - LLaMA-E: Empowering E-commerce Authoring with Multi-Aspect Instruction
Following [13.05587396825279]
本稿では,多様なeコマースオーサリングタスクに着目した,統一的でカスタマイズされた命令フォロー言語モデルであるLLaMA-Eを提案する。
GPT-3.5は、様々なスケールでLLaMA-Eモデルのトレーニングセットを形成するためにシード命令を拡張する教師モデルとして導入された。
論文 参考訳(メタデータ) (2023-08-09T12:26:37Z) - Recommender Systems in the Era of Large Language Models (LLMs) [36.87760144204833]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - PRISMA-DFLLM: An Extension of PRISMA for Systematic Literature Reviews
using Domain-specific Finetuned Large Language Models [0.0]
本稿では,Large Language Models(LLMs)のパワーと,PRISMA(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)の厳密な報告ガイドラインを組み合わせたAI対応方法論フレームワークを提案する。
厳密なSLRプロセスの結果として選択されたドメイン固有の学術論文にLCMを微調整することにより、提案するPRISMA-DFLLMレポートガイドラインは、より効率、再利用性、拡張性を達成する可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-15T02:52:50Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。