論文の概要: Making Large Language Models Better Knowledge Miners for Online
Marketing with Progressive Prompting Augmentation
- arxiv url: http://arxiv.org/abs/2312.05276v1
- Date: Fri, 8 Dec 2023 03:44:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 21:58:51.993476
- Title: Making Large Language Models Better Knowledge Miners for Online
Marketing with Progressive Prompting Augmentation
- Title(参考訳): プログレッシブ・プロンプト強化によるオンラインマーケティングのための大規模言語モデルによる知識マイニング
- Authors: Chunjing Gan, Dan Yang, Binbin Hu, Ziqi Liu, Yue Shen, Zhiqiang Zhang,
Jinjie Gu, Jun Zhou, Guannan Zhang
- Abstract要約: マーケティング指向の知識グラフをLLMで抽出するためのプログレッシブプロンプトであるPAIRを提案する。
特に,LLMをベースとした適応的関係フィルタリングプロセスにおける純粋関係生成を知識駆動型プロンプト技術により削減する。
オンラインサービスに関しては,中小のPAIR(LightPAIR)を専門とし,強力な教師LLMによって提供される高品質のコーパスを微調整する。
- 参考スコア(独自算出の注目度): 34.37733369078883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, the rapid development of mobile economy has promoted the
flourishing of online marketing campaigns, whose success greatly hinges on the
efficient matching between user preferences and desired marketing campaigns
where a well-established Marketing-oriented Knowledge Graph (dubbed as MoKG)
could serve as the critical "bridge" for preference propagation. In this paper,
we seek to carefully prompt a Large Language Model (LLM) with domain-level
knowledge as a better marketing-oriented knowledge miner for marketing-oriented
knowledge graph construction, which is however non-trivial, suffering from
several inevitable issues in real-world marketing scenarios, i.e.,
uncontrollable relation generation of LLMs,insufficient prompting ability of a
single prompt, the unaffordable deployment cost of LLMs. To this end, we
propose PAIR, a novel Progressive prompting Augmented mIning fRamework for
harvesting marketing-oriented knowledge graph with LLMs. In particular, we
reduce the pure relation generation to an LLM based adaptive relation filtering
process through the knowledge-empowered prompting technique. Next, we steer
LLMs for entity expansion with progressive prompting augmentation,followed by a
reliable aggregation with comprehensive consideration of both self-consistency
and semantic relatedness. In terms of online serving, we specialize in a small
and white-box PAIR (i.e.,LightPAIR),which is fine-tuned with a high-quality
corpus provided by a strong teacher-LLM. Extensive experiments and practical
applications in audience targeting verify the effectiveness of the proposed
(Light)PAIR.
- Abstract(参考訳): 現在では、モバイル経済の急速な発展により、オンラインマーケティングキャンペーンの興隆が促進され、その成功はユーザーの好みと望ましいマーケティングキャンペーンとの効率的なマッチングに大きく依存している。
本稿では,LLMの制御不能な関係生成,単一プロンプトの容易な促進,LCMの展開コストなど,現実のマーケティングシナリオにおいて避けられないいくつかの問題に悩まされている,マーケティング指向の知識グラフ構築のためのマーケティング指向の知識マイナーとして,ドメインレベルの知識を持つ大規模言語モデル(LLM)を慎重に推進することを目的とする。
そこで本研究では,マーケティング指向の知識グラフをLLMで抽出するためのプログレッシブプロンプトであるPAIRを提案する。
特に,LLMをベースとした適応的関係フィルタリングにおける純粋関係生成を知識駆動型プロンプト技術により削減する。
次に, 自己整合性および意味的関連性の両方を包括的に考慮した, 信頼度の高いアグリゲーションにより, 進行的促進を伴うエンティティ拡張のためのLCMについて検討する。
オンラインサービスに関しては,中小のPAIR(LightPAIR)を専門とし,強力な教師LLMによって提供される高品質のコーパスを微調整する。
オーディエンスを対象とした大規模な実験と実践的応用が提案された(光)PAIRの有効性を検証する。
関連論文リスト
- Truthful Aggregation of LLMs with an Application to Online Advertising [11.552000005640203]
本研究では,モデルウェイトへの微調整やアクセスなしに動作可能なオークション機構を提案する。
この機構は、計算資源が増加するにつれて最適に微調整されたLLMの出力に確実に収束するように設計されている。
実験結果から,本機構は最適微調整LDMに効率よく収束するだけでなく,広告主の価値やプラットフォーム収益を大幅に向上させることが明らかとなった。
論文 参考訳(メタデータ) (2024-05-09T17:01:31Z) - CourseGPT-zh: an Educational Large Language Model Based on Knowledge Distillation Incorporating Prompt Optimization [22.080563239179618]
大規模言語モデル(LLM)は自然言語処理(NLP)タスクにおいて驚くべき機能を示している。
我々は、カスタマイズと低コストな展開をサポートするコース指向LLMであるCourseGPT-zhを提案する。
論文 参考訳(メタデータ) (2024-05-08T03:11:12Z) - Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - Knowledgeable Agents by Offline Reinforcement Learning from Large Language Model Rollouts [10.929547354171723]
本稿では,言語モデルロールアウト(KALM)の知識エージェントを紹介する。
大規模言語モデル(LLM)から、オフラインの強化学習手法によってエージェントが容易に学習できる想像上のロールアウトの形で知識を抽出する。
未確認の目標を持つタスクの実行において46%の成功率を達成し、ベースラインメソッドによって達成された26%の成功率を大幅に上回る。
論文 参考訳(メタデータ) (2024-04-14T13:19:40Z) - PANDA: Preference Adaptation for Enhancing Domain-Specific Abilities of
LLMs [51.17542331993448]
大規模言語モデルは、しばしばドメイン固有の最先端モデルによって達成されるパフォーマンスに欠ける。
LLMのドメイン固有の機能を強化する1つの潜在的アプローチは、対応するデータセットを使用してそれらを微調整することである。
LLM(PANDA)のドメイン固有能力を高めるための優先度適応法を提案する。
実験の結果,PANDA はテキスト分類や対話型意思決定タスクにおいて LLM のドメイン固有性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-20T09:02:55Z) - An Embarrassingly Simple Approach for LLM with Strong ASR Capacity [56.30595787061546]
我々は,音声基礎エンコーダと大規模言語モデル(LLM)を用いて,音声処理の分野で最も重要な課題の1つを解決することに注力する。
最近の研究は、音声エンコーダの出力を時間的に圧縮したり、プロジェクタのモーダルアライメントに対処したり、LLMのパラメータ効率の良い微調整を利用するといった複雑な設計をしている。
そこで本研究では,市販の音声エンコーダLLMと,トレーニング可能な唯一の線形プロジェクタの単純な構成がASRタスクに適しているのに対して,繊細な設計は必要ないことを発見した。
論文 参考訳(メタデータ) (2024-02-13T23:25:04Z) - Improving Contextual Congruence Across Modalities for Effective
Multimodal Marketing using Knowledge-infused Learning [3.3281180957341117]
大規模言語 (LLM) とビジョンモデル (LVM) は、いまだに、モーダルなセマンティックな関係を持つ全体的意味を捉えている。
我々は、ダウンストリームタスクの性能を向上させるために、大きなVLMを持つ知識グラフの形で、明示的なコモンセンス知識を結合するフレームワークを設計する。
提案手法は,潜在的に説得力のあるマルチモーダルキャンペーンの早期発見と,マーケティング理論の評価と強化を可能にする。
論文 参考訳(メタデータ) (2024-02-06T00:51:27Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Online Advertisements with LLMs: Opportunities and Challenges [51.96140910798771]
本稿では,オンライン広告システムにおけるLarge Language Models(LLM)の活用の可能性について検討する。
プライバシー、レイテンシ、信頼性、そしてそのようなシステムが満たさなければならないユーザや広告主の満足度など、基本的な要件を探求します。
論文 参考訳(メタデータ) (2023-11-11T02:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。