論文の概要: Dynamic In-Context Learning from Nearest Neighbors for Bundle Generation
- arxiv url: http://arxiv.org/abs/2312.16262v1
- Date: Tue, 26 Dec 2023 08:24:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 20:17:39.980225
- Title: Dynamic In-Context Learning from Nearest Neighbors for Bundle Generation
- Title(参考訳): バンドル生成のための近傍からの動的インコンテキスト学習
- Authors: Zhu Sun, Kaidong Feng, Jie Yang, Xinghua Qu, Hui Fang, Yew-Soon Ong,
Wenyuan Liu
- Abstract要約: 本稿では,セッション中のユーザのインタラクションに基づいて,パーソナライズされたバンドル生成と,その基盤となる意図推論という2つの相互関連タスクについて検討する。
そこで我々は,ChatGPTが密接に関連するセッションから,高度で動的に学習できる動的インコンテキスト学習パラダイムを提案する。
本研究では,(1)監督信号のないタスク間の相互改善を促進する自己補正戦略,(2)動的監視を繰り返す自動フィードバック機構を開発する。
- 参考スコア(独自算出の注目度): 33.25497578184437
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Product bundling has evolved into a crucial marketing strategy in e-commerce.
However, current studies are limited to generating (1) fixed-size or single
bundles, and most importantly, (2) bundles that do not reflect consistent user
intents, thus being less intelligible or useful to users. This paper explores
two interrelated tasks, i.e., personalized bundle generation and the underlying
intent inference based on users' interactions in a session, leveraging the
logical reasoning capability of large language models. We introduce a dynamic
in-context learning paradigm, which enables ChatGPT to seek tailored and
dynamic lessons from closely related sessions as demonstrations while
performing tasks in the target session. Specifically, it first harnesses
retrieval augmented generation to identify nearest neighbor sessions for each
target session. Then, proper prompts are designed to guide ChatGPT to perform
the two tasks on neighbor sessions. To enhance reliability and mitigate the
hallucination issue, we develop (1) a self-correction strategy to foster mutual
improvement in both tasks without supervision signals; and (2) an auto-feedback
mechanism to recurrently offer dynamic supervision based on the distinct
mistakes made by ChatGPT on various neighbor sessions. Thus, the target session
can receive customized and dynamic lessons for improved performance by
observing the demonstrations of its neighbor sessions. Finally, experimental
results on three real-world datasets verify the effectiveness of our methods on
both tasks. Additionally, the inferred intents can prove beneficial for other
intriguing downstream tasks, such as crafting appealing bundle names.
- Abstract(参考訳): 商品のバンドルは、eコマースにおける重要なマーケティング戦略へと進化した。
しかし、現状の研究は(1)固定サイズまたは単一バンドルの生成に限られており、特に、(2)一貫したユーザ意図を反映しないバンドルは、ユーザにとって理解しにくい、あるいは有用ではない。
本稿では,2つの相互関連タスク,すなわちパーソナライズされたバンドル生成と,大規模言語モデルの論理的推論機能を活用したセッションにおけるユーザのインタラクションに基づく意図推論について検討する。
そこで本研究では,ChatGPTが目標セッションでタスクを実行しながら,より密接なセッションから適切な動的レッスンを提示する動的インコンテキスト学習パラダイムを提案する。
具体的には、まず検索拡張生成を利用して、ターゲットセッション毎に最も近い隣のセッションを特定する。
次に、適切なプロンプトはChatGPTをガイドして隣のセッションで2つのタスクを実行するように設計されている。
幻覚の問題を緩和し信頼性を高めるため,(1) 監督信号なしでタスク間の相互改善を促進する自己補正戦略,(2) 近隣の様々なセッションにおいてChatGPTが犯した異なる誤りに基づいて動的監視を繰り返す自動フィードバック機構を開発する。
これにより、ターゲットセッションは、隣のセッションのデモを観察してパフォーマンスを改善するためのカスタマイズされた動的レッスンを受けることができる。
最後に,実世界の3つのデータセットによる実験結果から,本手法の有効性を検証した。
さらに、推論された意図は、魅力的なバンドル名を作成するなど、他の下流タスクにとって有益である。
関連論文リスト
- A Systematic Examination of Preference Learning through the Lens of Instruction-Following [83.71180850955679]
新たな合成データ生成パイプラインを用いて48,000の命令追従プロンプトを生成する。
合成プロンプトでは、リジェクションサンプリング(RS)とモンテカルロ木探索(MCTS)の2つの選好データセットキュレーション手法を用いる。
実験により、MCTSが生成した選好ペアにおける共有プレフィックスは、限界はあるが一貫した改善をもたらすことが明らかになった。
高コントラストの選好ペアは一般的に低コントラストのペアよりも優れているが、両者を組み合わせることで最高のパフォーマンスが得られることが多い。
論文 参考訳(メタデータ) (2024-12-18T15:38:39Z) - LIBER: Lifelong User Behavior Modeling Based on Large Language Models [42.045535303737694]
大規模言語モデルに基づく生涯ユーザ行動モデリング(LIBER)を提案する。
LIBERはHuaweiの音楽レコメンデーションサービスにデプロイされ、ユーザーの再生回数と再生時間の3.01%と7.69%を大幅に改善した。
論文 参考訳(メタデータ) (2024-11-22T03:43:41Z) - Teaching Models to Improve on Tape [30.330699770714165]
大きな言語モデル(LLM)は、特定の制約の下でコンテンツを生成するよう促されたときにしばしば苦労する。
最近の研究によると、LLMはそのような「修正的フィードバック」の恩恵を受けることができる。
本稿では,そのような報酬をモデルに教えるためのRLフレームワークを紹介し,その制約を満たす能力に応じてモデルに報酬を与える。
論文 参考訳(メタデータ) (2024-11-03T08:49:55Z) - ItTakesTwo: Leveraging Peer Representations for Semi-supervised LiDAR Semantic Segmentation [24.743048965822297]
本稿では,ItTakesTwo (IT2) と呼ばれる半教師付きLiDARセマンティックセマンティックセマンティクスフレームワークを提案する。
IT2は、ピアLiDAR表現からの一貫性のある予測を保証するために設計されており、一貫性学習における摂動効率を改善する。
その結果,本手法は従来のSOTA法よりも顕著に改善されていることがわかった。
論文 参考訳(メタデータ) (2024-07-09T18:26:53Z) - WavLLM: Towards Robust and Adaptive Speech Large Language Model [93.0773293897888]
本稿では,2つのエンコーダを持つ頑健で適応的な音声大言語モデルであるWavLLMと,プロンプト対応のLoRA重み付けアダプタを紹介する。
ASR, ST, SV, ERなどのタスクを含むユニバーサル音声ベンチマークにおいて提案手法の有効性を検証し, SQA用ガオカオ英語聴取理解セット, CoT 評価セットなどの特殊データセットに適用する。
論文 参考訳(メタデータ) (2024-03-31T12:01:32Z) - Large Language Models for Intent-Driven Session Recommendations [34.64421003286209]
大規模言語モデル(LLM)の高度な推論機能を活用した新しいISR手法を提案する。
本稿では,プロンプトを反復的に自己表現し,調整するイノベーティブなプロンプト最適化機構を提案する。
この新たなパラダイムは、LLMに対して、さまざまなユーザ意図をセマンティックレベルで識別する権限を与え、より正確で解釈可能なセッションレコメンデーションをもたらす。
論文 参考訳(メタデータ) (2023-12-07T02:25:14Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - Multimodal Sequential Generative Models for Semi-Supervised Language
Instruction Following [26.386772715777223]
本稿では,タスクの指示における半教師付き学習のためのマルチモーダル生成モデルを提案する。
モデルは、ペア化されたデータの共有表現を学習し、未ペアデータの再構築によって半教師付き学習を可能にする。
BabyAIおよびRoom-to-Room環境における実験により,提案手法は未ペアデータを活用することにより,命令の処理性能を向上させることを示した。
論文 参考訳(メタデータ) (2022-12-29T03:23:43Z) - Intent Contrastive Learning for Sequential Recommendation [86.54439927038968]
ユーザの意図を表現するために潜伏変数を導入し,クラスタリングにより潜伏変数の分布関数を学習する。
我々は,学習意図を対照的なSSLによってSRモデルに活用し,シーケンスのビューとそれに対応するインテントとの一致を最大化することを提案する。
4つの実世界のデータセットで実施された実験は、提案した学習パラダイムの優位性を示している。
論文 参考訳(メタデータ) (2022-02-05T09:24:13Z) - Learning to Relate Depth and Semantics for Unsupervised Domain
Adaptation [87.1188556802942]
教師なしドメイン適応(UDA)設定において,視覚的タスク関係を符号化してモデル性能を向上させる手法を提案する。
本稿では,意味的および深さ的予測のタスク依存性を符号化する新しいクロスタスク関係層(ctrl)を提案する。
さらに、セマンティック擬似ラベルを利用してターゲットドメインを監督する反復自己学習(ISL)トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2021-05-17T13:42:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。