論文の概要: Large Language Models for User Interest Journeys
- arxiv url: http://arxiv.org/abs/2305.15498v1
- Date: Wed, 24 May 2023 18:40:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 19:00:14.017882
- Title: Large Language Models for User Interest Journeys
- Title(参考訳): ユーザの興味を引くための大規模言語モデル
- Authors: Konstantina Christakopoulou, Alberto Lalama, Cj Adams, Iris Qu, Yifat
Amir, Samer Chucri, Pierce Vollucci, Fabio Soldo, Dina Bseiso, Sarah Scodel,
Lucas Dixon, Ed H. Chi, Minmin Chen
- Abstract要約: 大規模言語モデル(LLM)は、自然言語の理解と生成において印象的な能力を示している。
本稿は,LLMがユーザ活動を通じて理屈を定め,その興味を,人間と同じようなニュアンスで興味深い方法で表現することができることを論じる。
本稿では,まず関心旅行の個別抽出を行い,抽出した旅をLLMで要約する枠組みを提案する。
- 参考スコア(独自算出の注目度): 14.219969535206861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have shown impressive capabilities in natural
language understanding and generation. Their potential for deeper user
understanding and improved personalized user experience on recommendation
platforms is, however, largely untapped. This paper aims to address this gap.
Recommender systems today capture users' interests through encoding their
historical activities on the platforms. The generated user representations are
hard to examine or interpret. On the other hand, if we were to ask people about
interests they pursue in their life, they might talk about their hobbies, like
I just started learning the ukulele, or their relaxation routines, e.g., I like
to watch Saturday Night Live, or I want to plant a vertical garden. We argue,
and demonstrate through extensive experiments, that LLMs as foundation models
can reason through user activities, and describe their interests in nuanced and
interesting ways, similar to how a human would.
We define interest journeys as the persistent and overarching user interests,
in other words, the non-transient ones. These are the interests that we believe
will benefit most from the nuanced and personalized descriptions. We introduce
a framework in which we first perform personalized extraction of interest
journeys, and then summarize the extracted journeys via LLMs, using techniques
like few-shot prompting, prompt-tuning and fine-tuning. Together, our results
in prompting LLMs to name extracted user journeys in a large-scale industrial
platform demonstrate great potential of these models in providing deeper, more
interpretable, and controllable user understanding. We believe LLM powered user
understanding can be a stepping stone to entirely new user experiences on
recommendation platforms that are journey-aware, assistive, and enabling
frictionless conversation down the line.
- Abstract(参考訳): 大規模言語モデル(llm)は自然言語理解と生成において素晴らしい能力を示している。
しかし、より深いユーザー理解とレコメンデーションプラットフォームでのパーソナライズされたユーザーエクスペリエンス改善のポテンシャルは、ほとんど未解決である。
本稿は,このギャップに対処することを目的とする。
現在、レコメンダシステムはプラットフォーム上での過去の活動をエンコードすることでユーザーの興味を捉えている。
生成されたユーザ表現は検証や解釈が難しい。
一方、もし彼らが人生で追求する関心について人々に尋ねるならば、私はウクレレを習い始めたばかりか、土曜の夜をライブで見るのが好き、垂直の庭を植えたいなど、彼らの趣味について話すかもしれません。
我々は、広範囲にわたる実験を通じて、LLMを基礎モデルとして、ユーザー活動を通じて推論し、その興味を人間と同じように、微妙で興味深い方法で記述することができると論じる。
我々は、ユーザーの興味を永続的で包括的なもの、つまり非トランザクティブなものと定義する。
これらは、ニュアンスとパーソナライズされた説明から最も恩恵を受けると信じている関心事です。
まず興味のある旅をパーソナライズして抽出し,そこから抽出した旅をllmsで要約し,マイショット・プロンプトやプロンプト・チューニング,微調整といった手法を紹介する。
大規模産業プラットフォームにおけるLLMのユーザジャーニーの命名を促す結果は、より深く、より解釈可能で、制御可能なユーザ理解を提供する上で、これらのモデルの大きな可能性を示している。
LLMを利用したユーザ理解は、旅行に気付き、補助的であり、摩擦のない会話を可能にするレコメンデーションプラットフォームにおける、まったく新しいユーザエクスペリエンスの足掛かりになると考えています。
関連論文リスト
- User Preferences for Large Language Model versus Template-Based Explanations of Movie Recommendations: A Pilot Study [0.6965384453064829]
大規模言語モデル(LLM)は、レコメンダシステムに対してより共鳴的な説明を生成することができる。
25名の被験者を対象にパイロット実験を行った。
LLMに基づく説明がよりリッチで魅力的なユーザエクスペリエンスを提供する可能性を示唆する予備的な研究結果が得られた。
論文 参考訳(メタデータ) (2024-09-10T07:51:53Z) - Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - Large Language Models as Conversational Movie Recommenders: A User Study [3.3636849604467]
大規模言語モデル(LLM)は、強い推薦性を提供するが、全体的なパーソナライゼーション、多様性、ユーザ信頼は欠如している。
LLMは、あまり知られていない映画やニッチ映画を推薦する能力を高めている。
論文 参考訳(メタデータ) (2024-04-29T20:17:06Z) - Bayesian Preference Elicitation with Language Models [82.58230273253939]
本稿では,BOEDを用いて情報的質問の選択を案内するフレームワークOPENと,特徴抽出のためのLMを紹介する。
ユーザスタディでは,OPEN が既存の LM- や BOED をベースとした選好手法よりも優れていることが判明した。
論文 参考訳(メタデータ) (2024-03-08T18:57:52Z) - Your Large Language Model is Secretly a Fairness Proponent and You
Should Prompt it Like One [43.37522760105383]
フェアシンキング(FairThinking)は、LLMが公正表現に対して様々な視点を明確化できる役割を自動生成するパイプラインである。
FairThinkingを評価するために、3つのフェアネス関連トピックをカバーする1000項目のデータセットを作成し、GPT-3.5、GPT-4、Llama2、Mistralで実験を行う。
論文 参考訳(メタデータ) (2024-02-19T14:02:22Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - Knowledge-Augmented Large Language Models for Personalized Contextual
Query Suggestion [16.563311988191636]
我々は,Web上での検索と閲覧活動に基づいて,各ユーザを対象としたエンティティ中心の知識ストアを構築した。
この知識ストアは、公的な知識グラフ上の興味と知識のユーザ固有の集約予測のみを生成するため、軽量である。
論文 参考訳(メタデータ) (2023-11-10T01:18:47Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - Reformulating Sequential Recommendation: Learning Dynamic User Interest with Content-enriched Language Modeling [18.297332953450514]
本稿では、事前学習した言語モデルの意味理解機能を活用してパーソナライズされたレコメンデーションを生成するLANCERを提案する。
我々のアプローチは、言語モデルとレコメンデーションシステムの間のギャップを埋め、より人間的なレコメンデーションを生み出します。
論文 参考訳(メタデータ) (2023-09-19T08:54:47Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z) - Robust Preference Learning for Storytelling via Contrastive
Reinforcement Learning [53.92465205531759]
制御された自動ストーリ生成は、自然言語批判や嗜好から制約を満たす自然言語ストーリを生成することを目指している。
対照的なバイエンコーダモデルをトレーニングし、ストーリーを人間の批評と整合させ、汎用的な嗜好モデルを構築する。
我々はさらに、ストーリー生成の堅牢性を高めるために、プロンプトラーニング技術を用いて、対照的な報酬モデルを微調整する。
論文 参考訳(メタデータ) (2022-10-14T13:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。