論文の概要: Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations
- arxiv url: http://arxiv.org/abs/2308.16505v2
- Date: Fri, 1 Sep 2023 15:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-04 10:48:51.540859
- Title: Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations
- Title(参考訳): Recommender AI Agent:対話型レコメンデーションのための大規模言語モデルの統合
- Authors: Xu Huang, Jianxun Lian, Yuxuan Lei, Jing Yao, Defu Lian, Xing Xie
- Abstract要約: InteRecAgentという,大きな言語モデルを脳として,レコメンダモデルをツールとして使用する,効率的なフレームワークを紹介します。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
- 参考スコア(独自算出の注目度): 53.76682562935373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender models excel at providing domain-specific item recommendations by
leveraging extensive user behavior data. Despite their ability to act as
lightweight domain experts, they struggle to perform versatile tasks such as
providing explanations and engaging in conversations. On the other hand, large
language models (LLMs) represent a significant step towards artificial general
intelligence, showcasing remarkable capabilities in instruction comprehension,
commonsense reasoning, and human interaction. However, LLMs lack the knowledge
of domain-specific item catalogs and behavioral patterns, particularly in areas
that diverge from general world knowledge, such as online e-commerce.
Finetuning LLMs for each domain is neither economic nor efficient.
In this paper, we bridge the gap between recommender models and LLMs,
combining their respective strengths to create a versatile and interactive
recommender system. We introduce an efficient framework called InteRecAgent,
which employs LLMs as the brain and recommender models as tools. We first
outline a minimal set of essential tools required to transform LLMs into
InteRecAgent. We then propose an efficient workflow within InteRecAgent for
task execution, incorporating key components such as a memory bus, dynamic
demonstration-augmented task planning, and reflection. InteRecAgent enables
traditional recommender systems, such as those ID-based matrix factorization
models, to become interactive systems with a natural language interface through
the integration of LLMs. Experimental results on several public datasets show
that InteRecAgent achieves satisfying performance as a conversational
recommender system, outperforming general-purpose LLMs.
- Abstract(参考訳): Recommenderモデルは、広範囲なユーザー行動データを活用することで、ドメイン固有のアイテムレコメンデーションを提供する。
軽量なドメインエキスパートとして振る舞う能力にもかかわらず、説明の提供や会話への参加といった多彩なタスクをこなすのに苦労しています。
一方、大規模言語モデル(LLM)は、命令理解、常識推論、ヒューマンインタラクションにおいて顕著な能力を示す、人工知能への重要な一歩である。
しかしながら、llmにはドメイン固有の項目カタログや行動パターンに関する知識が欠けている。
各領域の微調整 LLM は経済的でも効率的でもない。
本稿では,レコメンダモデルとLLMのギャップを埋め,それぞれの強みを組み合わせ,多目的かつ対話的なレコメンダシステムを構築する。
llmを脳として使用するinterecagentという効率的なフレームワークを導入し,ツールとしてレコメンデータモデルを推奨する。
まず LLM を InteRecAgent に変換するために必要な,最小限のツールについて概説する。
次に、メモリバス、動的デモ強化タスク計画、リフレクションといった重要なコンポーネントを組み込んだタスク実行のためのInteRecAgent内の効率的なワークフローを提案する。
InteRecAgentは、これらのIDベースの行列因数分解モデルのような従来のレコメンデータシステムにおいて、LLMの統合を通じて自然言語インタフェースによる対話型システムを実現する。
InteRecAgentは対話型レコメンデータシステムとしての性能を達成し,汎用LLMよりも優れていた。
関連論文リスト
- MLLM-Tool: A Multimodal Large Language Model For Tool Agent Learning [38.610185966889226]
本稿では,オープンソースの大規模言語モデルとマルチモーダルエンコーダを組み合わせたMLLM-Toolを提案する。
学習したLLMはマルチモーダルな入力命令を意識し、関数マッチングツールを正しく選択することができる。
実験の結果,MLLM-Toolはマルチモーダル命令に適したツールを推奨できることがわかった。
論文 参考訳(メタデータ) (2024-01-19T14:44:37Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - On Generative Agents in Recommendation [65.52796348055281]
Agent4RecはLarge Language Models (LLM)に基づく映画レコメンデーションシミュレータである。
ユーザプロファイル、メモリ、アクションモジュールを備えたLLMを内蔵した生成エージェントは、レコメンダシステムに特化している。
Agent4Recの評価では、エージェント間のアライメントと逸脱とユーザ個人化された好みの両方を強調している。
論文 参考訳(メタデータ) (2023-10-16T06:41:16Z) - MLLM-DataEngine: An Iterative Refinement Approach for MLLM [62.30753425449056]
本稿では,データ生成,モデルトレーニング,評価を橋渡しする新しいクローズドループシステムを提案する。
各ループ内で、MLLM-DataEngineはまず評価結果に基づいてモデルの弱点を分析する。
ターゲットとして,異なる種類のデータの比率を調整する適応型バッドケースサンプリングモジュールを提案する。
品質については、GPT-4を用いて、各データタイプで高品質なデータを生成する。
論文 参考訳(メタデータ) (2023-08-25T01:41:04Z) - AgentBench: Evaluating LLMs as Agents [88.45506148281379]
大規模言語モデル(LLM)は、従来のNLPタスクを超えた現実的な実用的ミッションをターゲットとして、ますます賢く自律的になってきています。
我々は,現在8つの異なる環境からなるベンチマークであるAgentBenchを紹介し,LLM-as-Agentの推論と意思決定能力を評価する。
論文 参考訳(メタデータ) (2023-08-07T16:08:11Z) - Generative Multimodal Entity Linking [24.322540112710918]
MEL(Multimodal Entity Linking)は、知識ベースからの参照エンティティへの参照をマルチモーダルコンテキストでマッピングするタスクである。
既存のMEL法は主に複雑なマルチモーダル相互作用機構の設計に重点を置いており、すべてのモデルパラメータを微調整する必要がある。
大規模言語モデル(LLM)に基づくジェネレーティブマルチモーダルエンティティリンクフレームワークであるGEMELを提案する。
当社のフレームワークは市販の言語モデルと互換性があり、効率的で汎用的なソリューションへの道を開いたものです。
論文 参考訳(メタデータ) (2023-06-22T07:57:19Z) - Enabling Intelligent Interactions between an Agent and an LLM: A
Reinforcement Learning Approach [33.24651276102073]
大規模言語モデル(LLM)は、大量のテキストデータセットから得られた膨大な量の世界の知識を符号化する。
LLMは、高レベルな命令を提供することで、複雑なシーケンシャルな意思決定タスクを解決するための実施エージェントを支援することができる。
本研究では,高レベルの命令に対してLLMを問合せする必要がある場合に学習する強化学習ベースのアプローチである When2Ask を提案する。
論文 参考訳(メタデータ) (2023-06-06T11:49:09Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。