論文の概要: Towards Reliable Multi-Agent Systems for Marketing Applications via Reflection, Memory, and Planning
- arxiv url: http://arxiv.org/abs/2508.11120v2
- Date: Mon, 18 Aug 2025 22:18:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 11:25:17.707233
- Title: Towards Reliable Multi-Agent Systems for Marketing Applications via Reflection, Memory, and Planning
- Title(参考訳): リフレクション, メモリ, プランニングによるアプリケーションマーケティングのための信頼性の高いマルチエージェントシステムの実現に向けて
- Authors: Lorenzo Jaime Yu Flores, Junyi Shen, Goodman Gu,
- Abstract要約: 我々はRAMPと呼ばれるフレームワークを導入し、反復的に計画し、ツールを呼び出し、アウトプットを検証し、生成したオーディエンスの品質を改善するための提案を生成する。
我々は、クライアント固有の事実と過去のクエリの知識ベースである長期記憶ストアにモデルを装備する。
全体として、88個の評価クエリに対して、精度を28ポイント向上するLSM計画とメモリの使用を実証する。
- 参考スコア(独自算出の注目度): 0.5828668695854936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in large language models (LLMs) enabled the development of AI agents that can plan and interact with tools to complete complex tasks. However, literature on their reliability in real-world applications remains limited. In this paper, we introduce a multi-agent framework for a marketing task: audience curation. To solve this, we introduce a framework called RAMP that iteratively plans, calls tools, verifies the output, and generates suggestions to improve the quality of the audience generated. Additionally, we equip the model with a long-term memory store, which is a knowledge base of client-specific facts and past queries. Overall, we demonstrate the use of LLM planning and memory, which increases accuracy by 28 percentage points on a set of 88 evaluation queries. Moreover, we show the impact of iterative verification and reflection on more ambiguous queries, showing progressively better recall (roughly +20 percentage points) with more verify/reflect iterations on a smaller challenge set, and higher user satisfaction. Our results provide practical insights for deploying reliable LLM-based systems in dynamic, industry-facing environments.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩により、複雑なタスクを完了するためのツールを計画し、対話できるAIエージェントの開発が可能になった。
しかし、実際の応用における信頼性に関する文献は限られている。
本稿では,マーケティングタスクのためのマルチエージェントフレームワークであるオーディエンスキュレーションを紹介する。
そこで我々は,RAMPと呼ばれるフレームワークを導入し,反復的に計画し,ツールを呼び出し,アウトプットを検証し,生成したオーディエンスの品質を向上させるための提案を生成する。
さらに、クライアント固有の事実や過去のクエリの知識ベースである長期記憶ストアをモデルに装備する。
全体として、88個の評価クエリに対して、精度を28ポイント向上するLSM計画とメモリの使用を実証する。
さらに、反復的検証とリフレクションがよりあいまいなクエリに与える影響を示し、より検証/再帰的なイテレーションがより小さな課題セットで、より高いユーザ満足度で、徐々に改善されたリコール(約20ポイント)を示す。
本研究は, LLMをベースとした信頼性の高いシステムを, 動的, 産業的な環境に展開するための実践的な知見を提供する。
関連論文リスト
- MemInsight: Autonomous Memory Augmentation for LLM Agents [12.620141762922168]
セマンティックなデータ表現と検索機構を強化するために,自動メモリ拡張手法であるMemInsightを提案する。
提案手法の有効性を,会話推薦,質問応答,イベント要約の3つのシナリオで実証的に検証した。
論文 参考訳(メタデータ) (2025-03-27T17:57:28Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - AgentOccam: A Simple Yet Strong Baseline for LLM-Based Web Agents [52.13695464678006]
本研究は, 観察空間と行動空間を簡略化することで, LLMベースのWebエージェントを強化する。
AgentOccam は以前の最先端および同時処理を 9.8 (+29.4%) と 5.9 (+15.8%) で上回っている。
論文 参考訳(メタデータ) (2024-10-17T17:50:38Z) - Fact, Fetch, and Reason: A Unified Evaluation of Retrieval-Augmented Generation [19.312330150540912]
新たなアプリケーションは、Large Language Models(LLMs)を使用して、検索強化世代(RAG)機能を強化している。
FRAMESは,LLMが現実的な応答を提供する能力をテストするために設計された高品質な評価データセットである。
本稿では,最先端のLLMでもこの課題に対処し,0.40の精度で検索を行なわないことを示す。
論文 参考訳(メタデータ) (2024-09-19T17:52:07Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - A Survey on the Memory Mechanism of Large Language Model based Agents [66.4963345269611]
大規模言語モデル(LLM)に基づくエージェントは、最近、研究や産業コミュニティから多くの注目を集めている。
LLMベースのエージェントは、現実の問題を解決する基礎となる自己進化能力に特徴付けられる。
エージェント-環境相互作用をサポートする重要なコンポーネントは、エージェントのメモリである。
論文 参考訳(メタデータ) (2024-04-21T01:49:46Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in Cognition, Adaptability, Rationality and Collaboration [98.18244218156492]
大規模言語モデル(LLM)は、非常に高度な自然言語処理を持つ。
アプリケーションがマルチエージェント環境に拡大するにつれて、包括的な評価フレームワークの必要性が生じる。
この研究は、マルチエージェント設定内でLLMを評価するための新しい競合ベースのベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。