論文の概要: Crafting Personalized Agents through Retrieval-Augmented Generation on Editable Memory Graphs
- arxiv url: http://arxiv.org/abs/2409.19401v1
- Date: Sat, 28 Sep 2024 16:22:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 23:38:55.223004
- Title: Crafting Personalized Agents through Retrieval-Augmented Generation on Editable Memory Graphs
- Title(参考訳): 編集可能なメモリグラフを用いた検索拡張生成によるパーソナライズされたエージェントの作成
- Authors: Zheng Wang, Zhongyang Li, Zeren Jiang, Dandan Tu, Wei Shi,
- Abstract要約: 大規模言語モデル(LLM)を利用したパーソナライズされたエージェントを作成するための新しいタスクを導入する。
EMG-RAGは、Retrieval-Augmented Generation(RAG)技術とEMG(Editable Memory Graph)技術を組み合わせたソリューションである。
実世界のデータセットの実験では、EMG-RAGの有効性が検証され、最高のアプローチよりも約10%向上した。
- 参考スコア(独自算出の注目度): 11.182641942286883
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In the age of mobile internet, user data, often referred to as memories, is continuously generated on personal devices. Effectively managing and utilizing this data to deliver services to users is a compelling research topic. In this paper, we introduce a novel task of crafting personalized agents powered by large language models (LLMs), which utilize a user's smartphone memories to enhance downstream applications with advanced LLM capabilities. To achieve this goal, we introduce EMG-RAG, a solution that combines Retrieval-Augmented Generation (RAG) techniques with an Editable Memory Graph (EMG). This approach is further optimized using Reinforcement Learning to address three distinct challenges: data collection, editability, and selectability. Extensive experiments on a real-world dataset validate the effectiveness of EMG-RAG, achieving an improvement of approximately 10% over the best existing approach. Additionally, the personalized agents have been transferred into a real smartphone AI assistant, which leads to enhanced usability.
- Abstract(参考訳): モバイルインターネットの時代、ユーザーデータは、しばしば記憶と呼ばれ、パーソナルデバイス上で連続的に生成される。
このデータを効果的に管理し、ユーザに提供することは、魅力的な研究トピックです。
本稿では,大規模言語モデル(LLM)をベースとしたパーソナライズされたエージェントを作成するための新しいタスクを提案する。
この目的を達成するために、我々は、Retrieval-Augmented Generation (RAG) 技術と Editable Memory Graph (EMG) を組み合わせたソリューションであるEMG-RAGを紹介する。
このアプローチはさらに、データ収集、編集性、選択性という3つの異なる課題に対処するために、強化学習を使用して最適化されている。
実世界のデータセットに対する大規模な実験は、EMG-RAGの有効性を検証する。
さらに、パーソナライズされたエージェントは、実際のスマートフォンAIアシスタントに転送され、ユーザビリティが向上した。
関連論文リスト
- Star-Agents: Automatic Data Optimization with LLM Agents for Instruction Tuning [71.2981957820888]
本稿では,データセット間のデータ品質向上を自動化する新しいStar-Agentsフレームワークを提案する。
このフレームワークは最初,複数のLDMエージェントを用いた多様なインストラクションデータを生成する。
生成したデータは、難易度と品質の両方を評価する二重モデル法を用いて厳密な評価を行う。
論文 参考訳(メタデータ) (2024-11-21T02:30:53Z) - EDGE: Enhanced Grounded GUI Understanding with Enriched Multi-Granularity Synthetic Data [15.801018643716437]
本稿では,大規模視覚言語モデル(LVLM)のGUI理解と対話能力を,データ駆動型アプローチにより向上することを目的とする。
本稿では,Web上のWebページから大規模で粒度の高いトレーニングデータを自動的に生成する汎用データ合成フレームワークEDGEを提案する。
提案手法は,手動アノテーションへの依存を著しく低減し,研究者がWeb上で利用可能な膨大な公開リソースを活用して作業を進めることを可能にする。
論文 参考訳(メタデータ) (2024-10-25T10:46:17Z) - Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - MaxMind: A Memory Loop Network to Enhance Software Productivity based on Large Language Models [13.839564855350295]
本稿では,リアルタイムタスク体験をシステムメモリに変換することの重要性について論じる。
タスク記憶の蓄積とリサイクルがタスク成功率の着実に向上することを示す。
メモリリサイクルを取り入れることで、システムのタスク実行効率を最大25%向上させることができる。
論文 参考訳(メタデータ) (2024-08-07T15:27:22Z) - PersonaRAG: Enhancing Retrieval-Augmented Generation Systems with User-Centric Agents [0.9135658693137204]
本稿では,リアルタイムなユーザデータとインタラクションに基づく検索と生成にユーザ中心のエージェントを取り入れた新しいフレームワークであるPersonaRAGを紹介する。
その結果,ユーザ適応型情報検索システムにおける有望な方向性が示唆された。
論文 参考訳(メタデータ) (2024-07-12T16:18:00Z) - Enabling On-Device LLMs Personalization with Smartphone Sensing [12.030382945767663]
このデモでは、デバイス上の大規模言語モデル(LLM)とスマートフォンセンシング技術を組み合わせた、新しいエンドツーエンドフレームワークが紹介されている。
提案するフレームワークは,医療,生産性,エンターテイメントといった分野におけるユーザエクスペリエンスを大幅に改善する可能性がある。
論文 参考訳(メタデータ) (2024-07-05T11:09:05Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - Online Adaptation of Language Models with a Memory of Amortized Contexts [82.02369596879817]
MAC(Memory of Amortized Contexts)は、大規模言語モデルのための効率的かつ効果的なオンライン適応フレームワークである。
MACとMACを組み合わせれば,検索の高速化など,一般的な代替手段の性能が向上することを示す。
論文 参考訳(メタデータ) (2024-03-07T08:34:57Z) - Unlearn What You Want to Forget: Efficient Unlearning for LLMs [92.51670143929056]
大規模言語モデル(LLM)は、幅広いテキストデータを事前学習し記憶することで大きな進歩を遂げた。
このプロセスはプライバシー問題やデータ保護規則違反に悩まされる可能性がある。
データ削除後のモデル全体を再トレーニングすることなく、LLMを効率的に更新できる効率的なアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:35:59Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z) - Improving the Performance of Fine-Grain Image Classifiers via Generative
Data Augmentation [0.5161531917413706]
我々は、ロバスト生成アドリアルネットワーク(DAPPER GAN)の熟練した事前学習からデータ拡張を開発する。
DAPPER GANは、トレーニングイメージの新しいビューを自動的に生成するML分析支援ツールである。
本手法をStanford Carsデータセット上で実験的に評価し,車体形状とモデル分類精度の向上を実証した。
論文 参考訳(メタデータ) (2020-08-12T15:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。