論文の概要: CAPRAG: A Large Language Model Solution for Customer Service and Automatic Reporting using Vector and Graph Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2501.13993v1
- Date: Thu, 23 Jan 2025 10:38:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:58:39.147508
- Title: CAPRAG: A Large Language Model Solution for Customer Service and Automatic Reporting using Vector and Graph Retrieval-Augmented Generation
- Title(参考訳): CAPRAG: 顧客サービスと自動レポートのための大規模言語モデルソリューション
- Authors: Hamza Landolsi, Kais Letaief, Nizar Taghouti, Ines Abdeljaoued-Tej,
- Abstract要約: 私たちは、顧客に対して銀行サービスに関する関連情報と年次レポートからの洞察を提供するように設計されたAIエージェントを開始した。
我々は、関係に基づくクエリと文脈的クエリの両方に効果的に対応するハイブリッドな顧客分析パイプライン検索生成(CAPRAG)を提案する。
国際銀行向けに設計された私たちの革新的なサービスは、ますます複雑なデジタル環境の中で銀行の顧客に役立ちます。
- 参考スコア(独自算出の注目度): 1.118478900782898
- License:
- Abstract: The introduction of new features and services in the banking sector often overwhelms customers, creating an opportunity for banks to enhance user experience through financial chatbots powered by large language models (LLMs). We initiated an AI agent designed to provide customers with relevant information about banking services and insights from annual reports. We proposed a hybrid Customer Analysis Pipeline Retrieval-Augmented Generation (CAPRAG) that effectively addresses both relationship-based and contextual queries, thereby improving customer engagement in the digital banking landscape. To implement this, we developed a processing pipeline to refine text data, which we utilized in two main frameworks: Vector RAG and Graph RAG. This dual approach enables us to populate both vector and graph databases with processed data for efficient retrieval. The Cypher query component is employed to effectively query the graph database. When a user submits a query, it is first expanded by a query expansion module before being routed to construct a final query from the hybrid Knowledge Base (KB). This final query is then sent to an open-source LLM for response generation. Overall, our innovative, designed to international banks, serves bank's customers in an increasingly complex digital environment, enhancing clarity and accessibility of information.
- Abstract(参考訳): 銀行部門における新機能やサービスの導入は、しばしば顧客を圧倒し、大きな言語モデル(LLM)を利用した金融チャットボットを通じて、銀行がユーザーエクスペリエンスを向上させる機会を生み出します。
私たちは、顧客に対して銀行サービスに関する関連情報と年次レポートからの洞察を提供するように設計されたAIエージェントを開始した。
我々は、関係ベースのクエリとコンテキストベースのクエリの両方に効果的に対応するハイブリッドな顧客分析パイプライン検索生成(CAPRAG)を提案し、デジタルバンキングのランドスケープにおける顧客エンゲージメントを改善した。
これを実現するために、テキストデータを洗練するための処理パイプラインを開発し、Vector RAGとGraph RAGの2つの主要なフレームワークで利用した。
この2つのアプローチにより、ベクトルデータベースとグラフデータベースの両方にデータ処理を施し、効率的な検索を行うことができる。
Cypherクエリコンポーネントは、グラフデータベースを効率的にクエリするために使用される。
ユーザがクエリを提出すると、クエリ拡張モジュールによって最初に拡張され、その後ルーティングされ、ハイブリッド知識ベース(KB)から最終的なクエリを構築する。
この最後のクエリは、レスポンス生成のためにオープンソースのLLMに送信される。
国際銀行向けに設計された我々の革新的手法は、銀行の顧客をますます複雑なデジタル環境で提供し、情報の明瞭さとアクセシビリティを高める。
関連論文リスト
- Graph Foundation Models for Recommendation: A Comprehensive Survey [55.70529188101446]
大規模言語モデル(LLM)は自然言語を処理し、理解するために設計されており、どちらも非常に効果的で広く採用されている。
最近の研究はグラフ基礎モデル(GFM)に焦点を当てている。
GFM は GNN と LLM の強みを統合し,複雑な RS 問題をより効率的にモデル化する。
論文 参考訳(メタデータ) (2025-02-12T12:13:51Z) - Augmented Knowledge Graph Querying leveraging LLMs [2.5311562666866494]
我々は、知識グラフ(KG)のクエリを強化するフレームワークであるSparqLLMを紹介する。
SparqLLMは、生データからKGを構築するために、Extract, Transform, and Load (ETL)パイプラインを実行する。
また、Large Language Models(LLMs)を利用した自然言語インターフェースを備え、自動SPARQLクエリ生成を実現している。
論文 参考訳(メタデータ) (2025-02-03T12:18:39Z) - Automating Business Intelligence Requirements with Generative AI and Semantic Search [0.5193262058345202]
本稿では,ビジネスインテリジェンス(BI)要求の自動化と高速化を目的とした,AutoBIRと呼ばれる新しいAI駆動システムを提案する。
このシステムは、対話インタフェースを通じて利害関係者との直感的な対話を促進し、ユーザ入力をプロトタイプ解析コード、記述、データ依存に翻訳する。
ユーザのフィードバックを取り入れることで、BIレポートやシステム設計を洗練し、データ駆動意思決定の迅速化のための実践的な応用を実証する。
論文 参考訳(メタデータ) (2024-12-10T16:57:48Z) - MAG-V: A Multi-Agent Framework for Synthetic Data Generation and Verification [5.666070277424383]
MAG-Vは、顧客のクエリを模倣する質問のデータセットを生成するフレームワークである。
我々の合成データは、実際の顧客クエリにおけるエージェントのパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2024-11-28T19:36:11Z) - GUI Agents with Foundation Models: A Comprehensive Survey [91.97447457550703]
この調査は(M)LLMベースのGUIエージェントに関する最近の研究を集約する。
重要な課題を特定し,今後の研究方向性を提案する。
この調査が(M)LLMベースのGUIエージェントの分野におけるさらなる進歩を促すことを願っている。
論文 参考訳(メタデータ) (2024-11-07T17:28:10Z) - RAG based Question-Answering for Contextual Response Prediction System [0.4660328753262075]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて汎用性を示している。
Retrieval Augmented Generation (RAG)は、この課題に対処するための有望な技術として登場した。
本稿では,産業用ユースケースにRAG機能を備えたLCMを用いたエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-05T17:14:23Z) - ACE: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine Semantic Modeling [53.97609687516371]
我々は、エンドツーエンドのクロスモーダル検索のための先駆的なジェネリッククロスモーダル rEtrieval framework (ACE) を提案する。
ACEは、クロスモーダル検索における最先端のパフォーマンスを達成し、Recall@1の強いベースラインを平均15.27%上回る。
論文 参考訳(メタデータ) (2024-06-25T12:47:04Z) - UQE: A Query Engine for Unstructured Databases [71.49289088592842]
構造化されていないデータ分析を可能にするために,大規模言語モデルの可能性を検討する。
本稿では,非構造化データ収集からの洞察を直接問合せ,抽出するUniversal Query Engine (UQE)を提案する。
論文 参考訳(メタデータ) (2024-06-23T06:58:55Z) - Towards a RAG-based Summarization Agent for the Electron-Ion Collider [0.5504260452953508]
A Retrieval Augmented Generation (RAG)ベースのEIC用要約AI(RAGS4EIC)が開発中である。
このAIエージェントは情報を凝縮するだけでなく、関連する応答を効果的に参照する。
まず、関連するすべての実験情報を含む包括的ベクトルデータベースを問合せし、次に、Large Language Model(LLM)を用いて、ユーザクエリと検索データに基づく引用に富んだ簡潔な要約を生成する。
論文 参考訳(メタデータ) (2024-03-23T05:32:46Z) - Selecting Query-bag as Pseudo Relevance Feedback for Information-seeking Conversations [76.70349332096693]
情報検索対話システムは電子商取引システムで広く利用されている。
クエリバッグに基づくPseudo Relevance Feedback framework(QB-PRF)を提案する。
関連クエリを備えたクエリバッグを構築し、擬似シグナルとして機能し、情報検索の会話をガイドする。
論文 参考訳(メタデータ) (2024-03-22T08:10:32Z) - Persona-DB: Efficient Large Language Model Personalization for Response Prediction with Collaborative Data Refinement [79.2400720115588]
本稿では,タスクコンテキスト間の一般化を改善するための階層的な構築プロセスからなる,シンプルで効果的なフレームワークであるPersona-DBを紹介する。
応答予測の評価において,Persona-DB は精度を著しく低減した検索サイズで維持する上で,より優れたコンテキスト効率を示す。
我々の実験は、ユーザーが極めて少ないデータを持つ場合、コールドスタートシナリオで10%以上の顕著な改善が示されていることも示している。
論文 参考訳(メタデータ) (2024-02-16T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。