論文の概要: CAPRAG: A Large Language Model Solution for Customer Service and Automatic Reporting using Vector and Graph Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2501.13993v1
- Date: Thu, 23 Jan 2025 10:38:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:58:39.147508
- Title: CAPRAG: A Large Language Model Solution for Customer Service and Automatic Reporting using Vector and Graph Retrieval-Augmented Generation
- Title(参考訳): CAPRAG: 顧客サービスと自動レポートのための大規模言語モデルソリューション
- Authors: Hamza Landolsi, Kais Letaief, Nizar Taghouti, Ines Abdeljaoued-Tej,
- Abstract要約: 私たちは、顧客に対して銀行サービスに関する関連情報と年次レポートからの洞察を提供するように設計されたAIエージェントを開始した。
我々は、関係に基づくクエリと文脈的クエリの両方に効果的に対応するハイブリッドな顧客分析パイプライン検索生成(CAPRAG)を提案する。
国際銀行向けに設計された私たちの革新的なサービスは、ますます複雑なデジタル環境の中で銀行の顧客に役立ちます。
- 参考スコア(独自算出の注目度): 1.118478900782898
- License:
- Abstract: The introduction of new features and services in the banking sector often overwhelms customers, creating an opportunity for banks to enhance user experience through financial chatbots powered by large language models (LLMs). We initiated an AI agent designed to provide customers with relevant information about banking services and insights from annual reports. We proposed a hybrid Customer Analysis Pipeline Retrieval-Augmented Generation (CAPRAG) that effectively addresses both relationship-based and contextual queries, thereby improving customer engagement in the digital banking landscape. To implement this, we developed a processing pipeline to refine text data, which we utilized in two main frameworks: Vector RAG and Graph RAG. This dual approach enables us to populate both vector and graph databases with processed data for efficient retrieval. The Cypher query component is employed to effectively query the graph database. When a user submits a query, it is first expanded by a query expansion module before being routed to construct a final query from the hybrid Knowledge Base (KB). This final query is then sent to an open-source LLM for response generation. Overall, our innovative, designed to international banks, serves bank's customers in an increasingly complex digital environment, enhancing clarity and accessibility of information.
- Abstract(参考訳): 銀行部門における新機能やサービスの導入は、しばしば顧客を圧倒し、大きな言語モデル(LLM)を利用した金融チャットボットを通じて、銀行がユーザーエクスペリエンスを向上させる機会を生み出します。
私たちは、顧客に対して銀行サービスに関する関連情報と年次レポートからの洞察を提供するように設計されたAIエージェントを開始した。
我々は、関係ベースのクエリとコンテキストベースのクエリの両方に効果的に対応するハイブリッドな顧客分析パイプライン検索生成(CAPRAG)を提案し、デジタルバンキングのランドスケープにおける顧客エンゲージメントを改善した。
これを実現するために、テキストデータを洗練するための処理パイプラインを開発し、Vector RAGとGraph RAGの2つの主要なフレームワークで利用した。
この2つのアプローチにより、ベクトルデータベースとグラフデータベースの両方にデータ処理を施し、効率的な検索を行うことができる。
Cypherクエリコンポーネントは、グラフデータベースを効率的にクエリするために使用される。
ユーザがクエリを提出すると、クエリ拡張モジュールによって最初に拡張され、その後ルーティングされ、ハイブリッド知識ベース(KB)から最終的なクエリを構築する。
この最後のクエリは、レスポンス生成のためにオープンソースのLLMに送信される。
国際銀行向けに設計された我々の革新的手法は、銀行の顧客をますます複雑なデジタル環境で提供し、情報の明瞭さとアクセシビリティを高める。
関連論文リスト
- GUI Agents with Foundation Models: A Comprehensive Survey [52.991688542729385]
この調査は(M)LLMベースのGUIエージェントに関する最近の研究を集約する。
データ、フレームワーク、アプリケーションにおける重要なイノベーションを強調します。
本稿では, (M)LLM ベースの GUI エージェントの分野におけるさらなる発展を期待する。
論文 参考訳(メタデータ) (2024-11-07T17:28:10Z) - RAG based Question-Answering for Contextual Response Prediction System [0.4660328753262075]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて汎用性を示している。
Retrieval Augmented Generation (RAG)は、この課題に対処するための有望な技術として登場した。
本稿では,産業用ユースケースにRAG機能を備えたLCMを用いたエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-05T17:14:23Z) - ACE: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine Semantic Modeling [53.97609687516371]
我々は、エンドツーエンドのクロスモーダル検索のための先駆的なジェネリッククロスモーダル rEtrieval framework (ACE) を提案する。
ACEは、クロスモーダル検索における最先端のパフォーマンスを達成し、Recall@1の強いベースラインを平均15.27%上回る。
論文 参考訳(メタデータ) (2024-06-25T12:47:04Z) - UQE: A Query Engine for Unstructured Databases [71.49289088592842]
構造化されていないデータ分析を可能にするために,大規模言語モデルの可能性を検討する。
本稿では,非構造化データ収集からの洞察を直接問合せ,抽出するUniversal Query Engine (UQE)を提案する。
論文 参考訳(メタデータ) (2024-06-23T06:58:55Z) - Towards a RAG-based Summarization Agent for the Electron-Ion Collider [0.5504260452953508]
A Retrieval Augmented Generation (RAG)ベースのEIC用要約AI(RAGS4EIC)が開発中である。
このAIエージェントは情報を凝縮するだけでなく、関連する応答を効果的に参照する。
まず、関連するすべての実験情報を含む包括的ベクトルデータベースを問合せし、次に、Large Language Model(LLM)を用いて、ユーザクエリと検索データに基づく引用に富んだ簡潔な要約を生成する。
論文 参考訳(メタデータ) (2024-03-23T05:32:46Z) - Selecting Query-bag as Pseudo Relevance Feedback for Information-seeking Conversations [76.70349332096693]
情報検索対話システムは電子商取引システムで広く利用されている。
クエリバッグに基づくPseudo Relevance Feedback framework(QB-PRF)を提案する。
関連クエリを備えたクエリバッグを構築し、擬似シグナルとして機能し、情報検索の会話をガイドする。
論文 参考訳(メタデータ) (2024-03-22T08:10:32Z) - Persona-DB: Efficient Large Language Model Personalization for Response Prediction with Collaborative Data Refinement [79.2400720115588]
本稿では,タスクコンテキスト間の一般化を改善するための階層的な構築プロセスからなる,シンプルで効果的なフレームワークであるPersona-DBを紹介する。
応答予測の評価において,Persona-DB は精度を著しく低減した検索サイズで維持する上で,より優れたコンテキスト効率を示す。
我々の実験は、ユーザーが極めて少ないデータを持つ場合、コールドスタートシナリオで10%以上の顕著な改善が示されていることも示している。
論文 参考訳(メタデータ) (2024-02-16T20:20:43Z) - Beyond Extraction: Contextualising Tabular Data for Efficient
Summarisation by Language Models [0.0]
Retrieval-Augmented Generation アーキテクチャの従来の利用は、様々な文書から情報を取得するのに有効であることが証明されている。
本研究では,RAGに基づくシステムにおいて,複雑なテーブルクエリの精度を高めるための革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-04T16:16:14Z) - Data Driven Content Creation using Statistical and Natural Language
Processing Techniques for Financial Domain [0.0]
本稿では,コール,検索,チャットなど,異なるインタラクションチャネルからの情報を組み合わせる手法を第1部で記述する2部フレームワークを提案する。
フレームワークの第2部は、インタラクションデータソースを分析して顧客の質問を抽出することに焦点を当てている。
論文 参考訳(メタデータ) (2021-09-07T08:37:28Z) - Retrieval-Augmented Transformer-XL for Close-Domain Dialog Generation [16.90730526207747]
マルチターン対話応答生成のための変換器モデルを提案する。
提案手法は,トランスフォーマーに基づく生成モデルに新たな検索機構を付加したハイブリッドアプローチに基づいている。
論文 参考訳(メタデータ) (2021-05-19T16:34:33Z) - Mining Implicit Entity Preference from User-Item Interaction Data for
Knowledge Graph Completion via Adversarial Learning [82.46332224556257]
本稿では,知識グラフ補完タスクにおけるユーザインタラクションデータを活用することで,新たな逆学習手法を提案する。
我々のジェネレータはユーザインタラクションデータから分離されており、識別器の性能を向上させるのに役立ちます。
利用者の暗黙の実体的嗜好を発見するために,グラフニューラルネットワークに基づく精巧な協調学習アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-03-28T05:47:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。