論文の概要: AI Knowledge Assist: An Automated Approach for the Creation of Knowledge Bases for Conversational AI Agents
- arxiv url: http://arxiv.org/abs/2510.08149v1
- Date: Thu, 09 Oct 2025 12:34:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.067471
- Title: AI Knowledge Assist: An Automated Approach for the Creation of Knowledge Bases for Conversational AI Agents
- Title(参考訳): AI知識アシスト:会話型AIエージェントのための知識ベース作成のための自動化アプローチ
- Authors: Md Tahmid Rahman Laskar, Julien Bouvier Tremblay, Xue-Yong Fu, Cheng Chen, Shashi Bhushan TN,
- Abstract要約: 企業固有の知識基盤は、コンタクトセンターで会話型AIシステムを統合する上で、大きな障壁となる。
質問応答(QA)ペアの形式で知識を抽出するシステムであるAI Knowledge Assistを導入し,知識ベースを自動的に構築する。
- 参考スコア(独自算出の注目度): 11.61613387404681
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The utilization of conversational AI systems by leveraging Retrieval Augmented Generation (RAG) techniques to solve customer problems has been on the rise with the rapid progress of Large Language Models (LLMs). However, the absence of a company-specific dedicated knowledge base is a major barrier to the integration of conversational AI systems in contact centers. To this end, we introduce AI Knowledge Assist, a system that extracts knowledge in the form of question-answer (QA) pairs from historical customer-agent conversations to automatically build a knowledge base. Fine-tuning a lightweight LLM on internal data demonstrates state-of-the-art performance, outperforming larger closed-source LLMs. More specifically, empirical evaluation on 20 companies demonstrates that the proposed AI Knowledge Assist system that leverages the LLaMA-3.1-8B model eliminates the cold-start gap in contact centers by achieving above 90% accuracy in answering information-seeking questions. This enables immediate deployment of RAG-powered chatbots.
- Abstract(参考訳): 顧客問題の解決にRAG(Retrieval Augmented Generation)技術を活用した会話型AIシステムの利用は,Large Language Models(LLMs)の急速な進歩とともに増加してきた。
しかし、企業固有の専門知識基盤が存在しないことは、コンタクトセンターにおける会話型AIシステムの統合にとって大きな障壁である。
この目的のために,質問応答(QA)ペアの形式で知識を抽出するシステムであるAI Knowledge Assistを導入し,知識ベースを自動的に構築する。
内部データに対する軽量LLMの微調整は、最先端の性能を示し、より大きなクローズドソースLLMよりも優れた性能を示す。
より具体的には、LLaMA-3.1-8Bモデルを利用したAI知識アシストシステムは、情報探索問題に答える際の90%以上の精度を達成することにより、コンタクトセンターのコールドスタートギャップをなくすことが実証されている。
これにより、RAGベースのチャットボットの即時展開が可能になる。
関連論文リスト
- Knowledge Augmented Finetuning Matters in both RAG and Agent Based Dialog Systems [18.83666259380603]
大規模言語モデル (LLM) はダイアログシステムに適用されている。
LLMは知識集約的なシナリオでエラーを起こしやすい。
検索拡張生成(RAG)とエージェントに基づくアプローチが現われ,実際の精度が向上した。
論文 参考訳(メタデータ) (2025-06-28T11:26:31Z) - AutoMind: Adaptive Knowledgeable Agent for Automated Data Science [70.33796196103499]
LLM(Large Language Model)エージェントは、現実世界のデータサイエンス問題に対処する大きな可能性を示している。
既存のフレームワークは、厳格で、事前定義された、柔軟性のないコーディング戦略に依存している。
適応的で知識のあるLLMエージェントフレームワークであるAutoMindを紹介する。
論文 参考訳(メタデータ) (2025-06-12T17:59:32Z) - Automatic Dataset Generation for Knowledge Intensive Question Answering Tasks [10.562940259841623]
本稿では,知識集約型QAタスクにおけるLarge Language Models(LLMs)の拡張手法を提案する。
提案システムは,自動QAジェネレータとモデルファインタナーを備え,パープレキシティ,ROUGE,BLEU,BERTScoreを用いて評価する。
実験は、適応型人工知能(AI)システムの開発において、論理的コヒーレンスと事実的精度の改善を示す。
論文 参考訳(メタデータ) (2025-05-20T11:16:29Z) - Do great minds think alike? Investigating Human-AI Complementarity in Question Answering with CAIMIRA [43.116608441891096]
人間は知識に基づく帰納的、概念的推論においてAIシステムより優れています。
GPT-4やLLaMAのような最先端のLLMは、ターゲット情報検索において優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-09T03:53:26Z) - RAG based Question-Answering for Contextual Response Prediction System [0.4660328753262075]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて汎用性を示している。
Retrieval Augmented Generation (RAG)は、この課題に対処するための有望な技術として登場した。
本稿では,産業用ユースケースにRAG機能を備えたLCMを用いたエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-05T17:14:23Z) - Knowledge Tagging System on Math Questions via LLMs with Flexible Demonstration Retriever [48.5585921817745]
大きな言語モデル(LLM)は知識タグ付けタスクを自動化するために使われる。
算数問題における知識タグ付けタスクに対するゼロショットと少数ショットの結果の強い性能を示す。
強化学習に基づくデモレトリバーの提案により,異なるサイズのLLMの潜在能力を活用できた。
論文 参考訳(メタデータ) (2024-06-19T23:30:01Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Self-Knowledge Guided Retrieval Augmentation for Large Language Models [59.771098292611846]
大規模言語モデル(LLM)はタスク固有の微調整なしで優れた性能を示す。
検索に基づく手法は、非パラメトリックな世界知識を提供し、質問応答のようなタスクのパフォーマンスを向上させることができる。
SKR(Self-Knowledge guided Retrieval augmentation)は、LLMがこれまで遭遇した質問を参照できるようにする、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2023-10-08T04:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。