論文の概要: A survey: Information search time optimization based on RAG (Retrieval Augmentation Generation) chatbot
- arxiv url: http://arxiv.org/abs/2601.07838v1
- Date: Mon, 10 Nov 2025 22:39:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.642532
- Title: A survey: Information search time optimization based on RAG (Retrieval Augmentation Generation) chatbot
- Title(参考訳): RAG(Retrieval Augmentation Generation)チャットボットに基づく情報検索時間最適化
- Authors: Jinesh Patel, Arpit Malhotra, Ajay Pande, Prateek Caire,
- Abstract要約: Retrieval-Augmented Generation (RAG)ベースのチャットボットは、質問応答による情報検索だけでなく、インジェクションされたプライベートデータに基づく複雑な意思決定にも有用である。
我々は,「Xシステム」と呼ばれる組織内の複雑な情報を取得する際に,検索時間がどれだけ節約できるかを調査する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) based chatbots are not only useful for information retrieval through questionanswering but also for making complex decisions based on injected private data.we present a survey on how much search time can be saved when retrieving complex information within an organization called "X Systems"(a stealth mode company) by using a RAG-based chatbot compared to traditional search methods. We compare the information retrieval time using standard search techniques versus the RAG-based chatbot for the same queries. Our results conclude that RAG-based chatbots not only save time in information retrieval but also optimize the search process effectively. This survey was conducted with a sample of 105 employees across departments, average time spending on information retrieval per query was taken as metric. Comparison shows us, there are average 80-95% improvement on search when use RAG based chatbot than using standard search.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) ベースのチャットボットは、質問応答による情報検索だけでなく、インジェクションされたプライベートデータに基づく複雑な意思決定にも有用であり、従来の検索手法と比較して、RAGベースのチャットボットを用いて「Xシステム」(ステルスモード会社)と呼ばれる組織内の複雑な情報を取得する際に、どれだけの検索時間を節約できるかを調査する。
我々は,標準的な検索手法を用いた情報検索時間と同一クエリに対するRAGベースのチャットボットとの比較を行った。
以上の結果から,RAGベースのチャットボットは情報検索の時間を節約するだけでなく,検索プロセスを効果的に最適化する。
この調査は、各部門で105人の従業員を対象に実施され、クエリごとの情報検索に平均的な時間を費やした。
比較の結果,RAGベースのチャットボットでは,通常の検索よりも80~95%の検索改善が見られた。
関連論文リスト
- TempRetriever: Fusion-based Temporal Dense Passage Retrieval for Time-Sensitive Questions [18.87473448633352]
本研究では,検索プロセスにクエリ日時と文書タイムスタンプの両方を埋め込むことで,時間情報を明示的に組み込むTempRetrieverを提案する。
TempRetrieverは、Top-1検索精度が6.63%向上し、NDCG@10が3.79%向上した。
また,トレーニング中の時間的ずれに対処し,検索性能をさらに向上する,時間に基づく新規なネガティブサンプリング戦略を提案する。
論文 参考訳(メタデータ) (2025-02-28T13:06:25Z) - Tip of the Tongue Query Elicitation for Simulated Evaluation [49.083870362622164]
Tip-of-the-tongue (TOT) 検索は、ユーザがドキュメントタイトルなどの特定の識別子を思い出すのに苦労する場合に発生する。
現在のアプローチはコミュニティ質問回答(CQA)のウェブサイトに大きく依存しており、労働集約的な評価とドメインバイアスにつながっている。
大規模言語モデル(LLM)と人的参加者を活用するため,TOTクエリを抽出する2つの手法を提案する。
論文 参考訳(メタデータ) (2025-02-25T02:11:42Z) - Enhancing Long Context Performance in LLMs Through Inner Loop Query Mechanism [2.919891871101241]
変換器は入力サイズと計算複雑性の2次スケーリングを持つ。
Retrieval-augmented Generation (RAG)は、検索システムを使用することで、より長いコンテキストを処理できる。
インナーループメモリ拡張ツリー検索(ILM-TR)という新しい手法を導入する。
論文 参考訳(メタデータ) (2024-10-11T19:49:05Z) - BRIGHT: A Realistic and Challenging Benchmark for Reasoning-Intensive Retrieval [54.54576644403115]
BRIGHTは、関係する文書を検索するために、集中的推論を必要とする最初のテキスト検索ベンチマークである。
私たちのデータセットは、経済学、心理学、数学、コーディングなど、さまざまな領域にまたがる1,384の現実世界のクエリで構成されています。
クエリに関する明示的な推論を取り入れることで、検索性能が最大12.2ポイント向上することを示す。
論文 参考訳(メタデータ) (2024-07-16T17:58:27Z) - Toward Conversational Agents with Context and Time Sensitive Long-term Memory [8.085414868117917]
最近まで、RAGに関するほとんどの研究は、ウィキペディアのような巨大なテキストデータベースからの情報検索に重点を置いてきた。
我々は,静的なデータベース検索と比較して,長文の対話データからの効果的な検索は2つの問題に直面していると論じる。
我々は、最近の長文でシミュレートされた会話のデータセットの上に構築された、あいまいで時間に基づく質問の新しいデータセットを生成する。
論文 参考訳(メタデータ) (2024-05-29T18:19:46Z) - CLARINET: Augmenting Language Models to Ask Clarification Questions for Retrieval [52.134133938779776]
CLARINETは,回答が正しい候補の確実性を最大化する質問を選択することで,情報的明確化を問うシステムである。
提案手法は,大規模言語モデル(LLM)を検索分布の条件付きで拡張し,各ターンで真の候補のランクを最大化する問題を生成する。
論文 参考訳(メタデータ) (2024-04-28T18:21:31Z) - Search-Engine-augmented Dialogue Response Generation with Cheaply
Supervised Query Production [98.98161995555485]
応答生成のために,任意の検索エンジンから膨大な動的情報にアクセス可能な対話モデルを提案する。
コアモジュールとして、クエリプロデューサを使用して、対話コンテキストからクエリを生成して、検索エンジンと対話する。
R@1とR@5のレートを62.4%と74.8%で達成できることを示す実験を行った。
論文 参考訳(メタデータ) (2023-02-16T01:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。