論文の概要: A survey: Information search time optimization based on RAG (Retrieval Augmentation Generation) chatbot
- arxiv url: http://arxiv.org/abs/2601.07838v1
- Date: Mon, 10 Nov 2025 22:39:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.642532
- Title: A survey: Information search time optimization based on RAG (Retrieval Augmentation Generation) chatbot
- Title(参考訳): RAG(Retrieval Augmentation Generation)チャットボットに基づく情報検索時間最適化
- Authors: Jinesh Patel, Arpit Malhotra, Ajay Pande, Prateek Caire,
- Abstract要約: Retrieval-Augmented Generation (RAG)ベースのチャットボットは、質問応答による情報検索だけでなく、インジェクションされたプライベートデータに基づく複雑な意思決定にも有用である。
我々は,「Xシステム」と呼ばれる組織内の複雑な情報を取得する際に,検索時間がどれだけ節約できるかを調査する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) based chatbots are not only useful for information retrieval through questionanswering but also for making complex decisions based on injected private data.we present a survey on how much search time can be saved when retrieving complex information within an organization called "X Systems"(a stealth mode company) by using a RAG-based chatbot compared to traditional search methods. We compare the information retrieval time using standard search techniques versus the RAG-based chatbot for the same queries. Our results conclude that RAG-based chatbots not only save time in information retrieval but also optimize the search process effectively. This survey was conducted with a sample of 105 employees across departments, average time spending on information retrieval per query was taken as metric. Comparison shows us, there are average 80-95% improvement on search when use RAG based chatbot than using standard search.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) ベースのチャットボットは、質問応答による情報検索だけでなく、インジェクションされたプライベートデータに基づく複雑な意思決定にも有用であり、従来の検索手法と比較して、RAGベースのチャットボットを用いて「Xシステム」(ステルスモード会社)と呼ばれる組織内の複雑な情報を取得する際に、どれだけの検索時間を節約できるかを調査する。
我々は,標準的な検索手法を用いた情報検索時間と同一クエリに対するRAGベースのチャットボットとの比較を行った。
以上の結果から,RAGベースのチャットボットは情報検索の時間を節約するだけでなく,検索プロセスを効果的に最適化する。
この調査は、各部門で105人の従業員を対象に実施され、クエリごとの情報検索に平均的な時間を費やした。
比較の結果,RAGベースのチャットボットでは,通常の検索よりも80~95%の検索改善が見られた。
関連論文リスト
- Progressive Searching for Retrieval in RAG [1.1912082737504726]
Retrieval Augmented Generation (RAG)は、大規模言語モデル(LLM)の2つの重要な制限を緩和するための有望な技術である。
本稿では,コスト効率の高い検索アルゴリズムを提案する。
以上の結果から,RAGシステムにおける逐次探索は次元,速度,精度のバランスを保ち,大規模データベースにおいてもスケーラブルで高速な検索が可能であることが示唆された。
論文 参考訳(メタデータ) (2026-02-07T01:12:53Z) - SAGE: Steerable Agentic Data Generation for Deep Search with Execution Feedback [68.60326181052658]
本稿では,高品質で難易度の高い探索問合せを自動生成するエージェントパイプラインを提案する。
我々のパイプラインであるSAGEは、QAペアを提案するデータジェネレータと、生成された質問を解決するための検索エージェントで構成される。
我々の本質的な評価は、SAGEが様々な推論戦略を必要とする質問を生成する一方で、生成したデータの正確性や難易度を著しく高めていることを示している。
論文 参考訳(メタデータ) (2026-01-26T06:37:56Z) - TempRetriever: Fusion-based Temporal Dense Passage Retrieval for Time-Sensitive Questions [18.87473448633352]
本研究では,検索プロセスにクエリ日時と文書タイムスタンプの両方を埋め込むことで,時間情報を明示的に組み込むTempRetrieverを提案する。
TempRetrieverは、Top-1検索精度が6.63%向上し、NDCG@10が3.79%向上した。
また,トレーニング中の時間的ずれに対処し,検索性能をさらに向上する,時間に基づく新規なネガティブサンプリング戦略を提案する。
論文 参考訳(メタデータ) (2025-02-28T13:06:25Z) - Tip of the Tongue Query Elicitation for Simulated Evaluation [49.083870362622164]
Tip-of-the-tongue (TOT) 検索は、ユーザがドキュメントタイトルなどの特定の識別子を思い出すのに苦労する場合に発生する。
現在のアプローチはコミュニティ質問回答(CQA)のウェブサイトに大きく依存しており、労働集約的な評価とドメインバイアスにつながっている。
大規模言語モデル(LLM)と人的参加者を活用するため,TOTクエリを抽出する2つの手法を提案する。
論文 参考訳(メタデータ) (2025-02-25T02:11:42Z) - SRSA: A Cost-Efficient Strategy-Router Search Agent for Real-world Human-Machine Interactions [3.5725872564627785]
現実の状況では、ユーザーはしばしばコンテキストと高度にパーソナライズされたクエリをチャットボットに入力する。
これまでの研究は、人間と機械の対話のシナリオに特に焦点を絞ってはいなかった。
これらのギャップに対処するために、戦略ベース検索エージェント(SRSA)を提案する。
SRSAは、異なるクエリを適切な検索戦略にルーティングし、よりきめ細かいシリアル検索により、比較的低コストで高品質な結果を得ることができる。
論文 参考訳(メタデータ) (2024-11-21T20:41:55Z) - Enhancing Long Context Performance in LLMs Through Inner Loop Query Mechanism [2.919891871101241]
変換器は入力サイズと計算複雑性の2次スケーリングを持つ。
Retrieval-augmented Generation (RAG)は、検索システムを使用することで、より長いコンテキストを処理できる。
インナーループメモリ拡張ツリー検索(ILM-TR)という新しい手法を導入する。
論文 参考訳(メタデータ) (2024-10-11T19:49:05Z) - BRIGHT: A Realistic and Challenging Benchmark for Reasoning-Intensive Retrieval [54.54576644403115]
BRIGHTは、関係する文書を検索するために、集中的推論を必要とする最初のテキスト検索ベンチマークである。
私たちのデータセットは、経済学、心理学、数学、コーディングなど、さまざまな領域にまたがる1,384の現実世界のクエリで構成されています。
クエリに関する明示的な推論を取り入れることで、検索性能が最大12.2ポイント向上することを示す。
論文 参考訳(メタデータ) (2024-07-16T17:58:27Z) - Toward Conversational Agents with Context and Time Sensitive Long-term Memory [8.085414868117917]
最近まで、RAGに関するほとんどの研究は、ウィキペディアのような巨大なテキストデータベースからの情報検索に重点を置いてきた。
我々は,静的なデータベース検索と比較して,長文の対話データからの効果的な検索は2つの問題に直面していると論じる。
我々は、最近の長文でシミュレートされた会話のデータセットの上に構築された、あいまいで時間に基づく質問の新しいデータセットを生成する。
論文 参考訳(メタデータ) (2024-05-29T18:19:46Z) - CLARINET: Augmenting Language Models to Ask Clarification Questions for Retrieval [52.134133938779776]
CLARINETは,回答が正しい候補の確実性を最大化する質問を選択することで,情報的明確化を問うシステムである。
提案手法は,大規模言語モデル(LLM)を検索分布の条件付きで拡張し,各ターンで真の候補のランクを最大化する問題を生成する。
論文 参考訳(メタデータ) (2024-04-28T18:21:31Z) - Dense X Retrieval: What Retrieval Granularity Should We Use? [56.90827473115201]
しばしば見過ごされる設計選択は、コーパスが索引付けされる検索単位である。
本稿では,高密度検索のための新しい検索ユニット,命題を提案する。
実験により、提案のような細粒度単位によるコーパスのインデックス付けは、検索タスクにおける通過レベル単位を著しく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2023-12-11T18:57:35Z) - Search-Engine-augmented Dialogue Response Generation with Cheaply
Supervised Query Production [98.98161995555485]
応答生成のために,任意の検索エンジンから膨大な動的情報にアクセス可能な対話モデルを提案する。
コアモジュールとして、クエリプロデューサを使用して、対話コンテキストからクエリを生成して、検索エンジンと対話する。
R@1とR@5のレートを62.4%と74.8%で達成できることを示す実験を行った。
論文 参考訳(メタデータ) (2023-02-16T01:58:10Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。