論文の概要: LLM-Independent Adaptive RAG: Let the Question Speak for Itself
- arxiv url: http://arxiv.org/abs/2505.04253v1
- Date: Wed, 07 May 2025 08:58:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.018048
- Title: LLM-Independent Adaptive RAG: Let the Question Speak for Itself
- Title(参考訳): LLM-Independent Adaptive RAG: 自問自答
- Authors: Maria Marina, Nikolay Ivanov, Sergey Pletenev, Mikhail Salnikov, Daria Galimzianova, Nikita Krayko, Vasily Konovalov, Alexander Panchenko, Viktor Moskvoretskii,
- Abstract要約: 大型言語モデル (LLM) は幻覚を起こす傾向があり、検索型拡張生成 (RAG) がこれを助けているが、誤報のリスクが高い計算コストが高い。
本研究では,外部情報に基づく軽量LLM非依存適応検索手法を提案する。
- 参考スコア(独自算出の注目度): 47.60917219813637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models~(LLMs) are prone to hallucinations, and Retrieval-Augmented Generation (RAG) helps mitigate this, but at a high computational cost while risking misinformation. Adaptive retrieval aims to retrieve only when necessary, but existing approaches rely on LLM-based uncertainty estimation, which remain inefficient and impractical. In this study, we introduce lightweight LLM-independent adaptive retrieval methods based on external information. We investigated 27 features, organized into 7 groups, and their hybrid combinations. We evaluated these methods on 6 QA datasets, assessing the QA performance and efficiency. The results show that our approach matches the performance of complex LLM-based methods while achieving significant efficiency gains, demonstrating the potential of external information for adaptive retrieval.
- Abstract(参考訳): 大型言語モデル~(LLM)は幻覚を起こす傾向があり、検索補助生成(RAG)は誤報のリスクを冒しながら高い計算コストでこれを緩和する。
アダプティブ検索は必要なときにのみ検索することを目的としているが、既存のアプローチはLLMに基づく不確実性推定に依存しており、非効率で実用的ではない。
本研究では,外部情報に基づく軽量LLM非依存適応検索手法を提案する。
7群に分類した27種類の特徴とそれらのハイブリッドな組み合わせについて検討した。
これらの手法を6つのQAデータセット上で評価し、QAの性能と効率を評価した。
その結果,本手法は複雑なLCM法の性能に一致し,高い効率向上を実現し,適応検索のための外部情報の可能性を示した。
関連論文リスト
- LLMs as Data Annotators: How Close Are We to Human Performance [47.61698665650761]
データのマニュアルアノテーションは、労働集約的で、時間がかかり、コストがかかる。
In-context Learning (ICL) では、タスクに関連するいくつかの例がプロンプトで与えられると、非効率性や準最適モデルの性能につながる可能性がある。
本稿では,NERタスクの様々なデータセットに対して,異なる埋め込みモデルを考慮した複数のLLMの比較実験を行う。
論文 参考訳(メタデータ) (2025-04-21T11:11:07Z) - Optimizing Knowledge Integration in Retrieval-Augmented Generation with Self-Selection [72.92366526004464]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLM) がより正確で信頼性の高い応答を生成するのに有効であることが証明されている。
本稿では,自己選択型RAGフレームワークを提案する。このフレームワークでは,内部パラメトリック知識のみで生成されたペアの応答からLLMを選択できる。
論文 参考訳(メタデータ) (2025-02-10T04:29:36Z) - Adaptive Retrieval Without Self-Knowledge? Bringing Uncertainty Back Home [46.70773149792895]
Retrieval Augmented Generation(RAG)は質問回答(QA)の正しさを改善し、Large Language Models(LLM)における幻覚に対処する
近年の適応的検索手法は,LLMの内在的知識とLLMの自己知識に訴える外部情報とを統合しているが,効率評価や不確実性評価手法との比較は無視されることが多い。
以上の結果から,不確実性推定手法は,QA性能を同等に保ちながら,効率や自己知識の点で複雑なパイプラインよりも優れていることが示唆された。
論文 参考訳(メタデータ) (2025-01-22T12:21:17Z) - Provenance: A Light-weight Fact-checker for Retrieval Augmented LLM Generation Output [49.893971654861424]
検索強化生成(RAG)から非実効出力を検出する軽量な手法を提案する。
私たちは、二項決定を下すためにしきい値にできる事実性スコアを計算します。
実験の結果, ROC曲線 (AUC) の下では, 関連するオープンソースデータセットの広範囲にわたって高い面積を示すことができた。
論文 参考訳(メタデータ) (2024-11-01T20:44:59Z) - EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - RetrievalQA: Assessing Adaptive Retrieval-Augmented Generation for Short-form Open-Domain Question Answering [42.66223628527439]
アダプティブ検索拡張生成(ARAG)は、不特定に検索するのではなく、クエリに対する検索の必要性を動的に決定することを目的としている。
この研究は、新しい世界とロングテール知識をカバーする1,271の短い形式の質問を含む、RetrievalQAというベンチマークを提示する。
論文 参考訳(メタデータ) (2024-02-26T09:59:04Z) - Which Examples to Annotate for In-Context Learning? Towards Effective
and Efficient Selection [35.924633625147365]
大規模言語モデル(LLM)は、文脈内学習(ICL)を介して新しいタスクに適応できる
そこで本研究では,ICLのアクティブな学習手法について検討し,アノテートのための予算が限られている。
本稿では,モデルが不確実であることを示すモデル適応型最適化自由アルゴリズムAdaICLを提案する。
論文 参考訳(メタデータ) (2023-10-30T22:03:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。