論文の概要: Hypercube-RAG: Hypercube-Based Retrieval-Augmented Generation for In-domain Scientific Question-Answering
- arxiv url: http://arxiv.org/abs/2505.19288v1
- Date: Sun, 25 May 2025 19:42:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.033086
- Title: Hypercube-RAG: Hypercube-Based Retrieval-Augmented Generation for In-domain Scientific Question-Answering
- Title(参考訳): Hypercube-RAG : ドメイン内科学的質問応答のためのハイパーキューブを用いた検索生成
- Authors: Jimeng Shi, Sizhe Zhou, Bowen Jin, Wei Hu, Shaowen Wang, Giri Narasimhan, Jiawei Han,
- Abstract要約: 大きな言語モデル(LLM)は、しばしばテーマ固有の問題を解決するために外部知識を組み込む必要がある。
本稿では,高精度かつ効率的な検索のための新しいRAGフレームワークであるHypercube-RAGを紹介する。
提案手法は精度を3.7%向上し,検索効率を81.2%向上させる。
- 参考スコア(独自算出の注目度): 28.453408262591434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) often need to incorporate external knowledge to solve theme-specific problems. Retrieval-augmented generation (RAG), which empowers LLMs to generate more qualified responses with retrieved external data and knowledge, has shown its high promise. However, traditional semantic similarity-based RAGs struggle to return concise yet highly relevant information for domain knowledge-intensive tasks, such as scientific question-answering (QA). Built on a multi-dimensional (cube) structure called Hypercube, which can index documents in an application-driven, human-defined, multi-dimensional space, we introduce the Hypercube-RAG, a novel RAG framework for precise and efficient retrieval. Given a query, Hypercube-RAG first decomposes it based on its entities and topics and then retrieves relevant documents from cubes by aligning these decomposed components with hypercube dimensions. Experiments on three in-domain scientific QA datasets demonstrate that our method improves accuracy by 3.7% and boosts retrieval efficiency by 81.2%, measured as relative gains over the strongest RAG baseline. More importantly, our Hypercube-RAG inherently offers explainability by revealing the underlying predefined hypercube dimensions used for retrieval. The code and data sets are available at https://github.com/JimengShi/Hypercube-RAG.
- Abstract(参考訳): 大きな言語モデル(LLM)は、しばしばテーマ固有の問題を解決するために外部知識を組み込む必要がある。
検索された外部データと知識により、LLMがより適格な応答を生成できるようにする検索拡張生成(RAG)は、その高い可能性を示している。
しかしながら、伝統的な意味的類似性に基づくRAGは、科学的質問回答(QA)のようなドメイン知識集約的なタスクに対して簡潔だが非常に関連性の高い情報を返すのに苦労している。
アプリケーション駆動型,人間定義型,多次元空間における文書のインデックス化が可能な,Hypercubeと呼ばれる多次元(キューブ)構造上に構築されたHypercube-RAGは,高精度かつ効率的な検索を行うための新しいRAGフレームワークである。
クエリが与えられたら、Hypercube-RAGはまずエンティティとトピックに基づいてそれを分解し、次に、これらの分解されたコンポーネントをハイパーキューブ次元に整列させることで、キューブから関連ドキュメントを取得する。
3つの領域内科学的なQAデータセットの実験により、我々の手法は精度を3.7%向上し、検索効率を81.2%向上させることを示した。
さらに重要なことは、Hypercube-RAGは本質的に、検索に使用される基礎となる定義されたハイパーキューブ次元を明らかにすることによって、説明可能性を提供します。
コードとデータセットはhttps://github.com/JimengShi/Hypercube-RAG.comで公開されている。
関連論文リスト
- Accelerating Adaptive Retrieval Augmented Generation via Instruction-Driven Representation Reduction of Retrieval Overlaps [16.84310001807895]
本稿では,A-RAG法に適用可能なモデルに依存しないアプローチを提案する。
具体的には、キャッシュアクセスと並列生成を使用して、それぞれプリフィルとデコードステージを高速化する。
論文 参考訳(メタデータ) (2025-05-19T05:39:38Z) - Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [92.5712549836791]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - DeepNote: Note-Centric Deep Retrieval-Augmented Generation [72.70046559930555]
Retrieval-Augmented Generation (RAG)は質問応答のための大規模言語モデル(LLM)における事実誤りと幻覚を緩和する
我々は、ノート中心の適応検索により、知識ソースの奥深くで堅牢な探索を実現する適応RAGフレームワークであるDeepNoteを開発した。
論文 参考訳(メタデータ) (2024-10-11T14:03:29Z) - MemoRAG: Boosting Long Context Processing with Global Memory-Enhanced Retrieval Augmentation [60.04380907045708]
Retrieval-Augmented Generation (RAG)は、この問題に対処するための有望な戦略と考えられている。
我々は,グローバルメモリ拡張検索による新しいRAGフレームワークであるMemoRAGを提案する。
MemoRAGは、様々な長期コンテキスト評価タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-09-09T13:20:31Z) - REAR: A Relevance-Aware Retrieval-Augmented Framework for Open-Domain Question Answering [115.72130322143275]
REAR(Relevance-Aware Retrieval-augmented approach for open-domain Question answering, QA)
我々は,特殊な設計のアセスメントモジュールを組み込むことで,LLMベースのRAGシステムのための新しいアーキテクチャを開発する。
オープンドメインの4つのQAタスクの実験では、REARは以前の競争力のあるRAGアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-02-27T13:22:51Z) - Generative Dense Retrieval: Memory Can Be a Burden [16.964086245755798]
Generative Retrieval (GR) はクエリが与えられたドキュメント識別子を自動でデコードする。
Dense Retrieval (DR) はクラスタから関連ドキュメントへのきめ細かいクラスタ内マッチングを実現するために導入された。
DRは、NQデータセットを複数の設定で平均3.0R@100改善する。
論文 参考訳(メタデータ) (2024-01-19T04:24:07Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。