論文の概要: How to Discover Knowledge for FutureG: Contextual RAG and LLM Prompting for O-RAN
- arxiv url: http://arxiv.org/abs/2601.02382v1
- Date: Thu, 18 Dec 2025 18:03:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-11 18:48:17.559425
- Title: How to Discover Knowledge for FutureG: Contextual RAG and LLM Prompting for O-RAN
- Title(参考訳): FutureGの知識の発見方法:O-RANのコンテキストRAGとLLMプロンプト
- Authors: Nathan Conger, Nathan Scollar, Kemal Davaslioglu, Yalin E. Sagduyu, Sastry Kompella,
- Abstract要約: 我々は5G/6Gネットワークにおいて,O-RAN(Open Radio Access Network)が非集約型AI駆動無線システムの中心となる検索拡張型質問応答フレームワークを提案する。
この課題に対処するために、我々はContextual Retrieval-Augmented Generation (Contextual RAG)を採用する。
我々は、Contextual RAGが、競争力のあるランタイムとCO2排出量を維持しながら、標準のRAGとランタイムよりも一貫して精度を向上することを示します。
- 参考スコア(独自算出の注目度): 5.589132273787205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a retrieval-augmented question answering framework for 5G/6G networks, where the Open Radio Access Network (O-RAN) has become central to disaggregated, virtualized, and AI-driven wireless systems. While O-RAN enables multi-vendor interoperability and cloud-native deployments, its fast-changing specifications and interfaces pose major challenges for researchers and practitioners. Manual navigation of these complex documents is labor-intensive and error-prone, slowing system design, integration, and deployment. To address this challenge, we adopt Contextual Retrieval-Augmented Generation (Contextual RAG), a strategy in which candidate answer choices guide document retrieval and chunk-specific context to improve large language model (LLM) performance. This improvement over traditional RAG achieves more targeted and context-aware retrieval, which improves the relevance of documents passed to the LLM, particularly when the query alone lacks sufficient context for accurate grounding. Our framework is designed for dynamic domains where data evolves rapidly and models must be continuously updated or redeployed, all without requiring LLM fine-tuning. We evaluate this framework using the ORANBenchmark-13K dataset, and compare three LLMs, namely, Llama3.2, Qwen2.5-7B, and Qwen3.0-4B, across both Direct Question Answering (Direct Q&A) and Chain-of-Thought (CoT) prompting strategies. We show that Contextual RAG consistently improves accuracy over standard RAG and base prompting, while maintaining competitive runtime and CO2 emissions. These results highlight the potential of Contextual RAG to serve as a scalable and effective solution for domain-specific Q&A in ORAN and broader 5G/6G environments, enabling more accurate interpretation of evolving standards while preserving efficiency and sustainability.
- Abstract(参考訳): 我々は,Open Radio Access Network (O-RAN) が分散化,仮想化,AI駆動の無線システムの中心となる5G/6Gネットワークを対象とした検索強化型質問応答フレームワークを提案する。
O-RANはマルチベンダの相互運用性とクラウドネイティブなデプロイメントを実現する一方で、その急速に変化する仕様とインターフェースは、研究者や実践者にとって大きな課題となっている。
これらの複雑なドキュメントのマニュアルナビゲーションは、労働集約的でエラーを起こし、システム設計、統合、デプロイを遅くする。
この課題に対処するために、我々は、大言語モデル(LLM)の性能を改善するために、候補回答が文書検索とチャンク固有のコンテキストを導く戦略であるContextual Retrieval-Augmented Generation (Contextual RAG)を採用する。
従来のRAGに対するこの改善は、よりターゲットとコンテキストを意識した検索を実現し、特にクエリだけで正確なグラウンドを行うのに十分なコンテキストがない場合、LLMに渡されるドキュメントの関連性を改善する。
我々のフレームワークは、データを高速に進化させる動的ドメインのために設計されており、モデルはLLMの微調整を必要とせず、継続的に更新または再デプロイされなければならない。
我々は,このフレームワークをORANBenchmark-13Kデータセットを用いて評価し,Llama3.2,Qwen2.5-7B,Qwen3.0-4Bの3つのLCMを,直接質問回答(Direct Q&A)とChain-of-Thought(CoT)の双方で比較した。
コンテクチュアルRAGは、競争力のあるランタイムとCO2排出量を維持しながら、標準RAGとベースプロンプトよりも一貫して精度を向上することを示す。
これらの結果は、ORANおよびより広い5G/6G環境において、スケーラブルで効果的なドメイン固有Q&Aソリューションとして機能するContextual RAGの可能性を強調し、効率性と持続可能性を維持しながら、より正確な標準の解釈を可能にする。
関連論文リスト
- Meta-Learning-Based Handover Management in NextG O-RAN [47.23997854845925]
O-RANアーキテクチャ内でTHOとCHOを協調的に最適化するフレームワークであるCONTRAを提案する。
ConTRAは、O-RAN xAppランタイムとして、ほぼリアルタイムでデプロイするために特別に設計されている。
CONTRAはユーザのスループットを向上し、THOとCHOの切り替えコストを削減できることを示す。
論文 参考訳(メタデータ) (2025-12-26T13:01:46Z) - Towards Mixed-Modal Retrieval for Universal Retrieval-Augmented Generation [72.34977512403643]
Retrieval-Augmented Generation (RAG) は、外部コーパスから関連文書を取得することで、大規模言語モデル(LLM)を強化するための強力なパラダイムとして登場した。
既存のRAGシステムは、主に平凡なテキスト文書に焦点を当てており、クエリとドキュメントの両方が(テキストや画像のような)混合モダリティを含む実世界のシナリオでは、しばしば不足している。
我々は,Universal Retrieval-Augmented Generationシナリオに適した混合モーダル-混合モーダルレトリバーであるNyxを提案する。
論文 参考訳(メタデータ) (2025-10-20T09:56:43Z) - Domain-Specific Data Generation Framework for RAG Adaptation [58.20906914537952]
Retrieval-Augmented Generation (RAG)は、大規模言語モデルの言語理解と推論能力と外部検索を組み合わせ、ドメイン基底応答を可能にする。
本稿では,様々なRAG適応手法に合わせて,ドメイン基底型質問応答コンテキスト(QAC)トリプルを生成するフレームワークであるRAGenを提案する。
論文 参考訳(メタデータ) (2025-10-13T09:59:49Z) - Learning to Route: A Rule-Driven Agent Framework for Hybrid-Source Retrieval-Augmented Generation [55.47971671635531]
大言語モデル(LLM)は、一般質問回答(QA)において顕著な性能を示した。
Retrieval-Augmented Generation (RAG)は、LLMを外部知識で強化することで、この制限に対処する。
既存のシステムは、主に構造化されていないドキュメントに依存しているが、主にリレーショナルデータベースを見下ろしている。
論文 参考訳(メタデータ) (2025-09-30T22:19:44Z) - Fishing for Answers: Exploring One-shot vs. Iterative Retrieval Strategies for Retrieval Augmented Generation [11.180502261031789]
Retrieval-Augmented Generation (RAG) は、LLM(Large Language Models)に基づく、業界におけるクローズドソース文書の理解とクエリのための強力なソリューションである。
しかしながら、基本的なRAGは、法律および規制領域における複雑なQAタスクに苦しむことが多い。
証拠のカバレッジを改善し、品質に答えるための2つの戦略を探求する。
論文 参考訳(メタデータ) (2025-09-05T05:44:50Z) - REFRAG: Rethinking RAG based Decoding [67.4862300145604]
REFRAGは効率的なデコードフレームワークで、RAGアプリケーションの遅延を圧縮し、感知し、拡張し、改善する。
本稿では,RAG,マルチターン会話,長期文書要約など,多種多様な長文タスクを対象としたREFRAGの厳密な検証を行う。
論文 参考訳(メタデータ) (2025-09-01T03:31:44Z) - Leveraging LLM-Assisted Query Understanding for Live Retrieval-Augmented Generation [6.62734677678023]
実世界のライブ検索拡張生成(RAG)システムは、ノイズがありあいまいで、複数の意図を含むユーザクエリを処理する場合、課題に直面します。
本稿では,オープンドメイン環境におけるRAGシステムの堅牢性と有効性向上を目的とした新しいフレームワークであるOmni-RAGを紹介する。
論文 参考訳(メタデータ) (2025-06-26T15:35:12Z) - Agentic Retrieval-Augmented Generation: A Survey on Agentic RAG [0.8463972278020965]
大規模言語モデル(LLM)は、人間のようなテキスト生成や自然言語理解を可能にすることによって、人工知能(AI)に革命をもたらした。
Retrieval Augmented Generation (RAG) がソリューションとして登場し、リアルタイムデータ検索を統合して文脈に関連のある応答を提供することでLLMを強化している。
Agentic Retrieval-Augmented Generation (RAG)は、自律的なAIエージェントをRAGパイプラインに埋め込むことによって、これらの制限を超越する。
論文 参考訳(メタデータ) (2025-01-15T20:40:25Z) - QuIM-RAG: Advancing Retrieval-Augmented Generation with Inverted Question Matching for Enhanced QA Performance [1.433758865948252]
本研究では,RAG(Retrieval-Augmented Generation)システム構築のための新しいアーキテクチャを提案する。
RAGアーキテクチャは、ターゲット文書から応答を生成するために構築される。
本稿では,本システムにおける検索機構の新しいアプローチQuIM-RAGを紹介する。
論文 参考訳(メタデータ) (2025-01-06T01:07:59Z) - SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。