論文の概要: A Graph-based RAG for Energy Efficiency Question Answering
- arxiv url: http://arxiv.org/abs/2511.01643v1
- Date: Mon, 03 Nov 2025 14:55:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.303627
- Title: A Graph-based RAG for Energy Efficiency Question Answering
- Title(参考訳): グラフを用いたエネルギー効率質問応答のためのRAG
- Authors: Riccardo Campi, Nicolò Oreste Pinciroli Vago, Mathyas Giudici, Pablo Barrachina Rodriguez-Guisado, Marco Brambilla, Piero Fraternali,
- Abstract要約: 本稿では,大規模言語モデル (LLM) をグラフベース検索拡張生成 (RAG) アーキテクチャを用いて問合せ回答を行う。
まず、エネルギー分野におけるガイダンスおよび規制文書から知識グラフ(KG)を自動的に抽出する。
我々は,RAGAsフレームワークの特性と101組の質問応答ペアからなる検証データセット,ドメインエキスパートを用いた人間による検証を実装した。
- 参考スコア(独自算出の注目度): 2.601494241677187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we investigate the use of Large Language Models (LLMs) within a graph-based Retrieval Augmented Generation (RAG) architecture for Energy Efficiency (EE) Question Answering. First, the system automatically extracts a Knowledge Graph (KG) from guidance and regulatory documents in the energy field. Then, the generated graph is navigated and reasoned upon to provide users with accurate answers in multiple languages. We implement a human-based validation using the RAGAs framework properties, a validation dataset comprising 101 question-answer pairs, and domain experts. Results confirm the potential of this architecture and identify its strengths and weaknesses. Validation results show how the system correctly answers in about three out of four of the cases (75.2 +- 2.7%), with higher results on questions related to more general EE answers (up to 81.0 +- 4.1%), and featuring promising multilingual abilities (4.4% accuracy loss due to translation).
- Abstract(参考訳): 本研究では,Large Language Models (LLMs) を,エネルギー効率 (EE) 質問応答のためのグラフベース検索拡張生成 (RAG) アーキテクチャ内での利用について検討する。
まず、エネルギー分野におけるガイダンスおよび規制文書から知識グラフ(KG)を自動的に抽出する。
そして、生成されたグラフをナビゲートして、複数の言語で正確な回答を提供する。
RAGAsフレームワークの特性,101組の質問応答ペアからなる検証データセット,ドメインエキスパートを用いた人間による検証を実装した。
結果は、このアーキテクチャの可能性を確認し、その強みと弱点を特定します。
検証結果は、4つのケースのうち3つ(75.2+-2.7%)でシステムがどのように正しく答えるかを示し、より一般的なEEの回答(最大81.0+-4.1%)に関する質問に対するより高い結果が得られ、有望な多言語能力(翻訳による精度の低下4.4%)が特徴である。
関連論文リスト
- PROPEX-RAG: Enhanced GraphRAG using Prompt-Driven Prompt Execution [4.1390735746263685]
本稿では, 実体抽出, 事実選択, 通過再開を促進する上で, 素早い定式化の意義を浮き彫りにした, プロンプト駆動型グラフRAGフレームワークを提案する。
我々のシステムはHotpotQAと2WikiMultiHopQAで最先端のパフォーマンスを獲得し、F1スコアは80.7%、78.9%、Recall@5スコアは97.1%、98.1%である。
論文 参考訳(メタデータ) (2025-11-03T18:00:56Z) - Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - mRAKL: Multilingual Retrieval-Augmented Knowledge Graph Construction for Low-Resourced Languages [9.920621166617925]
マルチ言語知識グラフ構築(mKGC)を行うための検索型拡張生成(RAG)システムであるmRAKLを紹介する。
我々の実験は主に、TigrinyaとAmharicの2つの低リソース言語に焦点を当てています。
理想的な検索システムにより、mRAKLはティグリニャとアムハラの精度を4.92および8.79ポイント向上させる。
論文 参考訳(メタデータ) (2025-07-21T19:11:31Z) - KG2QA: Knowledge Graph-enhanced Retrieval-augmented Generation for Communication Standards Question Answering [7.079181644378029]
KG2QAは、細調整された大言語モデル(LLM)とドメイン固有知識グラフ(KG)を統合する質問応答フレームワークである。
ITU-TレコメンデーションとQwen2.5-7B-インストラクトから,高品質な6,587対のQAデータセットを構築した。
我々のKG-RAGパイプラインでは、細調整されたLLMがまずKGから関連する知識を取得し、より正確で現実的な応答を可能にします。
論文 参考訳(メタデータ) (2025-06-08T08:07:22Z) - GFM-RAG: Graph Foundation Model for Retrieval Augmented Generation [83.72561905487447]
本稿では,新しいグラフ基盤モデル (GFM) である GFM-RAG について紹介する。
GFM-RAGは、複雑なクエリ-知識関係をキャプチャするグラフ構造を理由とする、革新的なグラフニューラルネットワークによって実現されている。
効率とニューラルスケーリング法則との整合性を維持しつつ、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-02-03T07:04:29Z) - Graphusion: Leveraging Large Language Models for Scientific Knowledge Graph Fusion and Construction in NLP Education [14.368011453534596]
フリーテキストからのゼロショット知識グラフフレームワークであるGraphusionを紹介する。
核融合モジュールは、エンティティのマージ、競合解決、新しい三重項発見を取り入れた三重項のグローバルなビューを提供する。
本評価は,リンク予測における教師付きベースラインの精度を最大10%超えることを示す。
論文 参考訳(メタデータ) (2024-07-15T15:13:49Z) - EWEK-QA: Enhanced Web and Efficient Knowledge Graph Retrieval for Citation-based Question Answering Systems [103.91826112815384]
引用ベースのQAシステムは2つの欠点に悩まされている。
彼らは通常、抽出された知識の源としてWebにのみ依存し、外部の知識ソースを追加することで、システムの効率を損なう。
システムに供給された知識の内容を充実させるため,Web と 効率的な知識グラフ (KG) 検索ソリューション (EWEK-QA) を提案する。
論文 参考訳(メタデータ) (2024-06-14T19:40:38Z) - How to Build an Adaptive AI Tutor for Any Course Using Knowledge Graph-Enhanced Retrieval-Augmented Generation (KG-RAG) [5.305156933641317]
知的学習システム(ITS)におけるLarge Language Models (LLMs)は、パーソナライズされた教育に変革をもたらす機会を提供する。
現在の実装では、2つの重要な課題に直面している。
本稿では,構造化知識表現と文脈認識検索を統合した新しいフレームワークである知識グラフ強化検索(RAG)を提案する。
論文 参考訳(メタデータ) (2023-11-29T15:02:46Z) - Logic-Guided Data Augmentation and Regularization for Consistent
Question Answering [55.05667583529711]
本稿では,比較質問に対する応答の精度と整合性を改善する問題に対処する。
提案手法は論理的および言語的知識を利用してラベル付きトレーニングデータを増強し,一貫性に基づく正規化器を用いてモデルを訓練する。
論文 参考訳(メタデータ) (2020-04-21T17:03:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。