論文の概要: KEO: Knowledge Extraction on OMIn via Knowledge Graphs and RAG for Safety-Critical Aviation Maintenance
- arxiv url: http://arxiv.org/abs/2510.05524v1
- Date: Tue, 07 Oct 2025 02:29:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.067413
- Title: KEO: Knowledge Extraction on OMIn via Knowledge Graphs and RAG for Safety-Critical Aviation Maintenance
- Title(参考訳): KEO:安全臨界航空整備のための知識グラフとRAGによるOMInの知識抽出
- Authors: Kuangshi Ai, Jonathan A. Karr Jr, Meng Jiang, Nitesh V. Chawla, Chaoli Wang,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を用いたドメイン固有知識抽出・推論フレームワークを提案する。
運用・保守インテリジェンス(OMIn)データセットを用いて,グローバルなセンスメイキングと実行可能なメンテナンスタスクにまたがるQAベンチマークを構築した。
実験の結果、KEOはパターンやシステムレベルの洞察を明らかにすることで、グローバルなセンス作りを著しく改善し、テキストチャンクRAGは、きめ細かい手続き作業に有効であることがわかった。
- 参考スコア(独自算出の注目度): 43.78384523553438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Knowledge Extraction on OMIn (KEO), a domain-specific knowledge extraction and reasoning framework with large language models (LLMs) in safety-critical contexts. Using the Operations and Maintenance Intelligence (OMIn) dataset, we construct a QA benchmark spanning global sensemaking and actionable maintenance tasks. KEO builds a structured Knowledge Graph (KG) and integrates it into a retrieval-augmented generation (RAG) pipeline, enabling more coherent, dataset-wide reasoning than traditional text-chunk RAG. We evaluate locally deployable LLMs (Gemma-3, Phi-4, Mistral-Nemo) and employ stronger models (GPT-4o, Llama-3.3) as judges. Experiments show that KEO markedly improves global sensemaking by revealing patterns and system-level insights, while text-chunk RAG remains effective for fine-grained procedural tasks requiring localized retrieval. These findings underscore the promise of KG-augmented LLMs for secure, domain-specific QA and their potential in high-stakes reasoning.
- Abstract(参考訳): 我々は,大言語モデル(LLM)を用いたドメイン固有の知識抽出・推論フレームワークであるOMIn(KEO)について,安全性に問題のある文脈で紹介する。
運用・保守インテリジェンス(OMIn)データセットを用いて,グローバルなセンスメイキングと実行可能なメンテナンスタスクにまたがるQAベンチマークを構築した。
KEOは構造化知識グラフ(KG)を構築し、それを検索強化世代(RAG)パイプラインに統合することで、従来のテキストチャンクRAGよりも一貫性のある、データセット全体の推論を可能にする。
我々は,ローカル展開可能なLCM(Gemma-3,Phi-4,Mistral-Nemo)を評価し,より強力なモデル(GPT-4o,Llama-3.3)を審査員として採用した。
実験の結果、KEOはパターンやシステムレベルの洞察を明らかにすることで、グローバルなセンス作りを著しく改善し、テキストチャンクRAGは、局所的な検索を必要とする微妙な手続きタスクに有効であることがわかった。
これらの知見は, 安全でドメイン特異的なQAに対するKG増強LDMsの期待と, 高い推論におけるその可能性を示すものである。
関連論文リスト
- Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - DO-RAG: A Domain-Specific QA Framework Using Knowledge Graph-Enhanced Retrieval-Augmented Generation [4.113142669523488]
ドメイン固有のQAシステムは、生成頻度を必要とするが、構造化専門家の知識に基づく高い事実精度を必要とする。
本稿では,マルチレベル知識グラフ構築と意味ベクトル検索を統合した,スケーラブルでカスタマイズ可能なハイブリッドQAフレームワークであるDO-RAGを提案する。
論文 参考訳(メタデータ) (2025-05-17T06:40:17Z) - Fine-Grained Knowledge Structuring and Retrieval for Visual Question Answering [12.622529359686016]
VQA(Visual Question Answering)は、画像からの情報を活用することで、自然言語の質問に対する回答を提供することに焦点を当てている。
外部知識ベース(KB)を活用する検索拡張世代(RAG)が,将来性のあるアプローチとして出現する。
まず,マルチモーダルデータ断片からなるきめ細かい知識ユニットを紹介する。
第2に,細粒度検索をMLLMとシームレスに統合する知識単位検索拡張生成フレームワーク(KU-RAG)を提案する。
論文 参考訳(メタデータ) (2025-02-28T11:25:38Z) - SteLLA: A Structured Grading System Using LLMs with RAG [2.630522349105014]
本稿では,SteLLA (Structured Grading System Using LLMs with RAG) について述べる。
受験生の回答を含む実世界のデータセットを大学レベルの生物学コースから収集した。
実験により,本システムでは,人間の学級との相当な合意を達成でき,また,その問題で検討されたすべての知識点について,ブレークダウングレードとフィードバックを提供することができた。
論文 参考訳(メタデータ) (2025-01-15T19:24:48Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Knowledge graph enhanced retrieval-augmented generation for failure mode and effects analysis [1.8849131083278732]
本稿では,FMEAデータに対する集合理論の標準化とスキーマ,FMEA-KGからベクトル埋め込みを生成するアルゴリズム,KG拡張RAGフレームワークを提案する。
提案手法は,ユーザエクスペリエンス設計研究を通じて検証され,コンテキストリコールの精度と性能を計測する。
論文 参考訳(メタデータ) (2024-06-26T07:02:49Z) - KG-RAG: Bridging the Gap Between Knowledge and Creativity [0.0]
大規模言語モデルエージェント(LMA)は、情報幻覚、破滅的な忘れ込み、長いコンテキストの処理における制限といった問題に直面している。
本稿では,LMAの知識能力を高めるため,KG-RAG (Knowledge Graph-Retrieval Augmented Generation)パイプラインを提案する。
ComplexWebQuestionsデータセットに関する予備実験では、幻覚的コンテンツの削減において顕著な改善が示されている。
論文 参考訳(メタデータ) (2024-05-20T14:03:05Z) - A Knowledge-Injected Curriculum Pretraining Framework for Question Answering [70.13026036388794]
本稿では,知識に基づく質問応答タスクの総合的なKG学習と活用を実現するための一般知識注入型カリキュラム事前学習フレームワーク(KICP)を提案する。
KIモジュールはまずKG中心の事前学習コーパスを生成してLMに知識を注入し、プロセスを3つの重要なステップに一般化する。
KAモジュールは、アダプタを備えたLMで生成されたコーパスから知識を学習し、元の自然言語理解能力を維持できる。
CRモジュールは人間の推論パターンに従って3つのコーパスを構築する。
論文 参考訳(メタデータ) (2024-03-11T03:42:03Z) - LLMs for Knowledge Graph Construction and Reasoning: Recent Capabilities and Future Opportunities [66.36633042421387]
知識グラフ(KG)の構築と推論のための大規模言語モデル(LLM)の評価。
我々は,LLMと外部ソースを用いたマルチエージェントベースのアプローチであるAutoKGを提案し,KGの構築と推論を行う。
論文 参考訳(メタデータ) (2023-05-22T15:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。