論文の概要: Knowledge-Grounded Agentic Large Language Models for Multi-Hazard Understanding from Reconnaissance Reports
- arxiv url: http://arxiv.org/abs/2511.14010v1
- Date: Tue, 18 Nov 2025 00:36:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.853912
- Title: Knowledge-Grounded Agentic Large Language Models for Multi-Hazard Understanding from Reconnaissance Reports
- Title(参考訳): マルチハザード理解のための知識学習型エージェント大言語モデル
- Authors: Chenchen Kuai, Zihao Li, Braden Rosen, Stephanie Paan, Navid Jafari, Jean-Louis Briaud, Yunlong Zhang, Youssef M. A. Hashash, Yang Zhou,
- Abstract要約: 災害後の偵察報告には、マルチハザード相互作用を理解するための重要な証拠が含まれている。
MoRA-RAGは、偵察レポートをマルチハザード推論のための構造化基盤に変換する知識基盤のLLMフレームワークである。
MoRA-RAGは94.5パーセントの精度を達成し、ゼロショットのLLMを30%上回り、最先端のRAGシステムを10%上回っている。
- 参考スコア(独自算出の注目度): 14.8590499954111
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Post-disaster reconnaissance reports contain critical evidence for understanding multi-hazard interactions, yet their unstructured narratives make systematic knowledge transfer difficult. Large language models (LLMs) offer new potential for analyzing these reports, but often generate unreliable or hallucinated outputs when domain grounding is absent. This study introduces the Mixture-of-Retrieval Agentic RAG (MoRA-RAG), a knowledge-grounded LLM framework that transforms reconnaissance reports into a structured foundation for multi-hazard reasoning. The framework integrates a Mixture-of-Retrieval mechanism that dynamically routes queries across hazard-specific databases while using agentic chunking to preserve contextual coherence during retrieval. It also includes a verification loop that assesses evidence sufficiency, refines queries, and initiates targeted searches when information remains incomplete. We construct HazardRecQA by deriving question-answer pairs from GEER reconnaissance reports, which document 90 global events across seven major hazard types. MoRA-RAG achieves up to 94.5 percent accuracy, outperforming zero-shot LLMs by 30 percent and state-of-the-art RAG systems by 10 percent, while reducing hallucinations across diverse LLM architectures. MoRA-RAG also enables open-weight LLMs to achieve performance comparable to proprietary models. It establishes a new paradigm for transforming post-disaster documentation into actionable, trustworthy intelligence for hazard resilience.
- Abstract(参考訳): 戦後の偵察報告書には、マルチハザード相互作用を理解するための重要な証拠が含まれているが、その非構造的な物語は体系的な知識伝達を困難にしている。
大規模言語モデル(LLM)は、これらのレポートを解析する新たな可能性を提供するが、しばしばドメイン基底が欠如しているときに、信頼できないあるいは幻覚的な出力を生成する。
本研究では,Mixture-of-Retrieval Agentic RAG (MoRA-RAG)について紹介する。
このフレームワークはMixture-of-Retrievalメカニズムを統合しており、検索中のコンテキストコヒーレンスを保存するためにエージェントチャンキングを使用しながら、ハザード固有のデータベースを動的にルーティングする。
また、証拠の不十分さを評価し、クエリを精査し、情報が不完全である場合にターゲット検索を開始する検証ループも含まれている。
GEER偵察レポートから質問応答ペアを抽出し,HazardRecQAを構築する。
MoRA-RAGは94.5パーセントの精度を達成し、ゼロショットのLLMを30%、最先端のRAGシステムを10%上回った。
MoRA-RAGはまた、オープンウェイト LLM がプロプライエタリなモデルに匹敵するパフォーマンスを達成することを可能にする。
それは、ディスアスター後のドキュメントを、危険なレジリエンスのための行動可能で信頼できるインテリジェンスに変換するための、新しいパラダイムを確立します。
関連論文リスト
- FAIR-RAG: Faithful Adaptive Iterative Refinement for Retrieval-Augmented Generation [0.0]
本稿では、標準的なRAGパイプラインを動的にエビデンス駆動の推論プロセスに変換する新しいエージェントフレームワークであるFAIR-RAGを紹介する。
本稿では,HotpotQA,2WikiMultiHopQA,MusiQueなどのマルチホップQAベンチマーク実験を行う。
我々の研究は、高度なRAGシステムにおける信頼性と正確な推論を解き明かすためには、明確なギャップ分析による構造化されたエビデンス駆動の洗練プロセスが不可欠であることを示す。
論文 参考訳(メタデータ) (2025-10-25T15:59:33Z) - DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router [57.28685457991806]
DeepSieveはエージェントRAGフレームワークで、LLM-as-a-knowledge-routerを介して情報を収集する。
我々の設計はモジュール性、透明性、適応性を重視しており、エージェントシステム設計の最近の進歩を活用している。
論文 参考訳(メタデータ) (2025-07-29T17:55:23Z) - Retrieval-Augmented Generation with Conflicting Evidence [57.66282463340297]
大規模言語モデル (LLM) エージェントは、応答の事実性を改善するために、検索強化世代 (RAG) をますます採用している。
実際には、これらのシステムは曖昧なユーザクエリを処理し、複数のソースからの情報に衝突する可能性がある。
RAMDocs(Retrieval with Ambiguity and Misinformation in Documents)は,ユーザクエリのエビデンスを矛盾させるような,複雑で現実的なシナリオをシミュレートする新しいデータセットである。
論文 参考訳(メタデータ) (2025-04-17T16:46:11Z) - ThinkNote: Enhancing Knowledge Integration and Utilization of Large Language Models via Constructivist Cognition Modeling [55.21641515545307]
大規模言語モデル(LLM)は、幅広いNLPタスクにおいて強力なパフォーマンスを示している。
それらはしばしば、不慣れな外部情報に晒されたとき、最適でない行動と矛盾を示す。
本稿では,LLMの外部知識活用を促進する新しいフレームワークであるThinkNoteを提案する。
論文 参考訳(メタデータ) (2024-02-21T06:04:53Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。