論文の概要: A Large-Language-Model Framework for Automated Humanitarian Situation Reporting
- arxiv url: http://arxiv.org/abs/2512.19475v1
- Date: Mon, 22 Dec 2025 15:28:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.803962
- Title: A Large-Language-Model Framework for Automated Humanitarian Situation Reporting
- Title(参考訳): 人道的状況自動報告のための大規模言語モデルフレームワーク
- Authors: Ivan Decostanzi, Yelena Mejova, Kyriaki Kalimeri,
- Abstract要約: 異質な人道的文書を構造化・根拠に基づく報告に変換する,完全に自動化された枠組みを提案する。
本システムは,セマンティックテキストクラスタリング,自動質問生成,引用による拡張回答抽出,多レベル要約,実行要約生成を統合している。
自然災害や紛争を含む13件の人道的イベントを対象とした枠組みを,ReliefWebなどの検証資料から1100件以上の資料を用いて評価した。
- 参考スコア(独自算出の注目度): 1.3800498036682856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Timely and accurate situational reports are essential for humanitarian decision-making, yet current workflows remain largely manual, resource intensive, and inconsistent. We present a fully automated framework that uses large language models (LLMs) to transform heterogeneous humanitarian documents into structured and evidence-grounded reports. The system integrates semantic text clustering, automatic question generation, retrieval augmented answer extraction with citations, multi-level summarization, and executive summary generation, supported by internal evaluation metrics that emulate expert reasoning. We evaluated the framework across 13 humanitarian events, including natural disasters and conflicts, using more than 1,100 documents from verified sources such as ReliefWeb. The generated questions achieved 84.7 percent relevance, 84.0 percent importance, and 76.4 percent urgency. The extracted answers reached 86.3 percent relevance, with citation precision and recall both exceeding 76 percent. Agreement between human and LLM based evaluations surpassed an F1 score of 0.80. Comparative analysis shows that the proposed framework produces reports that are more structured, interpretable, and actionable than existing baselines. By combining LLM reasoning with transparent citation linking and multi-level evaluation, this study demonstrates that generative AI can autonomously produce accurate, verifiable, and operationally useful humanitarian situation reports.
- Abstract(参考訳): タイムリーで正確な状況報告は人道的な意思決定に不可欠であるが、現在のワークフローは手作業、リソース集約、一貫性に乏しいままである。
本研究では,大規模言語モデル(LLM)を用いて,異質な人文的文書を構造化・根拠に基づくレポートに変換する,完全自動化されたフレームワークを提案する。
このシステムは、セマンティックテキストクラスタリング、自動質問生成、引用による検索強化回答抽出、多レベル要約、および専門家の推論をエミュレートする内部評価指標によって支援されたエグゼクティブ要約生成を統合している。
自然災害や紛争を含む13件の人道的イベントを対象とした枠組みを,ReliefWebなどの検証資料から1100件以上の資料を用いて評価した。
発生した質問は84.7%の関連性、84.0の重要度、76.4%の緊急度を達成した。
抽出された回答は86.3%に達し、引用精度は66%を超えている。
人間とLLMによる評価はF1スコア0.80を上回った。
比較分析の結果,提案フレームワークは既存のベースラインよりも構造化され,解釈可能で,動作可能なレポートを生成することがわかった。
LLM推論と透過的引用リンクと多レベル評価を組み合わせることで、生成AIが自律的に正確で、検証可能で、運用上有用な人道的状況レポートを作成できることを実証する。
関連論文リスト
- Large Language Models for Full-Text Methods Assessment: A Case Study on Mediation Analysis [15.98124151893659]
大規模言語モデル(LLM)は方法論的評価の自動化の可能性を秘めている。
我々は180のフルテキストの科学論文に対して、最先端のLLMを専門家の人間レビュアーに対してベンチマークした。
論文 参考訳(メタデータ) (2025-10-12T19:04:22Z) - Rezwan: Leveraging Large Language Models for Comprehensive Hadith Text Processing: A 1.2M Corpus Development [2.9958599508973403]
Rezwanは大規模なAI支援型Hadithコーパスで、1.2M以上のナレーションで構成され、完全に自動化されたパイプラインを通じて抽出、構造化されている。
各ナレーションは、インテリジェントなダイアクリゼーション、抽象的な要約、テーマタグ付け、テキスト間セマンティック分析など、12言語への機械翻訳によって強化される。
その結果、連鎖文分離や要約といった構造的タスクにおいて、ほぼ人間に近い精度を示すとともに、ダイアクリタイズや意味的類似性検出における継続的な課題を強調した。
論文 参考訳(メタデータ) (2025-10-04T11:09:10Z) - Towards Automated Situation Awareness: A RAG-Based Framework for Peacebuilding Reports [2.230742111425553]
本稿では,状況認識レポートを自律的に生成する動的検索・拡張生成システムを提案する。
本システムでは,要求に基づく問合せ固有の知識ベースを構築し,時間的,関連性,正確な洞察を確保する。
このシステムは、複数の実世界のシナリオでテストされ、一貫性があり、洞察力があり、実行可能なレポートを生成する効果を実証している。
論文 参考訳(メタデータ) (2025-05-14T16:36:30Z) - LCFO: Long Context and Long Form Output Dataset and Benchmarking [50.44679440167169]
LCFO(Long Context and Form Output)ベンチマークは、段階的な要約と要約拡張機能を評価するための新しいフレームワークである。
LCFOは、長さの異なる3つの要約を持つ長い入力文書(平均長5k語)から構成される。
GPT-4o-miniは,要約処理と要約処理の両方において,自動システム間で最高の人間のスコアを得る。
論文 参考訳(メタデータ) (2024-12-11T10:35:45Z) - A Large-Scale Study of Relevance Assessments with Large Language Models: An Initial Look [52.114284476700874]
本稿では,4つの異なる関連性評価手法が展開された大規模評価(TREC 2024 RAG Track)の結果について報告する。
自動生成UMBRELA判定は、完全に手動による判断を置き換えて、実行レベルの有効性を正確に捉えることができる。
意外なことに、LLMアシストは完全な手作業による評価と相関を増さないようで、人間のループプロセスに関連するコストは明らかな有意義な利益をもたらすものではないことを示唆している。
論文 参考訳(メタデータ) (2024-11-13T01:12:35Z) - A Comparative Study of Quality Evaluation Methods for Text Summarization [0.5512295869673147]
本稿では,大規模言語モデル(LLM)に基づくテキスト要約評価手法を提案する。
以上の結果から,LLMの評価は人間の評価と密接に一致しているが,ROUGE-2,BERTScore,SummaCなどの広く使用されている自動測定値には一貫性がない。
論文 参考訳(メタデータ) (2024-06-30T16:12:37Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Dynamic Hybrid Relation Network for Cross-Domain Context-Dependent
Semantic Parsing [52.24507547010127]
ドメイン間コンテキスト依存のセマンティック解析は研究の新たな焦点である。
本稿では,コンテキストの発話,トークン,データベーススキーマ,会話の進行に伴う複雑なインタラクションを効果的にモデル化する動的グラフフレームワークを提案する。
提案したフレームワークは既存のモデルを大きなマージンで上回り、2つの大規模ベンチマークで新しい最先端性能を達成する。
論文 参考訳(メタデータ) (2021-01-05T18:11:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。