論文の概要: FloodBrain: Flood Disaster Reporting by Web-based Retrieval Augmented
Generation with an LLM
- arxiv url: http://arxiv.org/abs/2311.02597v1
- Date: Sun, 5 Nov 2023 08:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 16:55:06.403129
- Title: FloodBrain: Flood Disaster Reporting by Web-based Retrieval Augmented
Generation with an LLM
- Title(参考訳): FloodBrain: LLMによるWebベースの検索Augmented Generationによる洪水災害報告
- Authors: Grace Colverd, Paul Darm, Leonard Silverberg, and Noah Kasmanoff
- Abstract要約: FloodBrain(floodbrain.com)に組み込んだ洗練されたパイプラインを導入する。
当社のパイプラインは,Web検索結果からの情報を同化して,洪水イベントに関する詳細な,正確なレポートを生成する。
GPT-4に割り当てられたスコアと人的評価者によるスコアとの間には顕著な相関関係がみられた。
- 参考スコア(独自算出の注目度): 0.9374652839580183
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fast disaster impact reporting is crucial in planning humanitarian
assistance. Large Language Models (LLMs) are well known for their ability to
write coherent text and fulfill a variety of tasks relevant to impact
reporting, such as question answering or text summarization. However, LLMs are
constrained by the knowledge within their training data and are prone to
generating inaccurate, or "hallucinated", information. To address this, we
introduce a sophisticated pipeline embodied in our tool FloodBrain
(floodbrain.com), specialized in generating flood disaster impact reports by
extracting and curating information from the web. Our pipeline assimilates
information from web search results to produce detailed and accurate reports on
flood events. We test different LLMs as backbones in our tool and compare their
generated reports to human-written reports on different metrics. Similar to
other studies, we find a notable correlation between the scores assigned by
GPT-4 and the scores given by human evaluators when comparing our generated
reports to human-authored ones. Additionally, we conduct an ablation study to
test our single pipeline components and their relevancy for the final reports.
With our tool, we aim to advance the use of LLMs for disaster impact reporting
and reduce the time for coordination of humanitarian efforts in the wake of
flood disasters.
- Abstract(参考訳): 人道支援の計画には,迅速な災害影響報告が不可欠である。
大規模言語モデル(llm)は、コヒーレントなテキストを書き、質問応答やテキスト要約など、インパクトレポートに関連するさまざまなタスクをこなす能力でよく知られている。
しかし、LSMはトレーニングデータ内の知識によって制約され、不正確な、あるいは「ハロシン化」情報を生成する傾向にある。
そこで本研究では,web から情報抽出・収集し,洪水災害影響レポートの作成に特化する,当社のツールfloodbrain (floodbrain.com) に具体化された洗練されたパイプラインを紹介する。
当社のパイプラインは,web検索結果からの情報を同一化し,洪水イベントに関する詳細な正確なレポートを生成する。
ツールのバックボーンとして異なるLSMをテストし、生成されたレポートと異なるメトリクスに関する人によるレポートを比較します。
他の研究と同様に、GPT-4で割り当てられたスコアと人間の評価者によるスコアとの間には顕著な相関関係がみられた。
さらに,最終報告に対する単一パイプラインコンポーネントとその関連性をテストするためのアブレーション調査を実施している。
本ツールでは,災害被害報告におけるLLMの利用を推進し,洪水災害時の人道的努力の調整に要する時間を短縮することを目的としている。
関連論文リスト
- DisasterQA: A Benchmark for Assessing the performance of LLMs in Disaster Response [0.0]
災害対応知識におけるLarge Language Models (LLM) の機能を評価する。
ベンチマークでは、幅広い災害対応トピックをカバーしている。
その結果, LLM には災害対応知識の改善が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-10-09T00:13:06Z) - AutoRG-Brain: Grounded Report Generation for Brain MRI [57.22149878985624]
放射線学者は、大量の画像を日々のベースで解釈し、対応するレポートを生成する責任を負う。
この要求される作業負荷は、人間のエラーのリスクを高め、治療の遅れ、医療費の増加、収益損失、運用上の不効率につながる可能性がある。
地盤自動報告生成(AutoRG)に関する一連の研究を開始した。
このシステムは、脳の構造の明細化、異常の局所化、そしてよく組織化された発見の生成をサポートする。
論文 参考訳(メタデータ) (2024-07-23T17:50:00Z) - End-To-End Causal Effect Estimation from Unstructured Natural Language Data [23.484226791467478]
本研究では,大規模言語モデル(LLM)を用いて,多種多様なテキストデータをマイニングして,安価な因果効果推定を行う方法を示す。
NATURALは,LLMを用いて構築され,非構造化テキストのデータセット上で動作する因果効果推定器である。
この結果から、非構造化テキストデータは因果効果情報の豊富な情報源であり、NATURALはこのリソースを利用するための自動パイプラインへの第一歩であることを示唆した。
論文 参考訳(メタデータ) (2024-07-09T16:38:48Z) - Learning Traffic Crashes as Language: Datasets, Benchmarks, and What-if Causal Analyses [76.59021017301127]
我々は,CrashEventという大規模トラフィッククラッシュ言語データセットを提案し,実世界のクラッシュレポート19,340を要約した。
さらに,クラッシュイベントの特徴学習を,新たなテキスト推論問題として定式化し,さらに様々な大規模言語モデル(LLM)を微調整して,詳細な事故結果を予測する。
実験の結果, LLMに基づくアプローチは事故の重大度を予測できるだけでなく, 事故の種類を分類し, 損害を予測できることがわかった。
論文 参考訳(メタデータ) (2024-06-16T03:10:16Z) - Are you still on track!? Catching LLM Task Drift with Activations [55.75645403965326]
タスクドリフトは攻撃者がデータを流出させたり、LLMの出力に影響を与えたりすることを可能にする。
そこで, 簡易線形分類器は, 分布外テストセット上で, ほぼ完全なLOC AUCでドリフトを検出することができることを示す。
このアプローチは、プロンプトインジェクション、ジェイルブレイク、悪意のある指示など、目に見えないタスクドメインに対して驚くほどうまく一般化する。
論文 参考訳(メタデータ) (2024-06-02T16:53:21Z) - Monitoring Critical Infrastructure Facilities During Disasters Using Large Language Models [8.17728833322492]
クリティカルインフラストラクチャー施設(CIF)は、特に大規模緊急時において、コミュニティの機能に不可欠である。
本稿では,大規模言語モデル(LLM)の適用の可能性を探り,自然災害によるCIFの状況を監視する。
我々は2つの異なる国の災害イベントからソーシャルメディアデータを分析し、CIFに対する報告された影響と、その影響の重大さと運用状況を明らかにする。
論文 参考訳(メタデータ) (2024-04-18T19:41:05Z) - Causality Extraction from Nuclear Licensee Event Reports Using a Hybrid Framework [3.1139106894905972]
本稿では,核ライセンスイベントレポートからの因果検出と抽出のためのハイブリッドフレームワークを提案する。
因果関係分析のための20,129のテキストサンプルを用いたLERコーパスをコンパイルし,因果関係検出のための深層学習に基づくアプローチを構築した。
論文 参考訳(メタデータ) (2024-04-08T16:39:34Z) - CrisisMatch: Semi-Supervised Few-Shot Learning for Fine-Grained Disaster
Tweet Classification [51.58605842457186]
半教師付き, 少数ショットの学習環境下で, 微粒な災害ツイート分類モデルを提案する。
私たちのモデルであるCrisisMatchは、ラベルなしデータと大量のラベルなしデータを用いて、ツイートを関心の細かいクラスに効果的に分類する。
論文 参考訳(メタデータ) (2023-10-23T07:01:09Z) - Source Attribution for Large Language Model-Generated Data [57.85840382230037]
合成テキストの生成に寄与したデータプロバイダを特定することで、ソース属性を実行できることが不可欠である。
我々はこの問題を透かしによって取り組めることを示した。
本稿では,アルゴリズム設計により,これらの重要な特性を満足する情報源属性フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-01T12:02:57Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z) - Localized Flood DetectionWith Minimal Labeled Social Media Data Using
Transfer Learning [3.964047152162558]
ソーシャルセンシングモデル(Twitter)を用いた局所的な洪水検出の問題点について検討する。
本研究は,緊急意思決定や救助活動,早期警戒等のために,洪水関連のアップデートや通知を市当局に提供する上で極めて有効である。
論文 参考訳(メタデータ) (2020-02-10T20:17:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。