論文の概要: From Perceptions to Decisions: Wildfire Evacuation Decision Prediction with Behavioral Theory-informed LLMs
- arxiv url: http://arxiv.org/abs/2502.17701v1
- Date: Mon, 24 Feb 2025 22:47:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:24:00.715823
- Title: From Perceptions to Decisions: Wildfire Evacuation Decision Prediction with Behavioral Theory-informed LLMs
- Title(参考訳): 認識から判断へ:行動理論インフォームドLLMを用いた山火事避難決定予測
- Authors: Ruxiao Chen, Chenguang Wang, Yuran Sun, Xilei Zhao, Susu Xu,
- Abstract要約: FLAREは、山火事避難決定予測の高度な推論のためのフレームワークである。
行動理論とモデルを統合して、CoT(Chain-of-Thought)推論を合理化している。
実験では、従来の理論にインフォームドされた行動モデルよりも平均20.47%の性能改善が示されている。
- 参考スコア(独自算出の注目度): 4.050331942535618
- License:
- Abstract: Evacuation decision prediction is critical for efficient and effective wildfire response by helping emergency management anticipate traffic congestion and bottlenecks, allocate resources, and minimize negative impacts. Traditional statistical methods for evacuation decision prediction fail to capture the complex and diverse behavioral logic of different individuals. In this work, for the first time, we introduce FLARE, short for facilitating LLM for advanced reasoning on wildfire evacuation decision prediction, a Large Language Model (LLM)-based framework that integrates behavioral theories and models to streamline the Chain-of-Thought (CoT) reasoning and subsequently integrate with memory-based Reinforcement Learning (RL) module to provide accurate evacuation decision prediction and understanding. Our proposed method addresses the limitations of using existing LLMs for evacuation behavioral predictions, such as limited survey data, mismatching with behavioral theory, conflicting individual preferences, implicit and complex mental states, and intractable mental state-behavior mapping. Experiments on three post-wildfire survey datasets show an average of 20.47% performance improvement over traditional theory-informed behavioral models, with strong cross-event generalizability. Our complete code is publicly available at https://github.com/SusuXu-s-Lab/FLARE
- Abstract(参考訳): 避難決定予測は、緊急管理が交通渋滞やボトルネックを予測し、資源を割り当て、負の影響を最小限に抑えることにより、効率的で効果的な山火事対策に不可欠である。
避難決定予測の伝統的な統計的手法は、異なる個人の複雑で多様な行動論理を捉えるのに失敗する。
本研究では,山火事避難決定予測の先進的推論を容易にするため,FLAREを初めて紹介する。大規模言語モデル(LLM)に基づくフレームワークで,行動理論とモデルを統合し,CoT推論を効率化し,メモリベースの強化学習(Reinforcement Learning, RL)モジュールと統合し,正確な避難決定と理解を提供する。
提案手法は,限定調査データや行動理論のミスマッチ,個人の嗜好の相違,暗黙的・複雑な精神状態,難易度の高い精神状態のマッピングなど,既存のLCMを用いた避難行動予測の限界に対処する。
ミルドファイア後の3つの調査データセットの実験では、従来の理論インフォームド行動モデルよりも平均20.47%パフォーマンスが向上し、強いクロスイベントの一般化性が示されている。
私たちの完全なコードはhttps://github.com/SusuXu-s-Lab/FLAREで公開されています。
関連論文リスト
- Model-free Methods for Event History Analysis and Efficient Adjustment (PhD Thesis) [55.2480439325792]
この論文は、モデルフリーの観点から統一された統計学への独立した貢献のシリーズである。
第1章では、機械学習から予測技術を活用する柔軟なメソッドを定式化するために、モデルフリーの視点をどのように利用できるか、詳しく説明している。
第2章では、あるプロセスの進化が他のプロセスに直接影響されるかどうかを記述した地域独立の概念を研究している。
論文 参考訳(メタデータ) (2025-02-11T19:24:09Z) - Cognition Chain for Explainable Psychological Stress Detection on Social Media [29.25424712182019]
ストレスは世界的な健康問題であり、深刻なメンタルヘルス問題を引き起こす可能性がある。
現在の早期検出モデルは、限定的な説明可能性と信頼に苦しむ「ブラックボックス」推論を実行する。
我々は,説明可能なストレス検出モデルであるCogLLMを開発した。
論文 参考訳(メタデータ) (2024-12-18T16:26:47Z) - How to Leverage Predictive Uncertainty Estimates for Reducing Catastrophic Forgetting in Online Continual Learning [12.33899500566626]
この研究は、異なる不確実性推定とメモリの投入戦略を詳細に分析する。
負の対数類似度によって誘導される一般化分散を用いて予測の不確かさを推定する別の方法を提案する。
予測不確実性対策を用いることで, CFを異なる設定で低減できることが実証された。
論文 参考訳(メタデータ) (2024-07-10T13:51:15Z) - DetermLR: Augmenting LLM-based Logical Reasoning from Indeterminacy to Determinacy [76.58614128865652]
非決定性から決定性への進化として推論過程を再考する新しい視点であるDetermLRを提案する。
まず、既知の条件を次の2つのタイプに分類する: 決定的および不決定的前提 これは、推論プロセスのオール方向を提供し、不決定的データを段階的決定的洞察に変換する際のLCMを導く。
我々は、利用可能な施設の保存と抽出、推論メモリによる推論パスの自動化、そしてその後の推論ステップに関する歴史的推論の詳細を保存する。
論文 参考訳(メタデータ) (2023-10-28T10:05:51Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - PACE-LM: Prompting and Augmentation for Calibrated Confidence Estimation
with GPT-4 in Cloud Incident Root Cause Analysis [17.362895895214344]
大規模言語モデル(LLM)は、人間がクラウドインシデントの根本原因を特定するのに役立つ。
そこで本研究では,オンコール技術者がモデル予測を採用するかどうかの判断を支援するために,予測に対する信頼度推定を行うことを提案する。
提案手法は,推定された根本原因に対する校正された信頼度を推定し,検索した履歴データの有用性と促進戦略を検証できることを示す。
論文 参考訳(メタデータ) (2023-09-11T21:24:00Z) - Predicting Hurricane Evacuation Decisions with Interpretable Machine
Learning Models [0.0]
本研究では,容易にアクセス可能な人口動態と資源関連予測器によって構築された世帯の避難決定を予測するための新しい手法を提案する。
提案手法は,避難交通需要の推計を改善するため,緊急管理当局に新たなツールと枠組みを提供する可能性がある。
論文 参考訳(メタデータ) (2023-03-12T03:45:44Z) - Generative Causal Representation Learning for Out-of-Distribution Motion
Forecasting [13.99348653165494]
本稿では,分散シフト下での知識伝達を容易にするための生成因果学習表現を提案する。
ヒトの軌道予測モデルにおいて提案手法の有効性を評価する一方、GCRLは他の領域にも適用可能である。
論文 参考訳(メタデータ) (2023-02-17T00:30:44Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Counterfactual Predictions under Runtime Confounding [74.90756694584839]
本研究は, 過去のデータからすべての関連要因を抽出した環境で, 事実予測タスクについて検討する。
本稿では,この環境下での対実予測モデル学習のための2次ロバスト手法を提案する。
論文 参考訳(メタデータ) (2020-06-30T15:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。