論文の概要: R2RAG-Flood: A reasoning-reinforced training-free retrieval augmentation generation framework for flood damage nowcasting
- arxiv url: http://arxiv.org/abs/2602.10312v1
- Date: Tue, 10 Feb 2026 21:31:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.293477
- Title: R2RAG-Flood: A reasoning-reinforced training-free retrieval augmentation generation framework for flood damage nowcasting
- Title(参考訳): R2RAG-Flood:洪水被害予測のための訓練不要検索強化フレームワーク
- Authors: Lipai Huang, Kai Yin, Chia-Fu Liu, Ali Mostafavi,
- Abstract要約: R2RAG-Flood は、暴風雨後の被害に対処するためのトレーニング不要な検索拡張生成フレームワークである。
R2RAG-Floodは、関連する推論軌跡を検索し条件付けするコンテキスト拡張プロンプトを発行する。
予測は2段階の手順に従い、まず最初に損傷発生を判定し、3段階の損傷極度分類内で深刻度を補正する。
- 参考スコア(独自算出の注目度): 4.4258361032514015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: R2RAG-Flood is a reasoning-reinforced, training-free retrieval-augmented generation framework for post-storm property damage nowcasting. Building on an existing supervised tabular predictor, the framework constructs a reasoning-centric knowledge base composed of labeled tabular records, where each sample includes structured predictors, a compact natural language text-mode summary, and a model-generated reasoning trajectory. During inference, R2RAG-Flood issues context-augmented prompts that retrieve and condition on relevant reasoning trajectories from nearby geospatial neighbors and canonical class prototypes, enabling the large language model backbone to emulate and adapt prior reasoning rather than learn new task-specific parameters. Predictions follow a two-stage procedure that first determines property damage occurrence and then refines severity within a three-level Property Damage Extent categorization, with a conditional downgrade step to correct over-predicted severity. In a case study of Harris County, Texas at the 12-digit Hydrologic Unit Code scale, the supervised tabular baseline trained directly on structured predictors achieves 0.714 overall accuracy and 0.859 damage class accuracy for medium and high damage classes. Across seven large language model backbones, R2RAG-Flood attains 0.613 to 0.668 overall accuracy and 0.757 to 0.896 damage class accuracy, approaching the supervised baseline while additionally producing a structured rationale for each prediction. Using a severity-per-cost efficiency metric derived from API pricing and GPU instance costs, lightweight R2RAG-Flood variants demonstrate substantially higher efficiency than both the supervised tabular baseline and larger language models, while requiring no task-specific training or fine-tuning.
- Abstract(参考訳): R2RAG-Flood は、雷雨後の被害に対処するための、推論強化された、訓練不要な検索強化生成フレームワークである。
このフレームワークは、既存の教師付き表層予測器に基づいて、ラベル付き表層レコードからなる推論中心の知識ベースを構築し、各サンプルは構造化予測器、コンパクトな自然言語テキストモード要約、モデル生成の推論軌道を含む。
推論中、R2RAG-Floodは、近くの地理空間の隣人や標準クラスプロトタイプから関連する推論軌跡を検索し、条件付けするコンテキスト拡張プロンプトを発行し、大きな言語モデルバックボーンが新しいタスク固有のパラメータを学習するのではなく、事前推論をエミュレートし、適応できるようにする。
予測は、まず2段階の手順に従い、まず損傷発生を判定し、3段階の損傷過度分類において重症度を洗練し、過度に予測された重症度を補正する条件付き格下げステップを施す。
テキサス州ハリス郡の12桁の水理学単位法スケールでのケーススタディでは、構造化予測器で直接訓練された教師付き表層ベースラインは、中・高損傷クラスの0.714の総合的精度と0.859の損傷クラス精度を達成している。
7つの大きな言語モデルのバックボーンの中で、R2RAG-Floodは0.613から0.668の全体的な精度と0.757から0.896のダメージクラス精度を達成し、教師付きベースラインに近づき、予測毎に構造化された論理を生成する。
APIの価格とGPUインスタンスのコストから導かれた重厚なコスト毎の効率測定値を使用することで、軽量なR2RAG-Floodは、タスク固有のトレーニングや微調整を必要とせず、教師付き表層ベースラインとより大きな言語モデルの両方よりもはるかに高い効率を示す。
関連論文リスト
- Building Damage Detection using Satellite Images and Patch-Based Transformer Methods [0.0]
我々は、xBDデータセット上でビジョントランスフォーマー(ViT)モデルの性能を評価する。
本稿では,構造的特徴を分離し,背景雑音を最小限に抑えるパッチベースの前処理パイプラインを提案する。
そこで本研究では,災害分類のためのCNNベースラインと比較して,新しいトレーニング手法による小さなViTアーキテクチャが,競合するマクロ平均F1を実現することを示す。
論文 参考訳(メタデータ) (2026-02-08T20:45:58Z) - Evaluating and Enhancing the Vulnerability Reasoning Capabilities of Large Language Models [15.849480549367684]
本稿では,DAG生成タスクとして脆弱性推論をモデル化する新しいフレームワークであるDAGVulを提案する。
さらにReinforcement Learning with Verifiable Rewards (RLVR)を導入することで、モデル推論トレースをプログラム固有の論理と整合させる。
我々のフレームワークは、すべてのベースラインに対して平均18.9%の推論F1スコアを改善します。
論文 参考訳(メタデータ) (2026-02-06T13:19:45Z) - ProAct: Agentic Lookahead in Interactive Environments [56.50613398808361]
ProActは、2段階のトレーニングパラダイムを通じて、エージェントが正確なルックアヘッド推論を内部化することを可能にするフレームワークである。
そこでは,環境に基づく探索から得られたトラジェクトリの微調整をエージェントが行うGLAD(Grounded LookAhead Distillation)を紹介する。
また,政策段階のアルゴリズムを改良する補助値推定器であるモンテカルロ批判(MC-Critic)を提案する。
論文 参考訳(メタデータ) (2026-02-05T05:45:16Z) - Revisiting the Scaling Properties of Downstream Metrics in Large Language Model Training [11.179110411255708]
トレーニング予算からベンチマークパフォーマンスのスケーリングをモデル化するための直接的なフレームワークを提案する。
その結果, 直接的アプローチは従来提案していた2段階の手順よりも優れていることがわかった。
事前学習損失と下流評価結果の完全なセットを公表する。
論文 参考訳(メタデータ) (2025-12-09T18:33:48Z) - Benchmarking Corruption Robustness of LVLMs: A Discriminative Benchmark and Robustness Alignment Metric [49.393713730706445]
汚損の堅牢性を評価するための識別サンプルを強調したベンチマークであるBench-Cを紹介する。
本稿では,ロバストネスアライメントスコア(RAS)を提案する。
論文 参考訳(メタデータ) (2025-11-24T12:07:56Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - A comparison of Monte Carlo dropout and bootstrap aggregation on the
performance and uncertainty estimation in radiation therapy dose prediction
with deep learning neural networks [0.46180371154032895]
本稿では,モンテカルロ投棄法(MCDO)とブートストラップアグリゲーション(バッグング)をディープラーニングモデルに応用し,放射線治療用線量予測の不確かさを推定する手法を提案する。
パフォーマンス面では、バギングは調査対象のほとんどの指標において統計的に顕著な損失値と誤差を減少させる。
論文 参考訳(メタデータ) (2020-11-01T00:24:43Z) - Adversarial Attack and Defense of Structured Prediction Models [58.49290114755019]
本論文では,NLPにおける構造化予測タスクに対する攻撃と防御について検討する。
構造化予測モデルの構造化出力は、入力中の小さな摂動に敏感である。
本稿では,シーケンス・ツー・シーケンス・モデルを用いて,構造化予測モデルへの攻撃を学習する,新規で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-04T15:54:03Z) - Sparse representation for damage identification of structural systems [11.397437423613418]
モデル更新とスパース損傷識別のための2段階感度解析に基づく新しいフレームワークを提案する。
次に、準$ell法上に構築されたスパース表現パイプラインを、損傷と局所化定量化のために提示する。
提案手法は, 構造損傷の局所化と定量化の両方を高精度に行うことができることを示す。
論文 参考訳(メタデータ) (2020-06-06T18:04:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。