論文の概要: Architectural Insights for Post-Tornado Damage Recognition
- arxiv url: http://arxiv.org/abs/2602.14523v1
- Date: Mon, 16 Feb 2026 07:16:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.246408
- Title: Architectural Insights for Post-Tornado Damage Recognition
- Title(参考訳): 竜巻後被害認識のための建築的考察
- Authors: Robinson Umeike, Thang Dao, Shane Crawford, John van de Lindt, Blythe Johnston, Wanting, Wang, Trung Do, Ajibola Mofikoya, Sarbesh Banjara, Cuong Pham,
- Abstract要約: 竜巻発生直後の建物被害評価は,救命・救助活動の調整に重要である。
現在の自動化手法は、竜巻によって引き起こされる破片の独特の視覚的複雑さに苦慮している。
79のオープンソースディープラーニングモデルを評価するための,体系的な実験フレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.125581092819857
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Rapid and accurate building damage assessment in the immediate aftermath of tornadoes is critical for coordinating life-saving search and rescue operations, optimizing emergency resource allocation, and accelerating community recovery. However, current automated methods struggle with the unique visual complexity of tornado-induced wreckage, primarily due to severe domain shift from standard pre-training datasets and extreme class imbalance in real-world disaster data. To address these challenges, we introduce a systematic experimental framework evaluating 79 open-source deep learning models, encompassing both Convolutional Neural Networks (CNNs) and Vision Transformers, across over 2,300 controlled experiments on our newly curated Quad-State Tornado Damage (QSTD) benchmark dataset. Our findings reveal that achieving operational-grade performance hinges on a complex interaction between architecture and optimization, rather than architectural selection alone. Most strikingly, we demonstrate that optimizer choice can be more consequential than architecture: switching from Adam to SGD provided dramatic F1 gains of +25 to +38 points for Vision Transformer and Swin Transformer families, fundamentally reversing their ranking from bottom-tier to competitive with top-performing CNNs. Furthermore, a low learning rate of 1x10^(-4) proved universally critical, boosting average F1 performance by +10.2 points across all architectures. Our champion model, ConvNeXt-Base trained with these optimized settings, demonstrated strong cross-event generalization on the held-out Tuscaloosa-Moore Tornado Damage (TMTD) dataset, achieving 46.4% Macro F1 (+34.6 points over baseline) and retaining 85.5% Ordinal Top-1 Accuracy despite temporal and sensor domain shifts.
- Abstract(参考訳): 竜巻発生直後の建物被害の迅速かつ正確な評価は,救命・救助活動の調整,緊急資源配分の最適化,地域復興の促進に不可欠である。
しかし、現在の自動化手法は、トルネードによって引き起こされる破壊のユニークな視覚的複雑さに苦慮しており、主に、標準的な事前トレーニングデータセットからのドメインシフトと、実際の災害データにおける極端なクラス不均衡が原因である。
これらの課題に対処するため、我々は、新たにキュレートされたQuad-State Tornado damage (QSTD)ベンチマークデータセットで2300以上の制御された実験で、CNN(Convolutional Neural Networks)とVision Transformers(Vision Transformers)の両方を含む、79のオープンソースのディープラーニングモデルを評価する体系的な実験フレームワークを紹介した。
この結果から,アーキテクチャ選択のみではなく,アーキテクチャと最適化の複雑な相互作用に,運用レベルのパフォーマンスヒンジが依存していることが判明した。
Adam から SGD に切り替えると、Vision Transformer と Swin Transformer のファミリーでは、劇的な F1 のゲインが +25 から +38 となり、ボトム層からトップパフォーマンスの CNN との競合が根本的に逆転する。
さらに1x10^(-4)の低い学習速度は、全てのアーキテクチャで平均F1性能を+10.2ポイント向上させた。
我々のチャンピオンモデルであるConvNeXt-Baseは、これらの最適化された設定でトレーニングし、保持されたTuscaloosa-Moore Tornado障害(TMTD)データセットに対して強力なクロスイベントの一般化を示し、時間領域とセンサー領域のシフトにもかかわらず46.4%のマクロF1(+34.6ポイント)を達成し、85.5%の正規Top-1精度を維持した。
関連論文リスト
- Building Damage Detection using Satellite Images and Patch-Based Transformer Methods [0.0]
我々は、xBDデータセット上でビジョントランスフォーマー(ViT)モデルの性能を評価する。
本稿では,構造的特徴を分離し,背景雑音を最小限に抑えるパッチベースの前処理パイプラインを提案する。
そこで本研究では,災害分類のためのCNNベースラインと比較して,新しいトレーニング手法による小さなViTアーキテクチャが,競合するマクロ平均F1を実現することを示す。
論文 参考訳(メタデータ) (2026-02-08T20:45:58Z) - Structural Damage Detection Using AI Super Resolution and Visual Language Model [0.0]
本研究では,空飛ぶドローン映像,高度なAIベースビデオ超解像モデル,ビデオ再生変換器(VRT),および27億パラメータビジュアル言語モデル(VLM)であるGemma3:27bを活用する,費用対効果の高い新しいフレームワークを提案する。
この統合システムは、低解像度の災害映像を改善し、構造的損傷を特定し、建物を4つの損傷カテゴリーに分類するように設計されている。
このフレームワークは84.5%の精度を達成し、非常に正確な結果を提供する能力を示した。
論文 参考訳(メタデータ) (2025-08-23T20:12:06Z) - Dual-Path Enhancements in Event-Based Eye Tracking: Augmented Robustness and Adaptive Temporal Modeling [0.0]
イベントベースのアイトラッキングは、拡張現実と人間とコンピュータのインタラクションにとって重要な技術となっている。
既存の方法は、突然の眼球運動や環境騒音といった現実的な課題に苦しむ。
まず、時間シフト、空間的フリップ、イベント削除を組み込んだ堅牢なデータ拡張パイプラインにより、モデルのレジリエンスが向上する。
2つ目は、空間的特徴抽出のための効率的なNet-B3バックボーン、文脈時空間モデリングのための双方向GRU、線形時変状態空間モジュールを組み合わせたハイブリッドアーキテクチャであるKnightPupilを提案する。
論文 参考訳(メタデータ) (2025-04-14T07:57:22Z) - DiRecNetV2: A Transformer-Enhanced Network for Aerial Disaster Recognition [4.678150356894011]
災害評価における航空画像処理のための人工知能(AI)モデルと無人航空機の統合には、例外的な精度、計算効率、リアルタイム処理能力が必要である。
伝統的に、畳み込みニューラルネットワーク(CNN)は局所的特徴抽出の効率を示すが、大域的文脈解釈の可能性によって制限される。
視覚変換器(ViT)は、注意機構を用いることで、グローバルな文脈解釈の改善を約束するが、それでもUAVベースの災害対応アプリケーションでは未検討である。
論文 参考訳(メタデータ) (2024-10-17T15:25:13Z) - Video Prediction Transformers without Recurrence or Convolution [65.93130697098658]
我々は、Gated Transformerを完全にベースとしたフレームワークであるPredFormerを提案する。
本稿では,映像予測の文脈における3次元注意の包括的分析を行う。
精度と効率の両面で大きな改善は、PredFormerの可能性を強調している。
論文 参考訳(メタデータ) (2024-10-07T03:52:06Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Automating global landslide detection with heterogeneous ensemble
deep-learning classification [44.99833362998488]
地すべりは道路、鉄道、建物、人間の生活などのインフラを脅かす。
危険に基づく空間計画と早期警戒システムは、地すべりから社会へのリスクを減らすための費用対効果の戦略である。
近年,中~高解像度の衛星画像を入力として,深層学習モデルを陸地マッピングに適用している。
論文 参考訳(メタデータ) (2023-09-12T10:56:16Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - RobustART: Benchmarking Robustness on Architecture Design and Training
Techniques [170.3297213957074]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
アーキテクチャ設計とトレーニングのテクニックが堅牢性にどのように影響するかに関する包括的な研究はない。
本稿では,ImageNet上での包括性調査ベンチマークを提案する。
論文 参考訳(メタデータ) (2021-09-11T08:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。