論文の概要: Adversarial Robustness for Deep Learning-based Wildfire Prediction Models
- arxiv url: http://arxiv.org/abs/2412.20006v3
- Date: Mon, 07 Apr 2025 15:10:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:07:05.416594
- Title: Adversarial Robustness for Deep Learning-based Wildfire Prediction Models
- Title(参考訳): 深層学習に基づく山火事予測モデルにおける逆ロバスト性
- Authors: Ryo Ide, Lei Yang,
- Abstract要約: 本稿では,山火事検出モデルのロバスト性を評価するための最初のモデル非依存フレームワークであるWARP(Wildfire Adversarial Robustness procedure)を紹介する。
WARPは、画像グロバルと局所摂動を通じて敵対的な例を生成することによって、データ多様性の固有の制限に対処する。
WARPを使用して、リアルタイムCNNとTransformerを評価し、主要な脆弱性を明らかにしました。
- 参考スコア(独自算出の注目度): 3.4528046839403905
- License:
- Abstract: Rapidly growing wildfires have recently devastated societal assets, exposing a critical need for early warning systems to expedite relief efforts. Smoke detection using camera-based Deep Neural Networks (DNNs) offers a promising solution for wildfire prediction. However, the rarity of smoke across time and space limits training data, raising model overfitting and bias concerns. Current DNNs, primarily Convolutional Neural Networks (CNNs) and transformers, complicate robustness evaluation due to architectural differences. To address these challenges, we introduce WARP (Wildfire Adversarial Robustness Procedure), the first model-agnostic framework for evaluating wildfire detection models' adversarial robustness. WARP addresses inherent limitations in data diversity by generating adversarial examples through image-global and -local perturbations. Global and local attacks superimpose Gaussian noise and PNG patches onto image inputs, respectively; this suits both CNNs and transformers while generating realistic adversarial scenarios. Using WARP, we assessed real-time CNNs and Transformers, uncovering key vulnerabilities. At times, transformers exhibited over 70% precision degradation under global attacks, while both models generally struggled to differentiate cloud-like PNG patches from real smoke during local attacks. To enhance model robustness, we proposed four wildfire-oriented data augmentation techniques based on WARP's methodology and results, which diversify smoke image data and improve model precision and robustness. These advancements represent a substantial step toward developing a reliable early wildfire warning system, which may be our first safeguard against wildfire destruction.
- Abstract(参考訳): 急成長する山火事は近年、社会資産を荒廃させており、早期警戒システムによる救援活動の迅速化への重要な必要性が浮き彫りになっている。
カメラベースのディープニューラルネットワーク(DNN)を用いた煙検出は、山火事の予測に有望なソリューションを提供する。
しかし、時間と空間にまたがる煙の希少さはトレーニングデータを制限し、モデルの過度な適合とバイアスの懸念を提起する。
現在のDNN、主に畳み込みニューラルネットワーク(CNN)とトランスフォーマーは、アーキテクチャの違いによる堅牢性評価を複雑にしている。
これらの課題に対処するために,本研究では,山火事検出モデルの逆ロバスト性を評価するための,最初のモデルに依存しないフレームワークであるWARP(Wildfire Adversarial Robustness procedure)を紹介する。
WARPは、画像グロバルと局所摂動を通じて敵対的な例を生成することによって、データ多様性の固有の制限に対処する。
グローバルアタックとローカルアタックはガウスノイズとPNGパッチをそれぞれイメージ入力に重畳する。
WARPを使用して、リアルタイムCNNとTransformerを評価し、主要な脆弱性を明らかにしました。
時折、トランスフォーマーはグローバルアタックで70%以上の精度低下を示し、どちらのモデルもローカルアタック中に雲のようなPNGパッチを本物の煙と区別するのに苦労した。
モデルロバスト性を高めるため, WARPの方法論と結果に基づく4つの山火事指向データ拡張手法を提案し, 煙画像データを多様化し, モデル精度とロバスト性を向上させる。
これらの進歩は、信頼できる早期の山火事警報システムを開発するための重要な一歩であり、これが森林火災の破壊に対する最初の防御となるかもしれない。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Addressing Vulnerabilities in AI-Image Detection: Challenges and Proposed Solutions [0.0]
本研究では,AI生成画像の検出における畳み込みニューラルネットワーク(CNN)とDenseNetアーキテクチャの有効性を評価する。
本稿では,ガウスのぼかしやテキスト変更,ローランド適応(LoRA)などの更新や修正が検出精度に与える影響を解析する。
この発見は、現在の検出方法の脆弱性を強調し、AI画像検出システムの堅牢性と信頼性を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2024-11-26T06:35:26Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Explainable Global Wildfire Prediction Models using Graph Neural
Networks [2.2389592950633705]
本稿では,グローバルな山火事予測のための革新的なグラフニューラルネットワーク(GNN)モデルを提案する。
我々のアプローチは、地球温暖化や山火事のデータをグラフ表現に変換し、ヌル海洋データロケーションのような課題に対処します。
論文 参考訳(メタデータ) (2024-02-11T10:44:41Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Recurrent Convolutional Deep Neural Networks for Modeling Time-Resolved
Wildfire Spread Behavior [0.0]
高忠実度モデルはリアルタイムの火災応答に使用するには計算コストがかかりすぎる。
低忠実度モデルは、経験的測定を統合することで、いくつかの物理的精度と一般化性を犠牲にしている。
機械学習技術は、第一原理物理学を学習することで、これらの目的を橋渡しする能力を提供する。
論文 参考訳(メタデータ) (2022-10-28T21:23:03Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。