論文の概要: Adversarial Robustness for Deep Learning-based Wildfire Prediction Models
- arxiv url: http://arxiv.org/abs/2412.20006v2
- Date: Fri, 10 Jan 2025 01:09:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-13 15:25:17.456736
- Title: Adversarial Robustness for Deep Learning-based Wildfire Prediction Models
- Title(参考訳): 深層学習に基づく山火事予測モデルにおける逆ロバスト性
- Authors: Ryo Ide, Lei Yang,
- Abstract要約: 本稿では,山火事検出モデルの対角的堅牢性を評価するための,最初のモデルに依存しないフレームワークであるWARPを紹介する。
WARPは、大域的および局所的な敵攻撃手法を用いて、煙像の多様性の限界に対処する。
WARPの包括的な堅牢性分析は、山火事固有のデータ拡張戦略の開発に寄与した。
- 参考スコア(独自算出の注目度): 3.4528046839403905
- License:
- Abstract: Smoke detection using Deep Neural Networks (DNNs) is an effective approach for early wildfire detection. However, because smoke is temporally and spatially anomalous, there are limitations in collecting sufficient training data. This raises overfitting and bias concerns in existing DNN-based wildfire detection models. Thus, we introduce WARP (Wildfire Adversarial Robustness Procedure), the first model-agnostic framework for evaluating the adversarial robustness of DNN-based wildfire detection models. WARP addresses limitations in smoke image diversity using global and local adversarial attack methods. The global attack method uses image-contextualized Gaussian noise, while the local attack method uses patch noise injection, tailored to address critical aspects of wildfire detection. Leveraging WARP's model-agnostic capabilities, we assess the adversarial robustness of real-time Convolutional Neural Networks (CNNs) and Transformers. The analysis revealed valuable insights into the models' limitations. Specifically, the global attack method demonstrates that the Transformer model has more than 70% precision degradation than the CNN against global noise. In contrast, the local attack method shows that both models are susceptible to cloud image injections when detecting smoke-positive instances, suggesting a need for model improvements through data augmentation. WARP's comprehensive robustness analysis contributed to the development of wildfire-specific data augmentation strategies, marking a step toward practicality.
- Abstract(参考訳): Deep Neural Networks (DNN) を用いた煙検出は、早期の山火事検出に有効なアプローチである。
しかし、煙は時間的にも空間的にも異常であるため、十分なトレーニングデータを集めるには限界がある。
これにより、既存のDNNベースの山火事検出モデルにおける過度な適合とバイアスの懸念が高まる。
そこで我々は,DNNに基づく山火事検出モデルの対向ロバスト性を評価するための,最初のモデルに依存しないフレームワークであるWARP(Wildfire Adversarial Robustness procedure)を紹介した。
WARPは、大域的および局所的な敵攻撃手法を用いて、煙像の多様性の限界に対処する。
グローバルアタック法は画像コンテクスト化ガウスノイズを用い,局所アタック法はパッチノイズ注入を用いて,山火事検出の重要な側面に対処する。
WARPのモデル非依存機能を活用することで、リアルタイム畳み込みニューラルネットワーク(CNN)とトランスフォーマーの対角的堅牢性を評価する。
分析の結果、モデルの限界に対する貴重な洞察が明らかになった。
具体的には、グローバルアタック法は、トランスフォーマーモデルがCNNよりも70%以上精度が劣化していることを示す。
対照的に、ローカルアタック法では、両方のモデルがスモーク陽性のインスタンスを検出する際に、クラウドイメージインジェクションの影響を受けやすいことを示し、データ拡張によるモデル改善の必要性を示唆している。
WARPの包括的な堅牢性分析は、ワイルドファイア固有のデータ拡張戦略の開発に寄与し、実用性への一歩を踏み出した。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Addressing Vulnerabilities in AI-Image Detection: Challenges and Proposed Solutions [0.0]
本研究では,AI生成画像の検出における畳み込みニューラルネットワーク(CNN)とDenseNetアーキテクチャの有効性を評価する。
本稿では,ガウスのぼかしやテキスト変更,ローランド適応(LoRA)などの更新や修正が検出精度に与える影響を解析する。
この発見は、現在の検出方法の脆弱性を強調し、AI画像検出システムの堅牢性と信頼性を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2024-11-26T06:35:26Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Explainable Global Wildfire Prediction Models using Graph Neural
Networks [2.2389592950633705]
本稿では,グローバルな山火事予測のための革新的なグラフニューラルネットワーク(GNN)モデルを提案する。
我々のアプローチは、地球温暖化や山火事のデータをグラフ表現に変換し、ヌル海洋データロケーションのような課題に対処します。
論文 参考訳(メタデータ) (2024-02-11T10:44:41Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Recurrent Convolutional Deep Neural Networks for Modeling Time-Resolved
Wildfire Spread Behavior [0.0]
高忠実度モデルはリアルタイムの火災応答に使用するには計算コストがかかりすぎる。
低忠実度モデルは、経験的測定を統合することで、いくつかの物理的精度と一般化性を犠牲にしている。
機械学習技術は、第一原理物理学を学習することで、これらの目的を橋渡しする能力を提供する。
論文 参考訳(メタデータ) (2022-10-28T21:23:03Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。