論文の概要: Scrapping The Web For Early Wildfire Detection: A New Annotated Dataset of Images and Videos of Smoke Plumes In-the-wild
- arxiv url: http://arxiv.org/abs/2402.05349v2
- Date: Fri, 22 Nov 2024 16:07:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 17:07:30.676353
- Title: Scrapping The Web For Early Wildfire Detection: A New Annotated Dataset of Images and Videos of Smoke Plumes In-the-wild
- Title(参考訳): 初期のワイルドファイア検出のためにWebをスクラッピングする:スモーク・プラムの映像とビデオの注釈付きデータセット
- Authors: Mateo Lostanlen, Nicolas Isla, Jose Guillen, Felix Veith, Cristian Buc, Valentin Barriere,
- Abstract要約: PyroNear-2024は、画像とビデオの両方で構成された新しいデータセットで、煙管検出モデルのトレーニングと評価を可能にする。
textit(i) パブリックなカメラネットワークからの山火事のWebスクラップビデオ、ワイルドファイア検出のためのワイルドファイア検出用ビデオ、我々の社内のカメラネットワークからのテキスト(ii) ビデオ、そしてtextit(iii) 合成画像と実画像のごく一部から得られたデータである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Early wildfire detection is of the utmost importance to enable rapid response efforts, and thus minimize the negative impacts of wildfire spreads. To this end, we present PyroNear-2024, a new dataset composed of both images and videos, allowing for the training and evaluation of smoke plume detection models, including sequential models. The data is sourced from: \textit{(i)} web-scraped videos of wildfires from public networks of cameras for wildfire detection in-the-wild, \text{(ii)} videos from our in-house network of cameras, and \textit{(iii)} a small portion of synthetic and real images. This dataset includes around 150,000 manual annotations on 50,000 images, covering 400 wildfires, \Pyro surpasses existing datasets in size and diversity. It includes data from France, Spain, and the United States. Finally, it is composed of both images and videos, allowing for the training and evaluation of smoke plume detection models, including sequential models. We ran cross-dataset experiments using a lightweight state-of-the-art object detection model and found out the proposed dataset is particularly challenging, with F1 score of around 60%, but more stable than existing datasets. The video part of the dataset can be used to train a lightweight sequential model, improving global recall while maintaining precision. Finally, its use in concordance with other public dataset helps to reach higher results overall. We will make both our code and data available.
- Abstract(参考訳): 早期の山火事検出は、迅速な対応を可能にするために最も重要であり、その結果、山火事の拡散による負の影響を最小限に抑える。
この目的のために、PyroNear-2024を提案する。これは画像とビデオの両方からなる新しいデータセットであり、シーケンシャルモデルを含む煙管検出モデルのトレーニングと評価を可能にする。
データは次のようにソースされる。
(i) 野火検出用カメラの公開ネットワークからの山火事のウェブスクラップビデオ、 \text{
(ii) 社内のカメラネットワークのビデオ、および \textit{
(iii) 合成画像と実画像のごく一部。
このデータセットには5万のイメージに対する15万のマニュアルアノテーションが含まれており、400の山火事をカバーしている。
フランス、スペイン、アメリカ合衆国からのデータを含む。
最後に、画像とビデオの両方で構成されており、シーケンシャルモデルを含む煙管検出モデルのトレーニングと評価を可能にする。
我々は、軽量な最先端オブジェクト検出モデルを使用して、クロスデータセット実験を実施し、提案されたデータセットが特に困難であることに気付き、F1スコアは約60%だが、既存のデータセットよりも安定していることがわかった。
データセットのビデオ部分は、軽量なシーケンシャルモデルのトレーニングに使用することができ、精度を維持しながらグローバルリコールを改善することができる。
最後に、他の公開データセットと一致して使用することは、全体的な結果を高めるのに役立ちます。
コードとデータの両方を利用可能にします。
関連論文リスト
- Real-Time Wildfire Localization on the NASA Autonomous Modular Sensor using Deep Learning [4.4145031895964415]
我々は、NASAautonomous Modular Sensor (AMS) から人間による注釈付きデータセットを導入する。
我々のデータセットは、赤外(IR)、短波赤外(SWIR)、熱を含む12の異なるチャンネルのスペクトルデータを合成する。
本研究では, 深層学習モデルを用いて, 火災周囲決定の人為的集中プロセスを自動化する実験を行った。
論文 参考訳(メタデータ) (2026-01-20T20:56:34Z) - Detection Fire in Camera RGB-NIR [0.0]
本報告では,追加のNIRデータセット,2段階検出モデル,Patched-YOLOについて述べる。
人工照明による偽陽性を低減しつつ夜間火災検知精度を向上させるため, YOLOv11とEfficientNetV2-B0を組み合わせた2段階パイプラインを提案する。
最後に,RGB画像,特に小・遠距離物体の火災検出を改善するために,Patched-YOLOを導入する。
論文 参考訳(メタデータ) (2025-12-29T16:48:24Z) - Exploring State-of-the-art models for Early Detection of Forest Fires [0.8127745323109788]
本稿では,森林火災の早期同定のための視覚解析によるデータセットを提案する。
このデータセットをRed Dead Redemption 2などのゲームシミュレータを用いて合成した。
提案したデータセットにおける画像分類と局所化手法を比較した。
論文 参考訳(メタデータ) (2025-11-25T09:13:07Z) - Wildfire Detection Using Vision Transformer with the Wildfire Dataset [0.6229567287607896]
2023年の山火事で全国で130人が死亡し、1990年以来の高水準となった。
ViT(Vision Transformers)のようなディープラーニングモデルは、複雑な画像データを高精度に処理することで早期検出を強化することができる。
しかし、山火事検出は高品質でリアルタイムなデータの提供を含む課題に直面している。
論文 参考訳(メタデータ) (2025-05-23T02:08:28Z) - BVI-RLV: A Fully Registered Dataset and Benchmarks for Low-Light Video Enhancement [56.97766265018334]
本稿では,2つの異なる低照度条件下での様々な動きシナリオを持つ40のシーンからなる低照度映像データセットを提案する。
我々は、プログラム可能なモータードリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供し、異なる光レベルにわたるピクセルワイドフレームアライメントのための画像ベースアプローチによりそれを洗練する。
実験の結果,Low-light Video enhancement (LLVE) における完全登録ビデオペアの重要性が示された。
論文 参考訳(メタデータ) (2024-07-03T22:41:49Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale SAR Object Detection [79.23689506129733]
我々は,大規模SARオブジェクト検出のための新しいベンチマークデータセットとオープンソース手法を構築した。
私たちのデータセットであるSARDet-100Kは、10の既存のSAR検出データセットの厳格な調査、収集、標準化の結果です。
私たちの知る限りでは、SARDet-100KはCOCOレベルの大規模マルチクラスSARオブジェクト検出データセットとしては初めてのものです。
論文 参考訳(メタデータ) (2024-03-11T09:20:40Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - Obscured Wildfire Flame Detection By Temporal Analysis of Smoke Patterns
Captured by Unmanned Aerial Systems [0.799536002595393]
本研究は,RGBカメラのみを搭載したドローンを用いて,隠された山火事をリアルタイムに検出する課題について論じる。
本稿では,ビデオシーケンス中の煙のパターンの時間的解析に基づくセマンティックセグメンテーションを用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-30T19:45:43Z) - Wildfire Detection Via Transfer Learning: A Survey [2.766371147936368]
本稿では,山頂や森林見張り塔に設置した通常の視界カメラを用いて,山火事の検知に使用されるさまざまなニューラルネットワークモデルについて検討する。
ニューラルネットワークモデルはImageNet-1Kで事前トレーニングされ、カスタムの山火事データセットで微調整される。
論文 参考訳(メタデータ) (2023-06-21T13:57:04Z) - AutoShot: A Short Video Dataset and State-of-the-Art Shot Boundary
Detection [70.99025467739715]
我々はSHOTという新しい公開ショートビデオsHot bOundary deTectionデータセットをリリースする。
SHOTは、853の完全なショートビデオと11,606のショットアノテーションで構成され、2,716の高品質なショット境界アノテーションが200のテストビデオに含まれている。
提案手法はAutoShotと呼ばれ,従来の最先端手法よりもF1スコアが高い。
論文 参考訳(メタデータ) (2023-04-12T19:01:21Z) - RTMV: A Ray-Traced Multi-View Synthetic Dataset for Novel View Synthesis [104.53930611219654]
約2000の複雑なシーンからレンダリングされた300k画像からなる,新しいビュー合成のための大規模合成データセットを提案する。
データセットは、新しいビュー合成のための既存の合成データセットよりも桁違いに大きい。
高品質な3Dメッシュの4つのソースを使用して、私たちのデータセットのシーンは、カメラビュー、照明、形状、材料、テクスチャの難しいバリエーションを示します。
論文 参考訳(メタデータ) (2022-05-14T13:15:32Z) - FIgLib & SmokeyNet: Dataset and Deep Learning Model for Real-Time
Wildland Fire Smoke Detection [0.0]
Fire Ignition Library (FIgLib) は、25,000点近い山火事の煙画像のデータセットである。
SmokeyNetは、リアルタイムの山火事煙検知にカメラ画像からの時間情報を利用する、新しいディープラーニングアーキテクチャである。
FIgLibデータセットでトレーニングすると、SmokeyNetは同等のベースラインを上回り、人間のパフォーマンスに匹敵する。
論文 参考訳(メタデータ) (2021-12-16T03:49:58Z) - Next Day Wildfire Spread: A Machine Learning Data Set to Predict
Wildfire Spreading from Remote-Sensing Data [5.814925201882753]
Next Day Wildfire Spread」は、アメリカ全土で10年近くにわたってリモートセンシングされたデータを収集した、歴史的な山火事の収集データである。
我々は、このデータの空間情報を利用して、山火事の拡散を予測する畳み込みオートエンコーダを実装した。
このデータセットは、リモートセンシングデータに基づく1日のリードタイムに基づく山火事伝播モデル開発のためのベンチマークとして使用することができる。
論文 参考訳(メタデータ) (2021-12-04T23:28:44Z) - Pixel Difference Networks for Efficient Edge Detection [71.03915957914532]
本稿では,Pixel Difference Network (PiDiNet) という軽量かつ効率的なエッジ検出アーキテクチャを提案する。
BSDS500、NYUD、Multicueのデータセットに関する大規模な実験が、その効果を示すために提供されている。
0.1M未満のパラメータを持つPiDiNetのより高速なバージョンは、200FPSのアーティファクトで同等のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2021-08-16T10:42:59Z) - DeepDarts: Modeling Keypoints as Objects for Automatic Scorekeeping in
Darts using a Single Camera [75.34178733070547]
既存のマルチカメラソリューションは、スチールチップダーツの自動スコア管理に非常に高価であり、ほとんどのプレイヤーにはアクセスできない。
キーポイント検出に対する新しいアプローチを提案し,任意のカメラアングルから撮影した単一の画像からダートスコアを予測する。
我々は、このアイデアにまつわる深い畳み込みニューラルネットワークを開発し、ダート位置とダートボードの校正点を予測する。
論文 参考訳(メタデータ) (2021-05-20T16:25:57Z) - Fast and Accurate Camera Scene Detection on Smartphones [51.424407411660376]
本稿では,11K以上の手動クロール画像を含むカメラシーン検出データセット(CamSDD)を提案する。
本研究では,このデータセット上で上位3の99.5%の精度を示す,効率的かつNPU対応のCNNモデルを提案する。
論文 参考訳(メタデータ) (2021-05-17T14:06:21Z) - Few-Shot Video Object Detection [70.43402912344327]
本稿では,Few-Shot Video Object Detection (FSVOD) を紹介する。
fsvod-500は500のクラスからなり、各カテゴリーにクラスバランスのビデオがある。
私達のTPNおよびTMN+は共同およびエンドツーエンドの訓練されます。
論文 参考訳(メタデータ) (2021-04-30T07:38:04Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Active Fire Detection in Landsat-8 Imagery: a Large-Scale Dataset and a
Deep-Learning Study [1.3764085113103217]
本稿では,深層学習技術を用いた火災検知のための大規模データセットについて紹介する。
本稿では,様々な畳み込みニューラルネットワークアーキテクチャを用いて手作りアルゴリズムを近似する方法について検討する。
提案されたデータセット、ソースコード、トレーニングされたモデルはGithubで入手できる。
論文 参考訳(メタデータ) (2021-01-09T19:05:03Z) - TJU-DHD: A Diverse High-Resolution Dataset for Object Detection [48.94731638729273]
大規模でリッチな多様性と高解像度のデータセットは、よりよいオブジェクト検出方法を開発する上で重要な役割を果たす。
私たちは多種多様な高解像度データセット(TJU-DHD)を構築します。
データセットには115,354枚の高解像度画像と709,330個のラベル付きオブジェクトが含まれており、スケールと外観に大きな違いがある。
論文 参考訳(メタデータ) (2020-11-18T09:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。