論文の概要: FoSp: Focus and Separation Network for Early Smoke Segmentation
- arxiv url: http://arxiv.org/abs/2306.04474v1
- Date: Wed, 7 Jun 2023 14:45:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 14:01:23.590138
- Title: FoSp: Focus and Separation Network for Early Smoke Segmentation
- Title(参考訳): FoSp: 初期のスモークセグメンテーションのためのフォーカスと分離ネットワーク
- Authors: Lujian Yao, Haitao Zhao, Jingchao Peng, Zhongze Wang, Kaijie Zhao
- Abstract要約: 初期の煙のセグメンテーション(ESS)は、煙源の正確な識別を可能にし、火災の迅速な消火と大規模なガス漏れの防止を可能にした。
ESSは、その小さなスケールと透明な外観のため、従来の物体や通常の煙のセグメンテーションよりも大きな課題を生んでいる。
SmokeSegと呼ばれる高品質な実世界のデータセットを導入し、既存のデータセットよりも小さく透明な煙を含んでいる。
- 参考スコア(独自算出の注目度): 0.6165605009782557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Early smoke segmentation (ESS) enables the accurate identification of smoke
sources, facilitating the prompt extinguishing of fires and preventing
large-scale gas leaks. But ESS poses greater challenges than conventional
object and regular smoke segmentation due to its small scale and transparent
appearance, which can result in high miss detection rate and low precision. To
address these issues, a Focus and Separation Network (FoSp) is proposed. We
first introduce a Focus module employing bidirectional cascade which guides
low-resolution and high-resolution features towards mid-resolution to locate
and determine the scope of smoke, reducing the miss detection rate. Next, we
propose a Separation module that separates smoke images into a pure smoke
foreground and a smoke-free background, enhancing the contrast between smoke
and background fundamentally, improving segmentation precision. Finally, a
Domain Fusion module is developed to integrate the distinctive features of the
two modules which can balance recall and precision to achieve high F_beta.
Futhermore, to promote the development of ESS, we introduce a high-quality
real-world dataset called SmokeSeg, which contains more small and transparent
smoke than the existing datasets. Experimental results show that our model
achieves the best performance on three available datasets: SYN70K (mIoU:
83.00%), SMOKE5K (F_beta: 81.6%) and SmokeSeg (F_beta: 72.05%). Especially, our
FoSp outperforms SegFormer by 7.71% (F_beta) for early smoke segmentation on
SmokeSeg.
- Abstract(参考訳): 早期スモークセグメンテーション(ess)は、煙源の正確な識別を可能にし、火災の早期消火と大規模なガス漏れの防止を容易にする。
しかし、ESSは、小型で透明な外観のため、従来の物体や通常の煙のセグメンテーションよりも大きな課題を生じ、高いミス検出率と低い精度をもたらす可能性がある。
この問題に対処するために,fosp(focus and separation network)を提案する。
まず,低分解能・高分解能の特徴を中分解能に導く双方向カスケードを用いたフォーカスモジュールを導入し,煙の範囲を同定し,ミス検出率を低減した。
次に,煙像を純粋な煙の前景と煙のない背景に分離し,煙と背景のコントラストを根本的に向上し,セグメンテーション精度を向上させる分離モジュールを提案する。
最後に、高いF_betaを達成するためにリコールと精度のバランスをとることができる2つのモジュールの特徴を統合するために、Domain Fusionモジュールが開発された。
さらに、ESSの開発を促進するために、既存のデータセットよりも小さく透明な煙を含む、SmokeSegと呼ばれる高品質な現実世界データセットを導入しました。
実験結果から,Syn70K (mIoU:83.00%),SMOKE5K (F_beta:81.6%),SmokeSeg (F_beta:72.05%) の3つのデータセットにおいて,本モデルが最高の性能を示した。
特にFoSpはSmokeSeg上での煙分画においてSegFormerを7.71%(F_beta)上回る。
関連論文リスト
- Fire and Smoke Detection with Burning Intensity Representation [14.738038604117364]
火災の破壊的可能性から, 効果的な火災・煙検知・解析システム(FSD)が重要視されている。
多くの既存のFSD法は、火災や煙の透明性を考慮せずに、直接ジェネリックオブジェクト検出技術を用いている。
この問題に対処するため,新しい火災・煙検知モデル (a-FSDM) が提案されている。
論文 参考訳(メタデータ) (2024-10-22T02:41:37Z) - High-Precision Dichotomous Image Segmentation via Probing Diffusion Capacity [69.32473738284374]
本稿では,拡散モデルにおける事前学習されたU-Netのポテンシャルを利用する拡散駆動セグメンテーションモデルDiffDISを提案する。
SDモデルに先立って、頑健な一般化機能とリッチで多目的な画像表現を活用することにより、高忠実で詳細な生成を保ちながら、推論時間を著しく短縮する。
DIS5Kデータセットの実験は、DiffDISの優位性を示し、合理化された推論プロセスを通じて最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-14T02:49:23Z) - Generative Edge Detection with Stable Diffusion [52.870631376660924]
エッジ検出は一般的に、主に識別法によって対処されるピクセルレベルの分類問題と見なされる。
本稿では、事前学習した安定拡散モデルのポテンシャルを十分に活用して、GED(Generative Edge Detector)という新しい手法を提案する。
複数のデータセットに対して広範な実験を行い、競争性能を達成する。
論文 参考訳(メタデータ) (2024-10-04T01:52:23Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Wildfire Smoke Detection with Cross Contrast Patch Embedding [5.965059322800441]
Transformerベースのディープネットワークは、CNNに対して大きな優位性を示している。
色、透明度、テクスチャといった低レベルの情報は、煙の認識にとって非常に重要である。
煙のファジィ境界はジレンマのインスタンスに対して正と負のラベルを割り当てる。
論文 参考訳(メタデータ) (2023-11-16T06:53:03Z) - FSDNet-An efficient fire detection network for complex scenarios based
on YOLOv3 and DenseNet [8.695064779659031]
本稿では,特徴抽出モジュール,火災分類モジュール,火災検出モジュールから構成されるFSDNet(Fire Smoke Detection Network)を提案する。
2つのベンチマークデータセットにおけるFSDNetの精度は、それぞれ99.82%と91.15%であり、MS-FSの平均精度は86.80%である。
論文 参考訳(メタデータ) (2023-04-15T15:46:08Z) - Transmission-Guided Bayesian Generative Model for Smoke Segmentation [29.74065829663554]
深層ニューラルネットワークは、その非厳密な形状と透明な外観のために、煙分断を過信する傾向にある。
これは、正確な煙分別のための限られた訓練データによる知識レベルの不確かさと、地味のラベル付けの難しさを表すラベル付けレベルの不確実性の両方によって引き起こされる。
本稿では,モデルパラメータの後方分布とその予測を同時に推定するベイズ生成モデルを提案する。
また,1,400個の実画像と4,000個の合成画像からなる高品質な煙分画データセットSMOKE5Kを画素単位のアノテーションで提供した。
論文 参考訳(メタデータ) (2023-03-02T01:48:05Z) - Unified smoke and fire detection in an evolutionary framework with
self-supervised progressive data augment [5.8363672020565005]
本研究では,多ラベル画像分類問題として再ラベル化するために,大規模な画像データセットを収集する。
本研究では,画像のランダムな縫合によるデータ拡張手法を提案し,サイズ,変形,位置変化,背景変化の展開を行う。
実験により, 提案手法は, 同時発煙および火災検知のためのモデルの一般化性能を効果的に向上できることを示した。
論文 参考訳(メタデータ) (2022-02-16T09:48:03Z) - Learning Selective Mutual Attention and Contrast for RGB-D Saliency
Detection [145.4919781325014]
クロスモーダル情報を効果的に融合する方法は、RGB-Dの有能な物体検出の鍵となる問題である。
多くのモデルは特徴融合戦略を用いるが、低次点対点融合法によって制限されている。
本研究では,異なるモダリティから注目とコンテキストを融合させることにより,新たな相互注意モデルを提案する。
論文 参考訳(メタデータ) (2020-10-12T08:50:10Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。