論文の概要: Learning to Calibrate for Reliable Visual Fire Detection
- arxiv url: http://arxiv.org/abs/2502.09872v1
- Date: Fri, 14 Feb 2025 02:45:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:47:09.901948
- Title: Learning to Calibrate for Reliable Visual Fire Detection
- Title(参考訳): 信頼性の高い火災検知のための校正の学習
- Authors: Ziqi Zhang, Xiuzhuang Zhou, Xiangyang Gong,
- Abstract要約: 火災は突然の発火と破壊力によって特徴付けられ、早期の火災検知は人間の安全と保護の確保に不可欠である。
ディープラーニングモデルは、しばしば過剰な自信を示す傾向を示し、既存のほとんどの研究は、主に分類性能の向上に焦点を当てている。
本研究では,不確実性を測定する指標である期待誤差(ECE)を微分可能なCE損失関数に変換することを提案する。
この損失とクロスエントロピーの損失が組み合わされ、多クラス火災検知モデルの訓練プロセスが導かれる。
- 参考スコア(独自算出の注目度): 8.483524700407157
- License:
- Abstract: Fire is characterized by its sudden onset and destructive power, making early fire detection crucial for ensuring human safety and protecting property. With the advancement of deep learning, the application of computer vision in fire detection has significantly improved. However, deep learning models often exhibit a tendency toward overconfidence, and most existing works focus primarily on enhancing classification performance, with limited attention given to uncertainty modeling. To address this issue, we propose transforming the Expected Calibration Error (ECE), a metric for measuring uncertainty, into a differentiable ECE loss function. This loss is then combined with the cross-entropy loss to guide the training process of multi-class fire detection models. Additionally, to achieve a good balance between classification accuracy and reliable decision, we introduce a curriculum learning-based approach that dynamically adjusts the weight of the ECE loss during training. Extensive experiments are conducted on two widely used multi-class fire detection datasets, DFAN and EdgeFireSmoke, validating the effectiveness of our uncertainty modeling method.
- Abstract(参考訳): 火災は突然の発火と破壊力によって特徴付けられ、早期の火災検知は人間の安全と保護の確保に不可欠である。
ディープラーニングの進歩により、火災検知におけるコンピュータビジョンの適用は大幅に改善された。
しかし、ディープラーニングモデルは、しばしば過信傾向を示す傾向があり、既存のほとんどの研究は、不確実性モデリングに限定して、分類性能の向上に重点を置いている。
この問題に対処するため、不確実性を測定する指標である期待校正誤差(ECE)を、微分可能なCE損失関数に変換することを提案する。
この損失とクロスエントロピーの損失が組み合わされ、多クラス火災検知モデルの訓練プロセスが導かれる。
さらに,分類精度と信頼性判定のバランスを良好に整えるために,学習におけるCE損失の重み付けを動的に調整するカリキュラムベースのアプローチを導入する。
DFAN と EdgeFireSmoke の2種類の多層火災検知データセットに対して大規模な実験を行い,その有効性を検証した。
関連論文リスト
- Enhancing Training Data Attribution for Large Language Models with Fitting Error Consideration [74.09687562334682]
Debias and Denoise Attribution (DDA) と呼ばれる新しいトレーニングデータ属性法を導入する。
提案手法は既存のアプローチよりも優れており,平均91.64%のAUCを実現している。
DDAは、様々なソースとLLaMA2、QWEN2、Mistralのような異なるスケールのモデルに対して、強力な汎用性とスケーラビリティを示す。
論文 参考訳(メタデータ) (2024-10-02T07:14:26Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Enhancing Robustness in Incremental Learning with Adversarial Training [15.184564265850382]
本研究では,漸進学習における対人ロバスト性を扱うARCIL(Adversarially Robust Class Incremental Learning)について検討する。
まず,新たな知識の獲得と過去の知識の保持の相反を招き,既存の学習手法と漸進的な学習を統合した一連のベースラインについて検討する。
textbfFLatness-versa textbfAdversarial textbfIncremental Learning for textbfRobustness (textbfFLAIR)。
論文 参考訳(メタデータ) (2023-12-06T04:38:02Z) - OpenNet: Incremental Learning for Autonomous Driving Object Detection
with Balanced Loss [3.761247766448379]
提案手法は既存手法よりも優れた性能が得られる。
CODAデータセットを用いた実験結果から,提案手法は既存手法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-11-25T06:02:50Z) - EvCenterNet: Uncertainty Estimation for Object Detection using
Evidential Learning [26.535329379980094]
EvCenterNetは、新しい不確実性を認識した2Dオブジェクト検出フレームワークである。
分類と回帰の不確実性の両方を推定するために、顕在的学習を用いる。
我々は、KITTIデータセット上でモデルをトレーニングし、配布外のデータセットに挑戦して評価する。
論文 参考訳(メタデータ) (2023-03-06T11:07:11Z) - A New Knowledge Distillation Network for Incremental Few-Shot Surface
Defect Detection [20.712532953953808]
本稿では,DKAN(Dual Knowledge Align Network)と呼ばれる新しい知識蒸留ネットワークを提案する。
提案したDKAN法は,事前学習型ファインタニング伝達学習パラダイムを踏襲し,ファインタニングのための知識蒸留フレームワークを設計した。
Few-shot NEU-DETデータセットをインクリメンタルに実験した結果、DKANは様々なシーンで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-09-01T15:08:44Z) - Ranking-Based Physics-Informed Line Failure Detection in Power Grids [66.0797334582536]
ライン障害のリアルタイムかつ正確な検出は、極端な気象の影響を緩和し、緊急制御を活性化する最初のステップである。
電力収支方程式は、非線形性、極端な事象における発生の不確実性の増加、グリッドオブザーバビリティの欠如は、従来のデータ駆動障害検出手法の効率を損なう。
本稿では,グリッドトポロジ情報を利用した物理インフォームドライン故障検出器(FIELD)を提案する。
論文 参考訳(メタデータ) (2022-08-31T18:19:25Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - A Loss Curvature Perspective on Training Instability in Deep Learning [28.70491071044542]
学習力学における損失の曲率の影響を理解するため,多くの分類課題における損失ヘッセンの進化について検討した。
条件付けの観点から,学習率のウォームアップはバッチ正規化と同じくらいのトレーニング安定性を向上できることを示した。
論文 参考訳(メタデータ) (2021-10-08T20:25:48Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。