論文の概要: Enhancing the quality of gauge images captured in smoke and haze scenes through deep learning
- arxiv url: http://arxiv.org/abs/2601.10537v1
- Date: Thu, 15 Jan 2026 15:59:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.209913
- Title: Enhancing the quality of gauge images captured in smoke and haze scenes through deep learning
- Title(参考訳): 深層学習による煙とヘイズシーンで捉えたゲージ画像の品質向上
- Authors: Oscar H. Ramírez-Agudelo, Akshay N. Shewatkar, Edoardo Milana, Roland C. Aydin, Kai Franke,
- Abstract要約: かすかでスモーキーな環境で撮影された画像は視界の低下に悩まされ、インフラの監視や危機的状況下での緊急サービス妨害に苦慮する。
本研究は,スモーキー環境におけるゲージの自動可読性向上のためのディープラーニングモデルについて検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Images captured in hazy and smoky environments suffer from reduced visibility, posing a challenge when monitoring infrastructures and hindering emergency services during critical situations. The proposed work investigates the use of the deep learning models to enhance the automatic, machine-based readability of gauge in smoky environments, with accurate gauge data interpretation serving as a valuable tool for first responders. The study utilizes two deep learning architectures, FFA-Net and AECR-Net, to improve the visibility of gauge images, corrupted with light up to dense haze and smoke. Since benchmark datasets of analog gauge images are unavailable, a new synthetic dataset, containing over 14,000 images, was generated using the Unreal Engine. The models were trained with an 80\% train, 10\% validation, and 10\% test split for the haze and smoke dataset, respectively. For the synthetic haze dataset, the SSIM and PSNR metrics are about 0.98 and 43\,dB, respectively, comparing well to state-of-the art results. Additionally, more robust results are retrieved from the AECR-Net, when compared to the FFA-Net. Although the results from the synthetic smoke dataset are poorer, the trained models achieve interesting results. In general, imaging in the presence of smoke are more difficult to enhance given the inhomogeneity and high density. Secondly, FFA-Net and AECR-Net are implemented to dehaze and not to desmoke images. This work shows that use of deep learning architectures can improve the quality of analog gauge images captured in smoke and haze scenes immensely. Finally, the enhanced output images can be successfully post-processed for automatic autonomous reading of gauges
- Abstract(参考訳): かすかでスモーキーな環境で撮影された画像は視界の低下に悩まされ、インフラの監視や危機的状況下での緊急サービス妨害に苦慮する。
本研究は,スモーキー環境におけるゲージの自動可読性向上のためのディープラーニングモデルの利用について検討した。
この研究は、FFA-NetとAECR-Netという2つのディープラーニングアーキテクチャを用いて、ゲージ画像の視認性を向上させる。
アナログゲージ画像のベンチマークデータセットは利用できないため、Unreal Engineを使用して、14,000以上の画像を含む新しい合成データセットが生成された。
実験では,80 %の列車,10 %の検証,および10 %の試験分割を行った。
合成ヘイズデータセットでは、SSIMとPSNRのメトリクスは、それぞれ約0.98と43\,dBであり、最先端のアート結果とよく比較されている。
さらに、FFA-Netと比較して、より堅牢な結果がAECR-Netから取得される。
合成スモークデータセットの結果はより貧弱であるが、訓練されたモデルは興味深い結果を得る。
一般に、煙の存在下でのイメージングは、不均一性や密度が高いことから、強化することがより困難である。
第2に、FFA-NetとAECR-Netは、画像をデモークしないように実装されている。
この研究は、深層学習アーキテクチャを用いることで、煙やヘイズシーンで捉えたアナログゲージ画像の品質を大幅に向上できることを示している。
最後に、拡張出力画像は、ゲージの自動自動読取のために、後処理を成功させることができる。
関連論文リスト
- Image Quality Enhancement and Detection of Small and Dense Objects in Industrial Recycling Processes [0.11726720776908518]
本稿では,小型で高密度で重なり合う物体の検出と,ノイズの多い画像の品質向上という2つの課題に取り組む。
教師付きディープラーニングに基づく手法を評価する。
また,ノイズの多い産業環境における画像品質向上のためのディープラーニングモデルについても検討した。
論文 参考訳(メタデータ) (2025-09-01T10:14:13Z) - Learning Hazing to Dehazing: Towards Realistic Haze Generation for Real-World Image Dehazing [59.43187521828543]
本稿では,現実的なヘイズ画像生成フレームワーク(HazeGen)と拡散に基づくデハズ・フレームワーク(DiffDehaze)からなる,新しいヘイズ・デハズ・パイプラインを紹介する。
HazeGenは、事前訓練されたテキスト-画像拡散モデルに埋め込まれた実世界のハジー画像の堅牢な生成拡散先を利用する。
HazeGenは、特殊なハイブリッドトレーニングと混合サンプリング戦略を採用することで、DiffDehazeの高品質なトレーニングデータとして、現実的で多様なハジーイメージを生成する。
論文 参考訳(メタデータ) (2025-03-25T01:55:39Z) - LMHaze: Intensity-aware Image Dehazing with a Large-scale Multi-intensity Real Haze Dataset [14.141433473509826]
本稿では,大規模で高品質な実世界のデータセットLMHazeを紹介する。
LMHazeは、屋内および屋外の多様な環境で撮影された、ヘイズフリーとヘイズフリーの2つの画像で構成されている。
そこで本研究では,Mambaをベースとした混合実験モデルを提案する。
論文 参考訳(メタデータ) (2024-10-21T15:20:02Z) - Synthetic imagery for fuzzy object detection: A comparative study [3.652647451754697]
ファジィ物体検出はコンピュータビジョン(CV)研究の難しい分野である
火、煙、霧、蒸気のようなファジィな物体は、視覚的特徴の点で非常に複雑である。
完全合成火災画像の生成と自動アノテートのための代替手法を提案し,活用する。
論文 参考訳(メタデータ) (2024-10-01T23:22:54Z) - HazeSpace2M: A Dataset for Haze Aware Single Image Dehazing [26.97153700921866]
本研究では HazeSpace2M データセットを紹介した。これは Haze 型分類によるデハージングを強化するために設計された 200 万以上の画像の集合である。
このデータセットを用いて, ヘイズ型分類手法を導入し, 特殊デハザーを用いてヘイズ画像の鮮明化を行う。
本手法は, 実生活におけるヘイズ画像の鮮明さを向上させるために, 型別脱ヘイズを適用する前に, ヘイズタイプを分類する。
論文 参考訳(メタデータ) (2024-09-25T23:47:25Z) - Rethinking Image Super-Resolution from Training Data Perspectives [54.28824316574355]
画像超解像(SR)におけるトレーニングデータの効果について検討する。
そこで我々は,自動画像評価パイプラインを提案する。
その結果, (i) 圧縮アーチファクトの少ないデータセット, (ii) 被写体数によって判断される画像内多様性の高いデータセット, (iii) ImageNet や PASS からの大量の画像がSR性能に肯定的な影響を与えることがわかった。
論文 参考訳(メタデータ) (2024-09-01T16:25:04Z) - ImageNet-D: Benchmarking Neural Network Robustness on Diffusion Synthetic Object [78.58860252442045]
我々は、深層モデルの堅牢性をベンチマークするハードイメージのためのデータソースとして、生成モデルを紹介した。
このベンチマークを ImageNet-D と呼ぶ以前の作業よりも、背景、テクスチャ、材料が多様化したイメージを生成することができます。
我々の研究は、拡散モデルが視覚モデルをテストするのに効果的な情報源となることを示唆している。
論文 参考訳(メタデータ) (2024-03-27T17:23:39Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - From Synthetic to Real: Image Dehazing Collaborating with Unlabeled Real
Data [58.50411487497146]
ラベルのない実データと協調する新しい画像デハージングフレームワークを提案する。
まず,特徴表現を3つの成分マップに切り離す不整合画像デハージングネットワーク(DID-Net)を開発する。
そして、無ラベルの実データと協調して単一画像のデハージングを促進するために、不整合平均教師ネットワーク(DMT-Net)を用いる。
論文 参考訳(メタデータ) (2021-08-06T04:00:28Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。