論文の概要: Local Background Estimation for Improved Gas Plume Identification in
Hyperspectral Images
- arxiv url: http://arxiv.org/abs/2401.13068v1
- Date: Tue, 23 Jan 2024 19:48:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 16:18:10.995601
- Title: Local Background Estimation for Improved Gas Plume Identification in
Hyperspectral Images
- Title(参考訳): ハイパースペクトル画像におけるガスプルーム同定の局所的背景推定
- Authors: Scout Jarman, Zigfried Hampel-Arias, Adra Carr, Kevin R. Moon
- Abstract要約: 深層学習モデルは、Longwave IRハイパースペクトル画像においてガスプラムを特定することを約束している。
多くの気体は同様のスペクトルシグネチャを持つため、検出されたプルームからの信号を適切に推定することが重要である。
画像分割と反復的背景推定アルゴリズムを用いて,様々な背景資料の局所的推定を行う。
- 参考スコア(独自算出の注目度): 2.5534562660221254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning identification models have shown promise for identifying gas
plumes in Longwave IR hyperspectral images of urban scenes, particularly when a
large library of gases are being considered. Because many gases have similar
spectral signatures, it is important to properly estimate the signal from a
detected plume. Typically, a scene's global mean spectrum and covariance matrix
are estimated to whiten the plume's signal, which removes the background's
signature from the gas signature. However, urban scenes can have many different
background materials that are spatially and spectrally heterogeneous. This can
lead to poor identification performance when the global background estimate is
not representative of a given local background material. We use image
segmentation, along with an iterative background estimation algorithm, to
create local estimates for the various background materials that reside
underneath a gas plume. Our method outperforms global background estimation on
a set of simulated and real gas plumes. This method shows promise in increasing
deep learning identification confidence, while being simple and easy to tune
when considering diverse plumes.
- Abstract(参考訳): 深層学習識別モデルは、特に大規模なガスライブラリーが検討されている都市景観のLongwave IRハイパースペクトル画像において、ガスプラムを特定することを約束している。
多くの気体は同様のスペクトルシグネチャを持つため、検出されたプルームからの信号を適切に推定することが重要である。
通常、シーンのグローバル平均スペクトルと共分散行列は、背景のサインをガスシグネチャから除去するプルームの信号を白くするために推定される。
しかし、都市の風景は、空間的にもスペクトル的にも多様である多くの異なる背景材料を持つことができる。
これにより、グローバル背景推定が所定のローカル背景資料を代表しない場合、識別性能が低下する可能性がある。
画像分割と反復的背景推定アルゴリズムを用いて,ガスプルーム下に存在する各種背景材料の局所的な推定を行う。
本手法は,シミュレーションおよび実ガス配管の集合における世界背景推定より優れる。
本手法は,多種多様なプラムを考慮した場合,シンプルで容易にチューニングできる一方で,ディープラーニングの識別信頼度向上に有望性を示す。
関連論文リスト
- Improved Background Estimation for Gas Plume Identification in Hyperspectral Images [2.3374134413353254]
遠赤外線(LWIR)ハイパースペクトルイメージングは、リモートセンシングにおいて多くのタスクに利用できる。
気柱が検出されれば、気柱にどのガスやガスが存在するのかを正確に判断する必要がある。
識別中は、関心のガスのスペクトル特性を明らかにするために、プルームの下の背景を推定・除去する必要がある。
論文 参考訳(メタデータ) (2024-11-22T23:43:22Z) - Modeling State Shifting via Local-Global Distillation for Event-Frame Gaze Tracking [61.44701715285463]
本稿では,イベントデータとフレームデータの両方を用いた受動的視線推定の問題に取り組む。
我々は、現在の状態からいくつかの事前登録されたアンカー状態に移行する状態の定量化として、視線推定を再構成する。
大規模視線推定ネットワークを直接学習する代わりに,地域の専門家グループと学生ネットワークを連携させることにより,一般化能力の向上を図る。
論文 参考訳(メタデータ) (2024-03-31T03:30:37Z) - Unlocking the Potential: Multi-task Deep Learning for Spaceborne Quantitative Monitoring of Fugitive Methane Plumes [0.7970333810038046]
メタン濃度インバージョン(英語版)、プルームセグメンテーション(英語版)、エミッションレート推定(英語版)は、メタン排出モニタリングの3つのサブタスクである。
リモートセンシング画像からメタン排出量の定量モニタリングを行うための,新しいディープラーニングベースのフレームワークを提案する。
メタン濃度インバージョンのためのU-Netネットワーク,メタン配管セグメンテーションのためのMask R-CNNネットワーク,メタン排出率推定のためのResNet-50ネットワークを訓練する。
論文 参考訳(メタデータ) (2024-01-23T16:04:19Z) - Autonomous Detection of Methane Emissions in Multispectral Satellite
Data Using Deep Learning [73.01013149014865]
メタンは最も強力な温室効果ガスの1つである。
現在のメタン放出モニタリング技術は、近似的な放出要因や自己報告に依存している。
深層学習法は、Sentinel-2衛星マルチスペクトルデータにおけるメタン漏れの自動検出に利用することができる。
論文 参考訳(メタデータ) (2023-08-21T19:36:50Z) - A Large Scale Homography Benchmark [52.55694707744518]
1DSfMデータセットから10万枚の画像から約1000個の平面が観測された3D, Pi3Dの平面の大規模データセットを示す。
また,Pi3Dを利用した大規模ホモグラフィ推定ベンチマークであるHEBを提案する。
論文 参考訳(メタデータ) (2023-02-20T14:18:09Z) - 3DGazeNet: Generalizing Gaze Estimation with Weak-Supervision from
Synthetic Views [67.00931529296788]
本稿では,適応を伴わない新しい環境に直接適用可能な一般的な視線推定モデルを訓練することを提案する。
視覚的擬似アノテーションを用いた多彩な顔の大規模データセットを作成し、シーンの3次元形状に基づいて抽出する。
本研究では,本手法を視線一般化タスクにおいて検証し,真理データが得られない場合の最先端技術と比較して最大30%の改善を実証する。
論文 参考訳(メタデータ) (2022-12-06T14:15:17Z) - LatentGaze: Cross-Domain Gaze Estimation through Gaze-Aware Analytic
Latent Code Manipulation [0.0]
本稿では,データ駆動型手法を応用した視線認識型解析操作手法を提案する。
GANベースのエンコーダジェネレータプロセスを利用することで、入力画像がターゲット領域からソース領域イメージにシフトし、視線推定器が十分に認識できる。
論文 参考訳(メタデータ) (2022-09-21T08:05:53Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Rethinking Spatial Invariance of Convolutional Networks for Object
Counting [119.83017534355842]
局所連結ガウス核を用いて元の畳み込みフィルタを置き換え、密度写像の空間位置を推定する。
従来の研究から着想を得て,大規模なガウス畳み込みの近似を好意的に実装するために,翻訳不変性を伴う低ランク近似を提案する。
提案手法は,他の最先端手法を著しく上回り,物体の空間的位置の有望な学習を実現する。
論文 参考訳(メタデータ) (2022-06-10T17:51:25Z) - 360-Degree Gaze Estimation in the Wild Using Multiple Zoom Scales [26.36068336169795]
焦点を絞った表情から視線を推定する能力を模倣するモデルを開発した。
このモデルは、クリアアイパッチを抽出する必要がない。
モデルを拡張して、360度視線推定の課題に対処する。
論文 参考訳(メタデータ) (2020-09-15T08:45:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。