論文の概要: Simultaneous temperature estimation and nonuniformity correction from
multiple frames
- arxiv url: http://arxiv.org/abs/2307.12297v2
- Date: Sat, 26 Aug 2023 16:25:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 22:54:36.123178
- Title: Simultaneous temperature estimation and nonuniformity correction from
multiple frames
- Title(参考訳): 複数フレームからの同時温度推定と非均一性補正
- Authors: Navot Oz, Omri Berman, Nir Sochen, David Mendelovich, Iftach Klapp
- Abstract要約: 低コストのマイクロボロメーターベースの赤外線カメラは、空間的に不均一であり、温度測定でドリフトする傾向がある。
低コストマイクロボロメータカメラで捉えた複数フレームからの同時温度推定と非均一性補正(NUC)のための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: IR cameras are widely used for temperature measurements in various
applications, including agriculture, medicine, and security. Low-cost IR
cameras have the immense potential to replace expensive radiometric cameras in
these applications; however, low-cost microbolometer-based IR cameras are prone
to spatially variant nonuniformity and to drift in temperature measurements,
which limit their usability in practical scenarios.
To address these limitations, we propose a novel approach for simultaneous
temperature estimation and nonuniformity correction (NUC) from multiple frames
captured by low-cost microbolometer-based IR cameras. We leverage the camera's
physical image-acquisition model and incorporate it into a deep-learning
architecture termed kernel prediction network (KPN), which enables us to
combine multiple frames despite imperfect registration between them. We also
propose a novel offset block that incorporates the ambient temperature into the
model and enables us to estimate the offset of the camera, which is a key
factor in temperature estimation.
Our findings demonstrate that the number of frames has a significant impact
on the accuracy of the temperature estimation and NUC. Moreover, introduction
of the offset block results in significantly improved performance compared to
vanilla KPN. The method was tested on real data collected by a low-cost IR
camera mounted on an unmanned aerial vehicle, showing only a small average
error of $0.27-0.54^\circ C$ relative to costly scientific-grade radiometric
cameras.
Our method provides an accurate and efficient solution for simultaneous
temperature estimation and NUC, which has important implications for a wide
range of practical applications.
- Abstract(参考訳): 赤外線カメラは農業、医療、セキュリティなど様々な用途で温度測定に広く利用されている。
しかし、低コストのマイクロボロメーターベースの赤外線カメラは、空間的に異質な非均一性や温度測定のドリフトが起こりやすく、実用的なシナリオでは使用性に制限がある。
これらの制約に対処するため、低コストのマイクロボロメータベースの赤外線カメラで捉えた複数のフレームから温度推定と非均一性補正(NUC)を同時に行う新しい手法を提案する。
我々は、カメラの物理的イメージ獲得モデルを利用して、カーネル予測ネットワーク(kpn)と呼ばれるディープラーニングアーキテクチャに組み込む。
また,環境温度をモデルに組み込んだ新しいオフセットブロックを提案し,温度推定の重要な要因であるカメラのオフセットを推定する。
その結果, フレーム数が温度推定とNUCの精度に有意な影響を及ぼすことが明らかとなった。
さらに,オフセットブロックの導入により,バニラKPNに比べて性能が大幅に向上した。
この方法は、無人航空機に搭載された低コストの赤外線カメラが収集した実データに基づいてテストされ、科学的なグレードの放射計と比較すると、平均的な誤差は0.27-0.54^\circ c$であった。
本手法は, 温度推定とNUCを同時に行うための高精度かつ効率的な解法であり, 幅広い応用に重要な意味を持つ。
関連論文リスト
- Thermal Vision: Pioneering Non-Invasive Temperature Tracking in Congested Spaces [0.0]
サーマルカメラを用いた非侵襲温度推定に関する既存の研究は、主にスパース設定に焦点を当てている。
本研究では,サーマルカメラとエッジデバイスを組み合わせた非侵襲温度推定システムを提案する。
提案した顔検出モデルは, インデータセットとクロスデータセットの両方において, 84以上の印象的なmAPスコアを達成している。
論文 参考訳(メタデータ) (2024-12-01T15:52:51Z) - Rotational Odometry using Ultra Low Resolution Thermal Cameras [1.3986052523534573]
この手紙は、我々の知る限りでは、回転計測のための超低解像度熱カメラの適用性に関する最初の研究である。
RGBカメラのような他のモダリティではなく、超低解像度のサーマルカメラを使うことは、照明条件に対するロバスト性によって動機づけられる。
CNN推定精度に対するサーマルカメラ解像度と連続フレーム数の影響を判定するための実験およびアブレーション研究を行った。
論文 参考訳(メタデータ) (2024-11-02T12:15:32Z) - IRSAM: Advancing Segment Anything Model for Infrared Small Target Detection [55.554484379021524]
Infrared Small Target Detection (IRSTD) タスクは、自然画像と赤外線画像の間に顕著な領域ギャップがあるため、満足度の高い性能を達成するには不十分である。
IRSTDのためのIRSAMモデルを提案する。これはSAMのエンコーダデコーダアーキテクチャを改善し、赤外線小物体の特徴表現をより良く学習する。
論文 参考訳(メタデータ) (2024-07-10T10:17:57Z) - Pre-insertion resistors temperature prediction based on improved WOA-SVR [3.5738896126578537]
高電圧回路ブレーカ内のプレ絶縁抵抗(PIR)は、電流が流れるときにジュール熱を発生させることによって、臨界成分でありウォームアップする。
本研究は、有限要素シミュレーション手法と、改良された鯨最適化アルゴリズム(IWOA)アプローチにより最適化されたサポートベクトル回帰(SVR)を組み合わせる。
論文 参考訳(メタデータ) (2024-01-07T14:24:04Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - CamP: Camera Preconditioning for Neural Radiance Fields [56.46526219931002]
NeRFは、オブジェクトと大規模シーンの高忠実度3Dシーン再構成を得るために最適化することができる。
外部および固有のカメラパラメータは通常、NeRFの前処理ステップとしてStructure-from-Motion (SfM)法を用いて推定される。
本稿では,カメラパラメータ間の相関をなくし,その効果を正規化するホワイトニング変換を代用問題として提案する。
論文 参考訳(メタデータ) (2023-08-21T17:59:54Z) - Estimating temperatures with low-cost infrared cameras using deep neural
networks [0.0]
環境温度を考慮した非均一性シミュレータを開発した。
カメラの物理モデルと周囲カメラ温度の両方を組み込んだエンドツーエンドニューラルネットワークが導入された。
論文 参考訳(メタデータ) (2023-07-22T17:13:49Z) - Robustifying the Multi-Scale Representation of Neural Radiance Fields [86.69338893753886]
実世界の画像の両問題を克服するために,頑健なマルチスケールニューラルラジアンス場表現手法を提案する。
提案手法は,NeRFにインスパイアされたアプローチを用いて,マルチスケール画像効果とカメラ位置推定問題に対処する。
例えば、日常的に取得したマルチビュー画像からオブジェクトの正確な神経表現を行うためには、カメラの正確な位置推定が不可欠であることを示す。
論文 参考訳(メタデータ) (2022-10-09T11:46:45Z) - Meta-UDA: Unsupervised Domain Adaptive Thermal Object Detection using
Meta-Learning [64.92447072894055]
赤外線(IR)カメラは、照明条件や照明条件が悪ければ頑丈である。
既存のUDA手法を改善するためのアルゴリズムメタ学習フレームワークを提案する。
KAISTおよびDSIACデータセットのための最先端熱検出器を作成した。
論文 参考訳(メタデータ) (2021-10-07T02:28:18Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Online Photometric Calibration of Automatic Gain Thermal Infrared
Cameras [0.0]
サーマル赤外線カメラのオンラインフォトメトリック校正のためのアルゴリズムを紹介します。
提案手法は特別なドライバ/ハードウェアサポートを必要としない。
我々はこれを視覚計測とSLAMアルゴリズムの文脈で提示する。
論文 参考訳(メタデータ) (2020-12-07T17:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。