論文の概要: Infrared and visible image fusion based on Multi-State Contextual Hidden
Markov Model
- arxiv url: http://arxiv.org/abs/2201.10739v1
- Date: Wed, 26 Jan 2022 03:53:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 14:19:31.604016
- Title: Infrared and visible image fusion based on Multi-State Contextual Hidden
Markov Model
- Title(参考訳): 多状態文脈隠れマルコフモデルに基づく赤外および可視画像融合
- Authors: Xiaoqing Luo, Yuting Jiang, Anqi Wang, Zhancheng Zhang, and Xiao-Jun
Wu
- Abstract要約: 赤外線および可視光画像融合のための多状態隠れマルコフモデル(MCHMM)を提案する。
実験により, 他の融合法と比較して, 提案手法は優れた性能が得られることが示された。
- 参考スコア(独自算出の注目度): 8.882352437054736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The traditional two-state hidden Markov model divides the high frequency
coefficients only into two states (large and small states). Such scheme is
prone to produce an inaccurate statistical model for the high frequency subband
and reduces the quality of fusion result. In this paper, a fine-grained
multi-state contextual hidden Markov model (MCHMM) is proposed for infrared and
visible image fusion in the non-subsampled Shearlet domain, which takes full
consideration of the strong correlations and level of details of NSST
coefficients. To this end, an accurate soft context variable is designed
correspondingly from the perspective of context correlation. Then, the
statistical features provided by MCHMM are utilized for the fusion of high
frequency subbands. To ensure the visual quality, a fusion strategy based on
the difference in regional energy is proposed as well for lowfrequency
subbands. Experimental results demonstrate that the proposed method can achieve
a superior performance compared with other fusion methods in both subjective
and objective aspects.
- Abstract(参考訳): 伝統的な2状態隠れマルコフモデルは、高周波係数を2つの状態(大きな状態と小さな状態)に分割する。
このようなスキームは、高周波サブバンドの不正確な統計モデルを作成し、融合結果の品質を低下させる。
本稿では, NSST係数の強い相関関係と詳細度を十分に考慮した, サブサンプルでないシャーレット領域における赤外線および可視画像融合のための多状態隠れマルコフモデル(MCHMM)を提案する。
この目的のために、正確なソフトコンテキスト変数を、コンテキスト相関の観点から対応するように設計する。
そして、MCHMMによって提供される統計的特徴を高周波サブバンドの融合に利用する。
視覚品質を確保するため,低周波サブバンドに対して,地域エネルギーの差に基づく融合戦略を提案する。
実験の結果,本手法は主観的および客観的に,他の融合法と比較して優れた性能が得られることがわかった。
関連論文リスト
- A Sinkhorn Regularized Adversarial Network for Image Guided DEM Super-resolution using Frequency Selective Hybrid Graph Transformer [4.383449961857098]
DEM(Digital Elevation Model)は、リモートセンシング(RS)ドメインにおいて、表面標高に関する様々なアプリケーションを分析するための重要な側面である。
本稿では、HRマルチスペクトル(MX)衛星画像を用いた高分解能(HR)DEMの生成をガイドとして扱う。
本稿では,Sinkhorn 距離を古典的 GAN で最適化する手法を提案する。
論文 参考訳(メタデータ) (2024-09-21T16:59:08Z) - CoMoFusion: Fast and High-quality Fusion of Infrared and Visible Image with Consistency Model [20.02742423120295]
現在の生成モデルに基づく融合法は、しばしば不安定なトレーニングと遅い推論速度に悩まされる。
CoMoFusionは高品質な画像を生成し、高速な画像推論速度を実現する。
また、融合した画像のテクスチャや鮮やかな情報を高めるために、画素値選択に基づく新規な損失も設計する。
論文 参考訳(メタデータ) (2024-05-31T12:35:06Z) - Contrast-augmented Diffusion Model with Fine-grained Sequence Alignment
for Markup-to-Image Generation [15.411325887412413]
本稿では,FSA-CDM (Contrast-augmented Diffusion Model with Fine-fine Sequence Alignment) という新しいモデルを提案する。
FSA-CDMは、マークアップ・ツー・イメージ生成の性能を高めるために、対照的な正/負のサンプルを拡散モデルに導入する。
異なるドメインの4つのベンチマークデータセットで実験が行われる。
論文 参考訳(メタデータ) (2023-08-02T13:43:03Z) - Variational Probabilistic Fusion Network for RGB-T Semantic Segmentation [22.977168376864494]
RGB-Tセマンティックセグメンテーションは、照明条件の悪いハードシーンを扱うために広く採用されている。
既存の手法では、セグメンテーションのための最適な融合特徴を見つけようとするが、結果としてモダリティノイズ、クラス不均衡、モダリティバイアスに敏感になる。
本稿では, 拡散特性をランダム変数とみなす新しい変動確率核融合ネットワーク(VPFNet)を提案する。
論文 参考訳(メタデータ) (2023-07-17T14:53:09Z) - DDFM: Denoising Diffusion Model for Multi-Modality Image Fusion [144.9653045465908]
拡散確率モデル(DDPM)に基づく新しい融合アルゴリズムを提案する。
近赤外可視画像融合と医用画像融合で有望な融合が得られた。
論文 参考訳(メタデータ) (2023-03-13T04:06:42Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - High Dynamic Range Image Quality Assessment Based on Frequency Disparity [78.36555631446448]
高ダイナミックレンジ(HDR)画像に対する周波数差に基づく画像品質評価(IQA)アルゴリズムを提案する。
提案したLGFMは、最先端HDR IQA法と比較して、主観的知覚との整合性が高い。
論文 参考訳(メタデータ) (2022-09-06T08:22:13Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - MMLatch: Bottom-up Top-down Fusion for Multimodal Sentiment Analysis [84.7287684402508]
マルチモーダル融合に対する最近のディープラーニングアプローチは、ハイレベルおよびミドルレベルの潜在モダリティ表現のボトムアップ融合に依存している。
人間の知覚モデルでは、高レベルの表現が感覚入力の知覚に影響を及ぼすトップダウン融合の重要性を強調している。
本稿では,ネットワークトレーニング中のフォワードパスにおけるフィードバック機構を用いて,トップダウンのクロスモーダルインタラクションをキャプチャするニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-24T17:48:04Z) - Learning Selective Mutual Attention and Contrast for RGB-D Saliency
Detection [145.4919781325014]
クロスモーダル情報を効果的に融合する方法は、RGB-Dの有能な物体検出の鍵となる問題である。
多くのモデルは特徴融合戦略を用いるが、低次点対点融合法によって制限されている。
本研究では,異なるモダリティから注目とコンテキストを融合させることにより,新たな相互注意モデルを提案する。
論文 参考訳(メタデータ) (2020-10-12T08:50:10Z) - Bayesian Fusion for Infrared and Visible Images [26.64101343489016]
本稿では,赤外・可視画像のための新しいベイズ融合モデルを構築した。
我々は、融合画像が人間の視覚系を満たすようにすることを目指している。
従来の手法と比較して、新しいモデルは、高照度なターゲットとリッチテクスチャの詳細を持つより良い融合画像を生成することができる。
論文 参考訳(メタデータ) (2020-05-12T14:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。