論文の概要: VisiTherS: Visible-thermal infrared stereo disparity estimation of human
silhouette
- arxiv url: http://arxiv.org/abs/2304.11291v1
- Date: Sat, 22 Apr 2023 01:53:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 19:26:14.218814
- Title: VisiTherS: Visible-thermal infrared stereo disparity estimation of human
silhouette
- Title(参考訳): VisiTherS:人間のシルエットの可視熱赤外立体差の推定
- Authors: Noreen Anwar, Philippe Duplessis-Guindon, Guillaume-Alexandre Bilodeau
and Wassim Bouachir
- Abstract要約: 本稿では,人間のシルエットの差分を推定することに着目し,可視熱赤外立体視のための新しいアプローチを提案する。
高分解能畳み込みニューラルネットワークは、2つのスペクトル間の関係をよりよく捉えるために使用される。
公開データセットの結果は,提案手法の有効性を示す。
- 参考スコア(独自算出の注目度): 11.759564521969379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel approach for visible-thermal infrared
stereoscopy, focusing on the estimation of disparities of human silhouettes.
Visible-thermal infrared stereo poses several challenges, including occlusions
and differently textured matching regions in both spectra. Finding matches
between two spectra with varying colors, textures, and shapes adds further
complexity to the task. To address the aforementioned challenges, this paper
proposes a novel approach where a high-resolution convolutional neural network
is used to better capture relationships between the two spectra. To do so, a
modified HRNet backbone is used for feature extraction. This HRNet backbone is
capable of capturing fine details and textures as it extracts features at
multiple scales, thereby enabling the utilization of both local and global
information. For matching visible and thermal infrared regions, our method
extracts features on each patch using two modified HRNet streams. Features from
the two streams are then combined for predicting the disparities by
concatenation and correlation. Results on public datasets demonstrate the
effectiveness of the proposed approach by improving the results by
approximately 18 percentage points on the $\leq$ 1 pixel error, highlighting
its potential for improving accuracy in this task. The code of VisiTherS is
available on GitHub at the following link
https://github.com/philippeDG/VisiTherS.
- Abstract(参考訳): 本稿では,人間のシルエットの差分を推定することに着目し,可視熱赤外立体視のための新しいアプローチを提案する。
可視熱赤外線ステレオは、両スペクトルのオクルージョンと異なるテクスチャのマッチング領域を含むいくつかの課題を提起する。
色、テクスチャ、形状の異なる2つのスペクトルのマッチングを見つけることは、タスクをさらに複雑にする。
上記の課題に対処するために,高分解能畳み込みニューラルネットワークを用いて2つのスペクトル間の関係をよりよく捉える手法を提案する。
そのため、機能抽出には修正されたHRNetバックボーンが使用される。
このHRNetバックボーンは、複数のスケールで特徴を抽出するときに細部やテクスチャをキャプチャし、ローカル情報とグローバル情報の両方を活用することができる。
可視領域と熱赤外領域をマッチングするために,2つの修正HRNetストリームを用いて各パッチの特徴を抽出する。
2つのストリームの特徴は結合と相関によって差を予測するために結合される。
公開データセットの結果は、$\leq$1ピクセルの誤差で約18ポイント改善することで、提案手法の有効性を示し、このタスクにおける精度向上の可能性を強調している。
VisiTherSのコードはGitHubで、https://github.com/philippeDG/VisiTherS.comのリンクで公開されている。
関連論文リスト
- Multispectral Texture Synthesis using RGB Convolutional Neural Networks [2.3213238782019316]
最先端のRGBテクスチャ合成アルゴリズムは、深い特徴の統計によって計算されるスタイル距離に依存している。
本稿では,これらの手法をマルチスペクトルイメージングに拡張する2つの方法を提案する。
論文 参考訳(メタデータ) (2024-10-21T13:49:54Z) - Hybrid Convolutional and Attention Network for Hyperspectral Image Denoising [54.110544509099526]
ハイパースペクトル画像(HSI)は、ハイパースペクトルデータの効果的な解析と解釈に重要である。
ハイブリット・コンボリューション・アテンション・ネットワーク(HCANet)を提案する。
主流HSIデータセットに対する実験結果は,提案したHCANetの合理性と有効性を示している。
論文 参考訳(メタデータ) (2024-03-15T07:18:43Z) - Explicit Correspondence Matching for Generalizable Neural Radiance
Fields [49.49773108695526]
本稿では,新たな未知のシナリオに一般化し,2つのソースビューで新規なビュー合成を行う新しいNeRF手法を提案する。
明瞭な対応マッチングは、異なるビュー上の3Dポイントの2次元投影でサンプリングされた画像特徴間のコサイン類似度と定量化される。
実験では,実験結果から得られたコサイン特徴の類似性と体積密度との間に強い相関関係が認められた。
論文 参考訳(メタデータ) (2023-04-24T17:46:01Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z) - Multi-Scale Hourglass Hierarchical Fusion Network for Single Image
Deraining [8.964751500091005]
雨のひもはサイズ、方向および密度で頻繁に変わる深刻なぼやけおよび視覚質の低下をもたらします。
現在のCNN方式は, 降雨特性の描写や, 可視性に乏しい環境下でのイメージの復元に限られている。
本稿では,マルチスケール抽出,階層蒸留,情報集約による雨天の特徴を正確に把握するために,マルチスケールのHH2F-Netを提案する。
論文 参考訳(メタデータ) (2021-04-25T08:27:01Z) - Generalizing Face Forgery Detection with High-frequency Features [63.33397573649408]
現在のCNNベースの検出器は、メソッド固有の色テクスチャに過度に適合するため、一般化に失敗する傾向にある。
フェースフォージェリ検出に高周波雑音を用いることを提案する。
1つは、複数のスケールで高周波ノイズを抽出するマルチスケールの高周波特徴抽出モジュールである。
2つ目は、低レベルRGB特徴抽出器を導く残差誘導空間注意モジュールで、新しい視点からフォージェリートレースにもっと集中する。
論文 参考訳(メタデータ) (2021-03-23T08:19:21Z) - SFANet: A Spectrum-aware Feature Augmentation Network for
Visible-Infrared Person Re-Identification [12.566284647658053]
クロスモダリティマッチング問題に対するSFANetという新しいスペクトル認識特徴量化ネットワークを提案する。
grayscale-spectrumイメージで学習すると、モダリティの不一致を低減し、内部構造関係を検出することができる。
特徴レベルでは、特定および粉砕可能な畳み込みブロックの数のバランスをとることにより、従来の2ストリームネットワークを改善します。
論文 参考訳(メタデータ) (2021-02-24T08:57:32Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z) - Domain Siamese CNNs for Sparse Multispectral Disparity Estimation [15.065764374430783]
そこで本研究では,異なるスペクトルの画像間の不均一性を推定できる新しいCNNアーキテクチャを提案する。
LITIV 2014およびLITIV 2018データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2020-04-30T20:29:59Z) - Spectrum Translation for Cross-Spectral Ocular Matching [59.17685450892182]
バイオメトリックスでは、特に眼領域において、クロススペクトル検証が大きな問題となっている。
近赤外画像と視覚光画像のスペクトル変換におけるコンディショナル・ディバイサル・ネットワークの利用について検討した。
論文 参考訳(メタデータ) (2020-02-14T19:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。