論文の概要: DooDLeNet: Double DeepLab Enhanced Feature Fusion for Thermal-color
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2204.10266v1
- Date: Thu, 21 Apr 2022 17:06:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 13:17:26.676271
- Title: DooDLeNet: Double DeepLab Enhanced Feature Fusion for Thermal-color
Semantic Segmentation
- Title(参考訳): doodlenet: 熱色セマンティクスセグメンテーションのためのdouble deeplab強化機能融合
- Authors: Oriel Frigo, Lucien Martin-Gaff\'e, Catherine Wacongne
- Abstract要約: 本研究では,DouDLeNetを提案する。DouDLeNetはDouDLeNetアーキテクチャである。
特徴融合のための2つの戦略、信頼重み付けと相関重み付けを組み合わせる。
MFデータセット上で,最先端の平均IoU値について報告する。
- 参考スコア(独自算出の注目度): 1.6758573326215689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we present a new approach for feature fusion between RGB and
LWIR Thermal images for the task of semantic segmentation for driving
perception. We propose DooDLeNet, a double DeepLab architecture with
specialized encoder-decoders for thermal and color modalities and a shared
decoder for final segmentation. We combine two strategies for feature fusion:
confidence weighting and correlation weighting. We report state-of-the-art mean
IoU results on the MF dataset.
- Abstract(参考訳): 本稿では,RGBとLWIRの熱画像の機能融合のための新しいアプローチを提案する。
本研究では,DouDLeNetを提案する。DouDLeNetは熱・色調の専用エンコーダデコーダと最終セグメンテーションのための共有デコーダを備えた2重DeepLabアーキテクチャである。
特徴融合のための2つの戦略、信頼重み付けと相関重み付けを組み合わせる。
MFデータセット上で,最先端の平均IoU値について報告する。
関連論文リスト
- SEDS: Semantically Enhanced Dual-Stream Encoder for Sign Language Retrieval [82.51117533271517]
以前はRGBビデオをエンコードするだけで高レベルのセマンティックな特徴が得られていた。
既存のRGBベースの手話検索作業は、エンドツーエンドのトレーニングに埋め込まれた濃密な視覚データによる膨大なメモリコストに悩まされる。
本稿では,Semantically Enhanced Dual-Streamという手話表現フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-23T11:31:11Z) - Optimizing rgb-d semantic segmentation through multi-modal interaction
and pooling attention [5.518612382697244]
マルチモーダルインタラクションとプールアテンションネットワーク(MIPANet)は,RGBと奥行きモダリティの相互相乗効果を利用するように設計されている。
エンコーダの様々な段階でプール注意モジュール(PAM)を導入する。
このモジュールは、ネットワークによって抽出された機能を増幅し、モジュールの出力をデコーダに統合する。
論文 参考訳(メタデータ) (2023-11-19T12:25:59Z) - Attention-based Dual Supervised Decoder for RGBD Semantic Segmentation [16.721758280029302]
RGBDセマンティックセグメンテーションのための新しいアテンションベースデュアル教師付きデコーダを提案する。
エンコーダでは、マルチレベルペア補完情報を抽出し、融合するための、シンプルで効果的な注意に基づくマルチモーダル融合モジュールを設計する。
本手法は最先端の手法に対して優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-01-05T03:12:27Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z) - Self-Supervised Representation Learning for RGB-D Salient Object
Detection [93.17479956795862]
我々は、自己教師付き表現学習を用いて、クロスモーダルオートエンコーダと深さ-輪郭推定という2つのプレテキストタスクを設計する。
我々のプレテキストタスクは、ネットワークがリッチなセマンティックコンテキストをキャプチャする事前トレーニングを実行するのに、少数のRGB-Dデータセットしか必要としない。
RGB-D SODにおけるクロスモーダル核融合の固有の問題として,マルチパス核融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-29T09:16:06Z) - Global-Local Propagation Network for RGB-D Semantic Segmentation [12.710923449138434]
この問題を解決するため,グローバルローカル伝搬ネットワーク(GLPNet)を提案する。
GLPNetは、2つの挑戦的な屋内シーンセグメンテーションデータセットで最新のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-01-26T14:26:07Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。