論文の概要: SpiderMesh: Spatial-aware Demand-guided Recursive Meshing for RGB-T
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2303.08692v1
- Date: Wed, 15 Mar 2023 15:24:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 13:11:28.824427
- Title: SpiderMesh: Spatial-aware Demand-guided Recursive Meshing for RGB-T
Semantic Segmentation
- Title(参考訳): SpiderMesh: RGB-Tセマンティックセグメンテーションのための空間対応需要誘導型再帰型メッシュ
- Authors: Siqi Fan, Zhe Wang, Yan Wang, Jingjing Liu
- Abstract要約: 本稿では,RGB-Tセグメンテーションのための空間対応需要誘導型再帰メッシュ(SpiderMesh)フレームワークを提案する。
SpiderMeshは、需要誘導型ターゲットマスキングアルゴリズムを通じて、光学障害のある領域におけるコンテキストセマンティクスの不十分さを補償する。
MFNetとPST900データセットの実験は、SpiderMeshが標準のRGB-Tセグメンテーションベンチマークで新しい最先端のパフォーマンスを達成することを示した。
- 参考スコア(独自算出の注目度): 15.220382126293266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For semantic segmentation in urban scene understanding, RGB cameras alone
often fail to capture a clear holistic topology, especially in challenging
lighting conditions. Thermal signal is an informative additional channel that
can bring to light the contour and fine-grained texture of blurred regions in
low-quality RGB image. Aiming at RGB-T (thermal) segmentation, existing methods
either use simple passive channel/spatial-wise fusion for cross-modal
interaction, or rely on heavy labeling of ambiguous boundaries for fine-grained
supervision. We propose a Spatial-aware Demand-guided Recursive Meshing
(SpiderMesh) framework that: 1) proactively compensates inadequate contextual
semantics in optically-impaired regions via a demand-guided target masking
algorithm; 2) refines multimodal semantic features with recursive meshing to
improve pixel-level semantic analysis performance. We further introduce an
asymmetric data augmentation technique M-CutOut, and enable semi-supervised
learning to fully utilize RGB-T labels only sparsely available in practical
use. Extensive experiments on MFNet and PST900 datasets demonstrate that
SpiderMesh achieves new state-of-the-art performance on standard RGB-T
segmentation benchmarks.
- Abstract(参考訳): 都市景観理解におけるセマンティックセグメンテーションでは、RGBカメラだけでは、特に困難な照明条件において、明確な全体的トポロジを捉えることができないことが多い。
サーマル信号は、低画質のRGB画像において、ぼやけた領域の輪郭ときめ細かなテクスチャを照らすための情報付加チャネルである。
RGB-Tセグメンテーション(熱)セグメンテーションを念頭に置いて、既存の手法では単純なパッシブチャネル/空間的な融合を相互相互作用に用いたり、曖昧な境界線を重ラベル付けしてきたりする。
空間対応需要誘導型再帰型メッシュ(SpiderMesh)フレームワークを提案する。
1) 需要誘導対象マスキングアルゴリズムにより,光学的障害領域における不適切な文脈意味を積極的に補償する。
2)マルチモーダルなセマンティクス機能を再帰的メッシュで洗練し,ピクセルレベルのセマンティクス解析性能を向上させる。
さらに,非対称データ拡張手法であるm-cutoutを導入することで,半教師付き学習でrgb-tラベルを十分に活用できる。
MFNetとPST900データセットに関する大規模な実験は、SpiderMeshが標準RGB-Tセグメンテーションベンチマークで新しい最先端のパフォーマンスを達成することを示した。
関連論文リスト
- Does Thermal Really Always Matter for RGB-T Salient Object Detection? [153.17156598262656]
本稿では,RGB-T有意物体検出(SOD)タスクを解決するために,TNetというネットワークを提案する。
本稿では,画像のグローバル照度を推定するためのグローバル照度推定モジュールを提案する。
一方, 2段階の局所化と相補化モジュールを導入し, 熱的特徴の物体位置化キューと内部整合キューをRGBモダリティに転送する。
論文 参考訳(メタデータ) (2022-10-09T13:50:12Z) - MAFNet: A Multi-Attention Fusion Network for RGB-T Crowd Counting [40.4816930622052]
マルチアテンション・フュージョン・ネットワーク(MAFNet)と呼ばれる2ストリームのRGB-T群カウントネットワークを提案する。
エンコーダ部では、マルチアテンション・フュージョン(MAF)モジュールを2つのモード固有分岐の異なるステージに埋め込み、クロスモーダル・フュージョンを行う。
2つの人気のあるデータセットに対する大規模な実験は、提案したMAFNetがRGB-Tの群衆カウントに有効であることを示している。
論文 参考訳(メタデータ) (2022-08-14T02:42:09Z) - Mirror Complementary Transformer Network for RGB-thermal Salient Object
Detection [16.64781797503128]
RGB-熱的物体検出(RGB-T SOD)は、視光対と熱赤外画像対の一般的な顕著な物体を見つけることを目的としている。
本稿では,RGB-T SODのための新しいミラー補完トランスフォーマネットワーク(MCNet)を提案する。
ベンチマークとVT723データセットの実験により、提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-07-07T20:26:09Z) - FEANet: Feature-Enhanced Attention Network for RGB-Thermal Real-time
Semantic Segmentation [19.265576529259647]
RGB-Tセマンティックセマンティックセグメンテーションタスクのための2段階機能拡張アテンションネットワーク(FEANet)を提案する。
具体的には、チャネルビューと空間ビューの両方からマルチレベル特徴を発掘・拡張するための機能拡張注意モジュール(FEAM)を導入する。
提案する FEAM モジュールに特化して,FEANet は空間情報を保存し,融合した RGB-T 画像から高分解能な特徴に注目する。
論文 参考訳(メタデータ) (2021-10-18T02:43:41Z) - TBNet:Two-Stream Boundary-aware Network for Generic Image Manipulation
Localization [49.521622399483846]
汎用画像操作のローカライゼーションのための新しいエンド・ツー・エンド2ストリーム境界対応ネットワーク(TBNet)を提案する。
提案したTBNetは、MCCとF1の両方の観点から、最先端の汎用画像操作のローカライズ手法を大幅に上回ることができる。
論文 参考訳(メタデータ) (2021-08-10T08:22:05Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - Low Light Image Enhancement via Global and Local Context Modeling [164.85287246243956]
低照度画像強調のためのコンテキスト認識ディープネットワークを導入。
まず、全空間領域上の補完的な手がかりを見つけるために空間相関をモデル化するグローバルコンテキストモジュールを特徴とする。
第二に、比較的大きな受容フィールドで局所的なコンテキストをキャプチャする密な残留ブロックを導入する。
論文 参考訳(メタデータ) (2021-01-04T09:40:54Z) - MobileSal: Extremely Efficient RGB-D Salient Object Detection [62.04876251927581]
本稿では,効率的なRGB-Dサルエント物体検出(SOD)に焦点を当てた新しいネットワーク,メソッド名を提案する。
RGB-D SODのためのモバイルネットワークの特徴表現能力を強化するために,暗黙的深度復元(IDR)手法を提案する。
IDRとCPRを組み込むことで、7つの挑戦的なRGB-D SODデータセット上のsArtメソッドに対してメソッド名が好ましい。
論文 参考訳(メタデータ) (2020-12-24T04:36:42Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。