論文の概要: Serial-parallel Multi-Scale Feature Fusion for Anatomy-Oriented Hand
Joint Detection
- arxiv url: http://arxiv.org/abs/2102.09757v1
- Date: Fri, 19 Feb 2021 06:12:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-22 13:28:12.873193
- Title: Serial-parallel Multi-Scale Feature Fusion for Anatomy-Oriented Hand
Joint Detection
- Title(参考訳): 解剖指向手関節検出のためのシリアルパラレルマルチスケール特徴融合
- Authors: Bin Li, Hong Fu, Ruimin Li and Wendi Wang
- Abstract要約: 本稿では,シリアル並列マルチスケール機能融合を用いた手関節検出のための2段階ネットワークを提案する。
5つの手関節データセットの実験結果から,提案したネットワークは最先端の手法をオーバーパフォーマンスすることが示された。
- 参考スコア(独自算出の注目度): 4.831444213548841
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate hand joints detection from images is a fundamental topic which is
essential for many applications in computer vision and human computer
interaction. This paper presents a two stage network for hand joints detection
from single unmarked image by using serial-parallel multi-scale feature fusion.
In stage I, the hand regions are located by a pre-trained network, and the
features of each detected hand region are extracted by a shallow spatial hand
features representation module. The extracted hand features are then fed into
stage II, which consists of serially connected feature extraction modules with
similar structures, called "multi-scale feature fusion" (MSFF). A MSFF contains
parallel multi-scale feature extraction branches, which generate initial hand
joint heatmaps. The initial heatmaps are then mutually reinforced by the
anatomic relationship between hand joints. The experimental results on five
hand joints datasets show that the proposed network overperforms the
state-of-the-art methods.
- Abstract(参考訳): 画像からの正確な手関節の検出は、コンピュータビジョンと人間のコンピュータの相互作用の多くのアプリケーションに不可欠な基本的なトピックです。
本稿では,シリアル並列マルチスケール機能融合を用いた手関節検出のための2段階ネットワークを提案する。
ステージiでは、予め訓練されたネットワークにより手領域が位置決めされ、検出された各手領域の特徴を浅い空間手の特徴表現モジュールにより抽出する。
抽出された手の特徴は、同様の構造を持つ連続接続された特徴抽出モジュール「マルチスケール特徴融合」(MSFF)からなるステージIIに供給されます。
msffは並列マルチスケール特徴抽出枝を含み、初期ハンドジョイントヒートマップを生成する。
初期熱マップは、手関節間の解剖学的関係によって相互に強化される。
5つの手関節データセットの実験結果から,提案したネットワークは最先端の手法をオーバーパフォーマンスすることが示された。
関連論文リスト
- A Semantic-Aware and Multi-Guided Network for Infrared-Visible Image Fusion [41.34335755315773]
マルチモダリティ画像融合は、2つのソース画像から特定のモダリティ情報と共有モダリティ情報を融合することを目的としている。
本稿では,3分岐エンコーダデコーダアーキテクチャと,それに対応する融合層を融合戦略として提案する。
可視・近赤外画像融合および医用画像融合タスクにおける最先端手法と比較して,本手法は競争力のある結果を得た。
論文 参考訳(メタデータ) (2024-06-11T09:32:40Z) - Fusion-Mamba for Cross-modality Object Detection [63.56296480951342]
異なるモダリティから情報を融合するクロスモダリティは、オブジェクト検出性能を効果的に向上させる。
We design a Fusion-Mamba block (FMB) to map cross-modal features into a hidden state space for interaction。
提案手法は,m3FD$が5.9%,FLIRデータセットが4.9%,m3FD$が5.9%である。
論文 参考訳(メタデータ) (2024-04-14T05:28:46Z) - Hybridnet for depth estimation and semantic segmentation [2.781817315328713]
深度推定とセマンティックセグメンテーションは、ハイブリッド畳み込みネットワークを介して単一の入力画像から処理される。
提案されたHybridNetは、ひとつのタスクに関連する機能と、両方に関連する機能とを分離することで、機能抽出を改善している。
論文 参考訳(メタデータ) (2024-02-09T16:52:45Z) - Learning a Graph Neural Network with Cross Modality Interaction for
Image Fusion [23.296468921842948]
近赤外・可視画像融合は、多モードイメージング技術の分野において、徐々に重要なフォークであることが証明されている。
本稿では,IGNetと呼ばれる,核融合のためのクロスモーダル間の対話型グラフニューラルネットワーク(GNN)アーキテクチャを提案する。
我々のIGNetは、平均2.59%のmAP@.5と7.77%のmIoUを検出およびセグメンテーションで、視覚的に魅力的な融合画像を生成することができる。
論文 参考訳(メタデータ) (2023-08-07T02:25:06Z) - Multi-interactive Feature Learning and a Full-time Multi-modality
Benchmark for Image Fusion and Segmentation [66.15246197473897]
多モード画像融合とセグメンテーションは、自律走行とロボット操作において重要な役割を果たす。
画像融合とtextbfSegmentation のための textbfMulti-textbfinteractive textbfFeature Learning アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:03:58Z) - An Interactively Reinforced Paradigm for Joint Infrared-Visible Image
Fusion and Saliency Object Detection [59.02821429555375]
この研究は、野生の隠れた物体の発見と位置決めに焦点をあて、無人のシステムに役立てる。
経験的分析により、赤外線と可視画像融合(IVIF)は、難しい物体の発見を可能にする。
マルチモーダル・サリエント・オブジェクト検出(SOD)は、画像内の物体の正確な空間的位置を正確に記述する。
論文 参考訳(メタデータ) (2023-05-17T06:48:35Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - PSNet: Parallel Symmetric Network for Video Salient Object Detection [85.94443548452729]
我々は,PSNet という名前のアップ・ダウン・パラレル対称性を持つ VSOD ネットワークを提案する。
2つの並列ブランチが、ビデオの完全サリエンシ復号化を実現するために設定されている。
論文 参考訳(メタデータ) (2022-10-12T04:11:48Z) - Multi-Scale Feature Fusion: Learning Better Semantic Segmentation for
Road Pothole Detection [9.356003255288417]
本稿では,単一モーダルなセマンティックセグメンテーションに基づく新しいポットホール検出手法を提案する。
まず、畳み込みニューラルネットワークを用いて入力画像から視覚的特徴を抽出する。
チャネルアテンションモジュールは、異なるフィーチャーマップの一貫性を高めるために、チャネル機能を再考する。
論文 参考訳(メタデータ) (2021-12-24T15:07:47Z) - Transformer-based Network for RGB-D Saliency Detection [82.6665619584628]
RGB-Dサリエンシ検出の鍵は、2つのモードにわたる複数のスケールで情報を完全なマイニングとヒューズすることである。
コンバータは機能融合と機能拡張の両面において高い有効性を示す一様操作であることを示す。
提案するネットワークは,最先端のRGB-D値検出手法に対して良好に動作する。
論文 参考訳(メタデータ) (2021-12-01T15:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。