論文の概要: Compact Twice Fusion Network for Edge Detection
- arxiv url: http://arxiv.org/abs/2307.04952v1
- Date: Tue, 11 Jul 2023 00:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 16:41:48.909210
- Title: Compact Twice Fusion Network for Edge Detection
- Title(参考訳): エッジ検出のためのコンパクト2重融合ネットワーク
- Authors: Yachuan Li, Zongmin Li, Xavier Soria P., Chaozhi Yang, Qian Xiao, Yun
Bai, Hua Li, Xiangdong Wang
- Abstract要約: マルチスケール機能の重要性は、エッジ検出コミュニティによって徐々に認識されるようになった。
マルチスケール機能を完全に統合する小型Twice Fusion Network (CTFN) を提案する。
CTFNには2つの軽量なマルチスケール機能融合モジュールが含まれている。
- 参考スコア(独自算出の注目度): 5.379716918698048
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The significance of multi-scale features has been gradually recognized by the
edge detection community. However, the fusion of multi-scale features increases
the complexity of the model, which is not friendly to practical application. In
this work, we propose a Compact Twice Fusion Network (CTFN) to fully integrate
multi-scale features while maintaining the compactness of the model. CTFN
includes two lightweight multi-scale feature fusion modules: a Semantic
Enhancement Module (SEM) that can utilize the semantic information contained in
coarse-scale features to guide the learning of fine-scale features, and a
Pseudo Pixel-level Weighting (PPW) module that aggregate the complementary
merits of multi-scale features by assigning weights to all features.
Notwithstanding all this, the interference of texture noise makes the correct
classification of some pixels still a challenge. For these hard samples, we
propose a novel loss function, coined Dynamic Focal Loss, which reshapes the
standard cross-entropy loss and dynamically adjusts the weights to correct the
distribution of hard samples. We evaluate our method on three datasets, i.e.,
BSDS500, NYUDv2, and BIPEDv2. Compared with state-of-the-art methods, CTFN
achieves competitive accuracy with less parameters and computational cost.
Apart from the backbone, CTFN requires only 0.1M additional parameters, which
reduces its computation cost to just 60% of other state-of-the-art methods. The
codes are available at https://github.com/Li-yachuan/CTFN-pytorch-master.
- Abstract(参考訳): エッジ検出コミュニティでは,マルチスケール機能の重要性が徐々に認識されている。
しかし、マルチスケールな特徴の融合はモデルの複雑さを増し、実際的な応用には適さない。
本研究では,モデルのコンパクト性を維持しつつ,マルチスケール機能を完全に統合するCTFN(Compact Twice Fusion Network)を提案する。
ctfnには2つの軽量なマルチスケール機能融合モジュールが含まれている。sem(semantic enhancement module)は、粗大機能に含まれるセマンティクス情報を活用し、細かな機能の学習を導くもので、ppw(pseudo pixel-level weighting)モジュールは、すべての機能に重みを割り当てることで、マルチスケール機能の補完的なメリットを集約する。
それにもかかわらず、テクスチャノイズの干渉は、いくつかのピクセルの正しい分類を依然として困難にしている。
これらのハードサンプルに対して, 標準的なクロスエントロピー損失を再現し, 重量を動的に調整し, ハードサンプルの分布を補正する新しい損失関数Dynamic Focal Lossを提案する。
提案手法をBSDS500,NYUDv2,BIPEDv2の3つのデータセット上で評価する。
最先端の手法と比較して、CTFNはより少ないパラメータと計算コストで競合精度を達成する。
バックボーンとは別に、CTFNは0.1Mの追加パラメータしか必要とせず、計算コストを他の最先端手法の60%に削減している。
コードはhttps://github.com/li-yachuan/ctfn-pytorch-masterで入手できる。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - FuseFormer: A Transformer for Visual and Thermal Image Fusion [3.6064695344878093]
本稿では,従来の評価指標を損失関数として用いた場合の限界を緩和する画像融合問題に対する新しい手法を提案する。
提案手法は,局所的およびグローバルなコンテキスト情報に順応的に対処するトランスフォーマーベースのマルチスケール融合戦略を統合する。
提案手法は,新たな損失関数の定義とともに,他の競合融合アルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-01T19:40:39Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - MODNet: Multi-offset Point Cloud Denoising Network Customized for
Multi-scale Patches [14.078359217301973]
マルチスケールパッチ用にカスタマイズされたMODNet(Multi-offset Denoising Network)を提案する。
マルチスケール知覚モジュールは、各スケールの特徴に対して、マルチスケールの幾何学的情報を埋め込むように設計されている。
実験により,本手法は,合成データセットと実スキャンデータセットの両方において,新しい最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-08-30T11:21:39Z) - BIMS-PU: Bi-Directional and Multi-Scale Point Cloud Upsampling [60.257912103351394]
我々はBIMS-PUと呼ばれる新しいポイント・クラウド・アップサンプリング・パイプラインを開発した。
対象のサンプリング因子を小さな因子に分解することにより,アップ/ダウンサンプリング手順をいくつかのアップ/ダウンサンプリングサブステップに分解する。
提案手法は最先端手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-25T13:13:37Z) - Coarse-to-Fine Embedded PatchMatch and Multi-Scale Dynamic Aggregation
for Reference-based Super-Resolution [48.093500219958834]
参照型スーパーリゾリューションのためのAMSA(Accelerated Multi-Scale Aggregation Network)を提案する。
提案したAMSAは,定量評価と定性評価の両面において,最先端の手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-01-12T08:40:23Z) - Learning Robust and Lightweight Model through Separable Structured
Transformations [13.208781763887947]
本稿では、畳み込みニューラルネットワークのパラメータを低減するために、完全連結層を分離可能な構造変換を提案する。
ネットワークパラメータの90%削減に成功し、ロバストな精度損失は1.5%未満である。
我々は、ImageNet、SVHN、CIFAR-100、Vision Transformerなどのデータセットに対する提案手法を評価する。
論文 参考訳(メタデータ) (2021-12-27T07:25:26Z) - EPNet++: Cascade Bi-directional Fusion for Multi-Modal 3D Object
Detection [56.03081616213012]
本稿では,新しいCasscade Bi-directional Fusion(CB-Fusion)モジュールを導入することで,マルチモーダル3Dオブジェクト検出のためのEPNet++を提案する。
提案したCB-Fusionモジュールは、カスケード双方向相互作用融合方式で画像特徴と点特徴の豊富な意味情報を高める。
KITTI、JRDB、SUN-RGBDデータセットの実験結果は、最先端の手法よりもEPNet++の方が優れていることを示している。
論文 参考訳(メタデータ) (2021-12-21T10:48:34Z) - CE-FPN: Enhancing Channel Information for Object Detection [12.954675966833372]
特徴ピラミッドネットワーク(FPN)は,オブジェクト検出におけるマルチスケール特徴の抽出に有効なフレームワークである。
3つのシンプルで効果的なモジュールを備えた新しいチャネル強化ネットワーク(CE-FPN)を提示し、これらの問題を軽減します。
実験の結果, CE-FPNはMS COCOベンチマークの最先端FPN検出器と比較して, 競争性能が向上していることがわかった。
論文 参考訳(メタデータ) (2021-03-19T05:51:53Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。