論文の概要: Shifting Spotlight for Co-supervision: A Simple yet Efficient Single-branch Network to See Through Camouflage
- arxiv url: http://arxiv.org/abs/2404.08936v2
- Date: Sat, 28 Dec 2024 16:00:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:00:53.491847
- Title: Shifting Spotlight for Co-supervision: A Simple yet Efficient Single-branch Network to See Through Camouflage
- Title(参考訳): 共同監督のためのスポットライトのシフト:カモフラージュを通して見るためのシンプルで効率的なシングルブランチネットワーク
- Authors: Yang Hu, Jinxia Zhang, Kaihua Zhang, Yin Yuan, Jiale Huang, Zechao Zhan, Xing Wang,
- Abstract要約: Co-Supervised Spotlight Shifting Network (CS$3$Net)は、光源のシフトがカモフラージュを公開する方法にインスパイアされた、コンパクトな単一ブランチフレームワークである。
我々のスポットライトシフト戦略は、境界線をハイライトする監督信号を生成することで、マルチブランチ設計を置き換える。
- 参考スコア(独自算出の注目度): 14.498422613977363
- License:
- Abstract: Camouflaged object detection (COD) remains a challenging task in computer vision. Existing methods often resort to additional branches for edge supervision, incurring substantial computational costs. To address this, we propose the Co-Supervised Spotlight Shifting Network (CS$^3$Net), a compact single-branch framework inspired by how shifting light source exposes camouflage. Our spotlight shifting strategy replaces multi-branch designs by generating supervisory signals that highlight boundary cues. Within CS$^3$Net, a Projection Aware Attention (PAA) module is devised to strengthen feature extraction, while the Extended Neighbor Connection Decoder (ENCD) enhances final predictions. Extensive experiments on public datasets demonstrate that CS$^3$Net not only achieves superior performance, but also reduces Multiply-Accumulate operations (MACs) by 32.13% compared to state-of-the-art COD methods, striking an optimal balance between efficiency and effectiveness.
- Abstract(参考訳): カモフラーゲ型物体検出(COD)はコンピュータビジョンにおいて依然として困難な課題である。
既存の手法は、しばしばエッジの監督のための追加の分岐を頼りにしており、かなりの計算コストがかかる。
これを解決するために,光のシフトがカモフラージュを公開する方法に着想を得た,コンパクトな単一ブランチフレームワークであるCS$3$Netを提案する。
我々のスポットライトシフト戦略は、境界線をハイライトする監督信号を生成することで、マルチブランチ設計を置き換える。
CS$^3$Net内では、プロジェクション・アウェア・アテンション(PAA)モジュールが特徴抽出を強化するために考案され、ENCD(Extended Neighbor Connection Decoder)は最終的な予測を強化する。
公開データセットに関する大規模な実験により、CS$^3$Netは優れたパフォーマンスを達成するだけでなく、最先端のCOD法と比較して、乗算演算(MAC)を32.13%削減し、効率と効率の最適バランスを達成している。
関連論文リスト
- FLARES: Fast and Accurate LiDAR Multi-Range Semantic Segmentation [52.89847760590189]
3Dシーンの理解は、自動運転における重要な課題である。
近年の手法では、レンジビュー表現を利用して処理効率を向上している。
範囲ビューに基づくLiDARセマンティックセマンティックセグメンテーションのためのワークフローを再設計する。
論文 参考訳(メタデータ) (2025-02-13T12:39:26Z) - Near-Optimal Online Learning for Multi-Agent Submodular Coordination: Tight Approximation and Communication Efficiency [52.60557300927007]
離散部分モジュラー問題を連続的に最適化するために,$textbfMA-OSMA$アルゴリズムを提案する。
また、一様分布を混合することによりKLの発散を効果的に活用する、プロジェクションフリーな$textbfMA-OSEA$アルゴリズムも導入する。
我々のアルゴリズムは最先端OSGアルゴリズムによって提供される$(frac11+c)$-approximationを大幅に改善する。
論文 参考訳(メタデータ) (2025-02-07T15:57:56Z) - SwinShadow: Shifted Window for Ambiguous Adjacent Shadow Detection [90.4751446041017]
スウィンシャドウ(SwinShadow)は、隣接する影を検出するための強力なシフトウインドウ機構をフル活用したトランスフォーマーベースのアーキテクチャである。
プロセス全体は、エンコーダ、デコーダ、機能統合の3つの部分に分けられる。
SBU, UCF, ISTDの3つのシャドウ検出ベンチマークデータセットの実験により, ネットワークがバランスエラー率(BER)の点で優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-08-07T03:16:33Z) - A Point-Based Approach to Efficient LiDAR Multi-Task Perception [49.91741677556553]
PAttFormerは、ポイントクラウドにおける共同セマンティックセグメンテーションとオブジェクト検出のための効率的なマルチタスクアーキテクチャである。
他のLiDARベースのマルチタスクアーキテクチャとは異なり、提案したPAttFormerはタスク固有のポイントクラウド表現のために別の機能エンコーダを必要としない。
マルチタスク学習では,mIouでは+1.7%,mAPでは3Dオブジェクト検出では+1.7%,LiDARセマンティックセマンティックセグメンテーションは+1.7%向上した。
論文 参考訳(メタデータ) (2024-04-19T11:24:34Z) - COTR: Compact Occupancy TRansformer for Vision-based 3D Occupancy Prediction [60.87168562615171]
自動運転コミュニティは、3Dの占有率予測に大きな関心を示している。
我々は、幾何学的占有率エンコーダと意味論的グループデコーダを備えたコンパクト占有率TRansformer (COTR)を提案する。
COTRは、8%から15%の相対的な改善でベースラインを上回っている。
論文 参考訳(メタデータ) (2023-12-04T14:23:18Z) - UT-Net: Combining U-Net and Transformer for Joint Optic Disc and Cup
Segmentation and Glaucoma Detection [0.0]
緑内障は慢性の視覚疾患であり、永久的な不可逆性視覚障害を引き起こす可能性がある。
緑内障の早期発見には,カップ・ツー・ディスク比(CDR)の測定が重要な役割を担っている。
我々はUT-Netと呼ばれる新しいセグメンテーションパイプラインを提案し、U-Netとトランスフォーマーの双方の利点をエンコーディング層で利用し、次にアテンションゲートバイ線形融合方式を提案する。
論文 参考訳(メタデータ) (2023-03-08T23:21:19Z) - EPNet++: Cascade Bi-directional Fusion for Multi-Modal 3D Object
Detection [56.03081616213012]
本稿では,新しいCasscade Bi-directional Fusion(CB-Fusion)モジュールを導入することで,マルチモーダル3Dオブジェクト検出のためのEPNet++を提案する。
提案したCB-Fusionモジュールは、カスケード双方向相互作用融合方式で画像特徴と点特徴の豊富な意味情報を高める。
KITTI、JRDB、SUN-RGBDデータセットの実験結果は、最先端の手法よりもEPNet++の方が優れていることを示している。
論文 参考訳(メタデータ) (2021-12-21T10:48:34Z) - OAS-Net: Occlusion Aware Sampling Network for Accurate Optical Flow [4.42249337449125]
既存のディープネットワークは、ピラミッドの粗大なパラダイムを主に利用することで満足な結果を得た。
我々は,OAS-Netという軽量で効率的な光フローネットワークを提案し,正確な光フローを実現する。
SintelとKITTIデータセットの実験は、提案手法の有効性を実証している。
論文 参考訳(メタデータ) (2021-01-31T03:30:31Z) - Selective Convolutional Network: An Efficient Object Detector with
Ignoring Background [28.591619763438054]
Selective Convolutional Network (SCN) と呼ばれる効率的なオブジェクト検出器を導入し、意味のある情報を含む場所のみを選択的に計算する。
そこで本稿では,ネットワークの次を導くためのオーバーヘッドを無視できるような,精巧な構造を設計する。
論文 参考訳(メタデータ) (2020-02-04T10:07:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。