論文の概要: Deep Gradient Learning for Efficient Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2205.12853v1
- Date: Wed, 25 May 2022 15:25:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 17:49:51.863595
- Title: Deep Gradient Learning for Efficient Camouflaged Object Detection
- Title(参考訳): 効率的なカモフラージュ物体検出のための深層学習
- Authors: Ge-Peng Ji, Deng-Ping Fan, Yu-Cheng Chou, Dengxin Dai, Alexander
Liniger and Luc Van Gool
- Abstract要約: 本稿では、勾配カモフラーグ型物体検出(COD)のためのオブジェクト監視を利用する新しいディープフレームワークであるDGNetを紹介する。
シンプルだが効率的なフレームワークから恩恵を受け、DGNetは既存の最先端のCODモデルよりも大きなマージンで優れている。
また,提案したDGNetは,ポリプのセグメンテーション,欠陥検出,透過的なオブジェクトセグメンテーションタスクにおいて良好に機能することを示した。
- 参考スコア(独自算出の注目度): 152.24312279220598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces DGNet, a novel deep framework that exploits object
gradient supervision for camouflaged object detection (COD). It decouples the
task into two connected branches, i.e., a context and a texture encoder. The
essential connection is the gradient-induced transition, representing a soft
grouping between context and texture features. Benefiting from the simple but
efficient framework, DGNet outperforms existing state-of-the-art COD models by
a large margin. Notably, our efficient version, DGNet-S, runs in real-time (80
fps) and achieves comparable results to the cutting-edge model
JCSOD-CVPR$_{21}$ with only 6.82% parameters. Application results also show
that the proposed DGNet performs well in polyp segmentation, defect detection,
and transparent object segmentation tasks. Codes will be made available at
https://github.com/GewelsJI/DGNet.
- Abstract(参考訳): 本稿では,COD(camouflaged object detection)にオブジェクト勾配監視を利用する新しいディープフレームワークであるDGNetを紹介する。
タスクを2つの接続されたブランチ、すなわちコンテキストとテクスチャエンコーダに分割する。
重要な接続は勾配によって引き起こされる遷移であり、コンテキストとテクスチャの特徴の間の柔らかいグルーピングを表している。
シンプルだが効率的なフレームワークから恩恵を受け、DGNetは既存の最先端のCODモデルよりも大きなマージンで優れている。
特に、効率的なDGNet-Sはリアルタイム(80 fps)で動作し、6.82%のパラメータしか持たない最先端モデル JCSOD-CVPR$_{21} に匹敵する結果が得られる。
また,提案するdgnetは,ポリプセグメンテーション,欠陥検出,透過的オブジェクトセグメンテーションタスクにおいて良好に機能することを示す。
コードはhttps://github.com/GewelsJI/DGNetで公開される。
関連論文リスト
- Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - ELGC-Net: Efficient Local-Global Context Aggregation for Remote Sensing Change Detection [65.59969454655996]
本稿では,変化領域を正確に推定するために,リッチな文脈情報を利用する効率的な変化検出フレームワークELGC-Netを提案する。
提案するELGC-Netは、リモートセンシング変更検出ベンチマークにおいて、最先端の性能を新たに設定する。
また,ELGC-Net-LWも導入した。
論文 参考訳(メタデータ) (2024-03-26T17:46:25Z) - Camouflaged Object Detection with Feature Grafting and Distractor Aware [9.791590363932519]
そこで我々は,Camouflaged Object Detectionタスクを処理するために,FDNet(Feature Grafting and Distractor Aware Network)を提案する。
具体的には、CNNとTransformerを使ってマルチスケール画像を並列にエンコードする。
Distractor Aware Moduleは、CODタスクで考えられる2つの障害を明示的にモデル化して、粗いカモフラージュマップを洗練させるように設計されている。
論文 参考訳(メタデータ) (2023-07-08T09:37:08Z) - DPNet: Dual-Path Network for Real-time Object Detection with Lightweight
Attention [15.360769793764526]
本稿では,リアルタイム物体検出のための軽量アテンション方式を用いて,DPNetというデュアルパスネットワークを提案する。
DPNetは、検出精度と実装効率の間の最先端のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-09-28T09:11:01Z) - Boundary-Guided Camouflaged Object Detection [20.937071658007255]
カモフラージュ物体検出のための新しい境界誘導ネットワーク(BGNet)を提案する。
提案手法は,CODの表現学習をガイドするために,重要かつ余分なオブジェクト関連エッジセマンティクスを探索する。
提案手法は, 正確な境界位置同定を行うために, カモフラージュした物体の検出を促進する。
論文 参考訳(メタデータ) (2022-07-02T10:48:35Z) - Lightweight Salient Object Detection in Optical Remote Sensing Images
via Feature Correlation [93.80710126516405]
本稿では,これらの問題に対処する軽量ORSI-SODソリューションであるCorrNetを提案する。
それぞれのコンポーネントのパラメータと計算を減らし、CorrNetは4.09Mのパラメータしか持たず、21.09GのFLOPで実行している。
2つの公開データセットの実験結果から、私たちの軽量なCorrNetは、26の最先端メソッドと比較して、競争力やパフォーマンスがさらに向上することが示された。
論文 参考訳(メタデータ) (2022-01-20T08:28:01Z) - Fast Camouflaged Object Detection via Edge-based Reversible
Re-calibration Network [17.538512222905087]
本稿では,ERRNetと呼ばれるエッジベースの可逆再校正ネットワークを提案する。
Selective Edge Aggregation(SEA)とReversible Re-calibration Unit(RRU)の2つの革新的な設計が特徴である。
実験の結果,ERRNetは3つのCODデータセットと5つの医用画像セグメンテーションデータセットで既存の最先端ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-11-05T02:03:54Z) - Boundary-Aware Segmentation Network for Mobile and Web Applications [60.815545591314915]
境界認識ネットワーク(basnet)は、精度の高い画像分割のための予測再定義アーキテクチャとハイブリッド損失と統合されている。
basnetは単一のgpu上で70fps以上動作し、多くの潜在的なアプリケーションが利用できる。
BASNetをベースに、BASNetが「COPY」と「PASTING」現実世界のオブジェクトのための拡張現実であるAR COPY & PASTEと、オブジェクト背景の自動削除のためのWebベースのツールであるOBJECT CUTの2つの(近い)商用アプリケーションをさらに開発しました。
論文 参考訳(メタデータ) (2021-01-12T19:20:26Z) - Boundary-assisted Region Proposal Networks for Nucleus Segmentation [89.69059532088129]
大量の核が混在しているため、機械学習モデルはうまく機能しない。
我々は、堅牢なインスタンスレベルの核分割を実現する境界支援領域提案ネットワーク(BRP-Net)を考案する。
論文 参考訳(メタデータ) (2020-06-04T08:26:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。