論文の概要: Distribution-Specific Learning for Joint Salient and Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2508.06063v1
- Date: Fri, 08 Aug 2025 06:52:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.107317
- Title: Distribution-Specific Learning for Joint Salient and Camouflaged Object Detection
- Title(参考訳): 共振器・カモフラージュ物体検出のための分布特化学習
- Authors: Chao Hao, Zitong Yu, Xin Liu, Yuhao Wang, Weicheng Xie, Jingang Shi, Huanjing Yue, Jingyu Yang,
- Abstract要約: Salient Object Detection (SOD) と camouflaged Object Detection (COD) は、密接に関連しているが異なるコンピュータビジョンタスクである。
以前の研究は、これらの2つのタスクの共同学習がネットワークを混乱させ、両方のタスクのパフォーマンスを低下させると信じていた。
SOD と COD の復号過程が分散特性が異なることを前提として,SCJoint を SOD と COD の連成学習方式として提案する。
- 参考スコア(独自算出の注目度): 36.80522951291785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Salient object detection (SOD) and camouflaged object detection (COD) are two closely related but distinct computer vision tasks. Although both are class-agnostic segmentation tasks that map from RGB space to binary space, the former aims to identify the most salient objects in the image, while the latter focuses on detecting perfectly camouflaged objects that blend into the background in the image. These two tasks exhibit strong contradictory attributes. Previous works have mostly believed that joint learning of these two tasks would confuse the network, reducing its performance on both tasks. However, here we present an opposite perspective: with the correct approach to learning, the network can simultaneously possess the capability to find both salient and camouflaged objects, allowing both tasks to benefit from joint learning. We propose SCJoint, a joint learning scheme for SOD and COD tasks, assuming that the decoding processes of SOD and COD have different distribution characteristics. The key to our method is to learn the respective means and variances of the decoding processes for both tasks by inserting a minimal amount of task-specific learnable parameters within a fully shared network structure, thereby decoupling the contradictory attributes of the two tasks at a minimal cost. Furthermore, we propose a saliency-based sampling strategy (SBSS) to sample the training set of the SOD task to balance the training set sizes of the two tasks. In addition, SBSS improves the training set quality and shortens the training time. Based on the proposed SCJoint and SBSS, we train a powerful generalist network, named JoNet, which has the ability to simultaneously capture both ``salient" and ``camouflaged". Extensive experiments demonstrate the competitive performance and effectiveness of our proposed method. The code is available at https://github.com/linuxsino/JoNet.
- Abstract(参考訳): Salient Object Detection (SOD) と camouflaged Object Detection (COD) は、密接に関連しているが異なるコンピュータビジョンタスクである。
どちらも、RGB空間からバイナリ空間にマップするクラスに依存しないセグメンテーションタスクであるが、前者は、画像内の最も有能なオブジェクトを特定することを目的としており、後者は、画像の背景に混在する完璧なカモフラージュされたオブジェクトを検出することに焦点を当てている。
これら2つのタスクは強い矛盾した特性を示す。
以前の研究は、これらの2つのタスクの共同学習がネットワークを混乱させ、両方のタスクのパフォーマンスを低下させると信じていた。
しかし、ここでは、学習に対する正しいアプローチにより、ネットワークは、正当性と偽装されたオブジェクトの両方を見つける能力を同時に持つことができ、両方のタスクが共同学習の恩恵を受けることができる。
SOD と COD の復号過程が分散特性が異なることを前提として,SOD と COD の連立学習方式である SCJoint を提案する。
提案手法の鍵となるのは,全共有ネットワーク構造内に最小限のタスク固有の学習可能なパラメータを挿入することにより,両タスクのデコードプロセスのそれぞれの手段と分散を学習することであり,それによって2つのタスクの矛盾する属性を最小のコストで分離することである。
さらに、SODタスクのトレーニングセットをサンプリングし、2つのタスクのトレーニングセットサイズのバランスをとるために、SBSS(Salliency-based sample strategy)を提案する。
さらに、SBSSはトレーニングセットの品質を改善し、トレーニング時間を短縮する。
提案されたSCJointとSBSSに基づいて、JoNetという強力なジェネラリストネットワークをトレーニングします。
大規模実験により提案手法の競争性能と有効性を示す。
コードはhttps://github.com/linuxsino/JoNet.comで入手できる。
関連論文リスト
- A Simple yet Effective Network based on Vision Transformer for
Camouflaged Object and Salient Object Detection [33.30644598646274]
視覚変換器(ViT)に基づく簡易で効果的なネットワーク(SENet)を提案する。
ローカル情報をモデル化するTransformerの機能を強化するために,ローカル情報キャプチャモジュール(licM)を提案する。
また,BCE(Binary Cross-Entropy)とIoU(Intersection over Union)に基づく動的重み付き損失(DW損失)を提案する。
論文 参考訳(メタデータ) (2024-02-29T07:29:28Z) - VSCode: General Visual Salient and Camouflaged Object Detection with 2D Prompt Learning [104.74705190239119]
4つのSODタスクと3つのCODタスクに共同で対処する新しい2Dプロンプト学習モデルであるVSCodeを紹介する。
基礎モデルとしてVSTを利用し、エンコーダ・デコーダアーキテクチャ内で2Dプロンプトを導入し、ドメインとタスク固有の知識を学習する。
VSCodeは、6つのタスクで26のデータセットで最先端のメソッドのパフォーマンスを向上する。
論文 参考訳(メタデータ) (2023-11-25T12:34:02Z) - Improving Long-tailed Object Detection with Image-Level Supervision by
Multi-Task Collaborative Learning [18.496765732728164]
マルチタスク協調方式において,画像レベルの監視を活用して検出能力を向上する新しいフレームワークCLISを提案する。
CLISは、テールカテゴリーを10.1ポイント改善した31.1のAPを達成し、新しい最先端技術を確立した。
論文 参考訳(メタデータ) (2022-10-11T16:02:14Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - TOOD: Task-aligned One-stage Object Detection [41.43371563426291]
1段階の物体検出は、オブジェクト分類と局所化の2つのサブタスクを最適化することで一般的に実装される。
本稿では,2つのタスクを学習ベースで明示的に整列するタスク整列1段階オブジェクト検出(TOOD)を提案する。
実験はMS-COCOで行われ、TOODはシングルモデル単スケールテストで51.1 APを達成した。
論文 参考訳(メタデータ) (2021-08-17T17:00:01Z) - Learning to Relate Depth and Semantics for Unsupervised Domain
Adaptation [87.1188556802942]
教師なしドメイン適応(UDA)設定において,視覚的タスク関係を符号化してモデル性能を向上させる手法を提案する。
本稿では,意味的および深さ的予測のタスク依存性を符号化する新しいクロスタスク関係層(ctrl)を提案する。
さらに、セマンティック擬似ラベルを利用してターゲットドメインを監督する反復自己学習(ISL)トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2021-05-17T13:42:09Z) - Decoupled and Memory-Reinforced Networks: Towards Effective Feature
Learning for One-Step Person Search [65.51181219410763]
歩行者検出と識別サブタスクを1つのネットワークで処理するワンステップ方式を開発しました。
現在のワンステップアプローチには2つの大きな課題があります。
本稿では,これらの問題を解決するために,分離メモリ強化ネットワーク(DMRNet)を提案する。
論文 参考訳(メタデータ) (2021-02-22T06:19:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。