論文の概要: Spatial Coherence Loss: All Objects Matter in Salient and Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2402.18698v2
- Date: Tue, 16 Jul 2024 20:23:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 22:39:10.122096
- Title: Spatial Coherence Loss: All Objects Matter in Salient and Camouflaged Object Detection
- Title(参考訳): 空間コヒーレンス損失:正当性およびカモフラージュ性物体検出における全ての物体
- Authors: Ziyun Yang, Kevin Choy, Sina Farsiu,
- Abstract要約: 正確な意味分析を行うには、学習のどの段階でも現れる全てのオブジェクトレベルの予測を学習する必要がある。
本稿では,隣接画素間の相互応答を広範に使用する単一応答損失関数に組み込んだ新しい損失関数である空間コヒーレンス損失(SCLoss)を提案する。
- 参考スコア(独自算出の注目度): 3.03995893427722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generic object detection is a category-independent task that relies on accurate modeling of objectness. We show that for accurate semantic analysis, the network needs to learn all object-level predictions that appear at any stage of learning, including the pre-defined ground truth (GT) objects and the ambiguous decoy objects that the network misidentifies as foreground. Yet, most relevant models focused mainly on improving the learning of the GT objects. A few methods that consider decoy objects utilize loss functions that only focus on the single-response, i.e., the loss response of a single ambiguous pixel, and thus do not benefit from the wealth of information that an object-level ambiguity learning design can provide. Inspired by the human visual system, which first discerns the boundaries of ambiguous regions before delving into the semantic meaning, we propose a novel loss function, Spatial Coherence Loss (SCLoss), that incorporates the mutual response between adjacent pixels into the widely-used single-response loss functions. We demonstrate that the proposed SCLoss can gradually learn the ambiguous regions by detecting and emphasizing their boundaries in a self-adaptive manner. Through comprehensive experiments, we demonstrate that replacing popular loss functions with SCLoss can improve the performance of current state-of-the-art (SOTA) salient or camouflaged object detection (SOD or COD) models. We also demonstrate that combining SCLoss with other loss functions can further improve performance and result in SOTA outcomes for different applications.
- Abstract(参考訳): ジェネリックオブジェクト検出は、オブジェクトの正確なモデリングに依存するカテゴリに依存しないタスクである。
正確な意味分析を行うには,事前定義された基底真理(GT)オブジェクトや,ネットワークが前景と誤認する曖昧なデコイオブジェクトを含む,学習の任意の段階で現れるオブジェクトレベルの予測を学習する必要がある。
しかし、最も関連するモデルは、主にGTオブジェクトの学習を改善することに焦点を当てた。
デコイオブジェクトを考えるいくつかの方法は、単一の不明瞭なピクセルの損失応答にのみ焦点をあてるロス関数を利用するため、オブジェクトレベルのあいまいさ学習設計が提供できる豊富な情報から恩恵を受けない。
人間の視覚システムに触発され,まず意味を掘り下げる前に曖昧な領域の境界を識別し,隣接する画素間の相互応答を広義に用いた新しい損失関数である空間コヒーレンス損失(SCLoss)を提案する。
提案するSCLosは, 自己適応的に境界を検出, 強調することにより, あいまいな領域を徐々に学習できることを実証する。
総合的な実験により、一般的な損失関数をSCLosに置き換えることで、現在の最先端(SOTA)サラリアンまたはカモフラージュされたオブジェクト検出(SODまたはCOD)モデルの性能が向上することを示した。
また、SCLosと他の損失関数を組み合わせることで、パフォーマンスが向上し、異なるアプリケーションに対してSOTA結果が得られることを示す。
関連論文リスト
- Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Butterfly Effect Attack: Tiny and Seemingly Unrelated Perturbations for
Object Detection [0.0]
この研究は、オブジェクト検出において、小さく、一見無関係なイメージの摂動を探索し、識別することを目的としている。
物体の「非関連性」の度合いを、発生した摂動と物体の間の画素距離によって特徴づける。
その結果、画像の右側の(見えない)摂動は、左側の物体検出の結果を大きく変えることができることを示した。
論文 参考訳(メタデータ) (2022-11-14T16:07:14Z) - Self-Supervised Video Object Segmentation via Cutout Prediction and
Tagging [117.73967303377381]
本稿では, 自己教師型ビデオオブジェクト(VOS)アプローチを提案する。
本手法は,対象情報と背景情報の両方を考慮した識別学習損失の定式化に基づく。
提案手法であるCT-VOSは, DAVIS-2017 と Youtube-VOS の2つの挑戦的なベンチマークにおいて,最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-04-22T17:53:27Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Robust Region Feature Synthesizer for Zero-Shot Object Detection [87.79902339984142]
我々は,クラス内セマンティック・ディバージングコンポーネントとクラス間構造保存コンポーネントを含む,新しいゼロショットオブジェクト検出フレームワークを構築した。
リモートセンシング画像においてゼロショット物体検出を行う最初の研究である。
論文 参考訳(メタデータ) (2022-01-01T03:09:15Z) - Loss Function Discovery for Object Detection via Convergence-Simulation
Driven Search [101.73248560009124]
本稿では,効率的な収束シミュレーションによる進化的探索アルゴリズムCSE-Autolossを提案する。
一般的な検出器上での損失関数探索の広範囲な評価を行い、探索された損失の優れた一般化能力を検証した。
実験の結果, 2段検出器と1段検出器のmAPでは, 最適損失関数の組み合わせが1.1%と0.8%を上回っていることがわかった。
論文 参考訳(メタデータ) (2021-02-09T08:34:52Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z) - Enhancing Perceptual Loss with Adversarial Feature Matching for
Super-Resolution [5.258555266148511]
単一画像超解法 (SISR) は不確定な数の有効解を持つ不確定問題である。
これらのパターンアーティファクトの根本原因は、知覚的損失の事前学習目標と超解答目標とのミスマッチに遡ることができる。
論文 参考訳(メタデータ) (2020-05-15T12:36:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。