論文の概要: Spatial Coherence Loss for Salient and Camouflaged Object Detection and
Beyond
- arxiv url: http://arxiv.org/abs/2402.18698v1
- Date: Wed, 28 Feb 2024 20:27:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 16:54:02.436098
- Title: Spatial Coherence Loss for Salient and Camouflaged Object Detection and
Beyond
- Title(参考訳): 空間的コヒーレンス損失によるサルエント・カモフラージュ物体検出とその周辺
- Authors: Ziyun Yang, Kevin Choy, and Sina Farsiu
- Abstract要約: 本稿では,隣接画素間の相互応答を利用して画素の単一応答を抑制・強調する新たな損失関数である空間コヒーレンス損失(SCLoss)を提案する。
提案するSCLosは,その境界を検知し強調することにより,徐々にハード領域を学習できることを実証する。
そこで本研究では,SCLossのセマンティックセグメンテーションへの応用について述べる。
- 参考スコア(独自算出の注目度): 3.03995893427722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generic object detection is a category-independent task that relies on
accurate modeling of objectness. Most relevant CNN-based models of objectness
utilize loss functions (e.g., binary cross entropy) that focus on the
single-response, i.e., the loss response of a single pixel. Inspired by the
human visual system, which first discerns the boundaries of ambiguous regions
(i.e., hard regions) before delving into the semantic meaning, we propose a
novel loss function, Spatial Coherence Loss (SCLoss), that uses the mutual
response between adjacent pixels to suppress or emphasize the single-response
of pixels. We demonstrate that the proposed SCLoss can gradually learn the hard
regions by detecting and emphasizing their boundaries. Through comprehensive
experiments, we demonstrate that replacing popular loss functions with SCLoss
can improve the performance of current state-of-the-art (SOTA) salient or
camouflaged object detection (SOD or COD) models. We also demonstrate that
combining SCLoss with other loss functions can further improve performance and
result in the SOTA outcomes for different applications. Finally, as a
demonstrative example of the potential uses for other related tasks, we show an
application of SCLoss for semantic segmentation.
- Abstract(参考訳): 汎用オブジェクト検出は、オブジェクトの正確なモデリングに依存するカテゴリに依存しないタスクである。
最も関連するCNNベースのオブジェクト性モデルは、単一応答、すなわち1ピクセルの損失応答に焦点を当てた損失関数(バイナリクロスエントロピーなど)を利用する。
意味的意味に熟考する前に、曖昧な領域(すなわち硬い領域)の境界を最初に認識する人間の視覚系に触発され、隣接するピクセル間の相互応答を利用して画素の単一応答を抑圧または強調する新しい損失関数空間コヒーレンス損失(scloss)を提案する。
提案するSCLosは,その境界を検知し強調することにより,徐々にハード領域を学習できることを実証する。
総合的な実験により、一般的な損失関数をSCLosに置き換えることで、現在の最先端(SOTA)サラリアンまたはカモフラージュされたオブジェクト検出(SODまたはCOD)モデルの性能が向上することを示した。
また、SCLosと他の損失関数を組み合わせることで、パフォーマンスが向上し、異なるアプリケーションに対するSOTA結果が得られることを示す。
最後に、他のタスクに対する潜在的な使用の実証例として、意味的セグメンテーションへのSCLossの適用を示す。
関連論文リスト
- SurANet: Surrounding-Aware Network for Concealed Object Detection via Highly-Efficient Interactive Contrastive Learning Strategy [55.570183323356964]
本稿では,隠蔽物体検出のための新しいSurrounding-Aware Network,すなわちSurANetを提案する。
周辺特徴の差分融合を用いて特徴写像のセマンティクスを強化し,隠蔽対象の強調を行う。
次に、周囲の特徴写像を対照的に学習することで隠蔽対象を識別するために、周囲のコントラストロスを適用した。
論文 参考訳(メタデータ) (2024-10-09T13:02:50Z) - Unraveling the Hessian: A Key to Smooth Convergence in Loss Function Landscapes [0.0]
我々は、完全に連結されたニューラルネットワークにおける損失景観の収束を理論的に解析し、新しいオブジェクトをサンプルに追加する際の損失関数値の差について上限を導出する。
画像分類作業における損失関数面の収束を実証し,これらの結果を様々なデータセットで検証した。
論文 参考訳(メタデータ) (2024-09-18T14:04:15Z) - SCLNet: A Scale-Robust Complementary Learning Network for Object Detection in UAV Images [0.0]
本稿では,SCLNet(Scale-robust complementary learning network)を提案する。
1つの実装は、提案したスケール補完デコーダとスケール補完損失関数に基づいている。
もう一つの実装は、提案したコントラッシブ・コントラスト・コントラスト・コントラスト・コントラスト・ネットワークとコントラスト・コントラスト・コントラスト・コントラスト・コントラスト・ロス関数に基づいている。
論文 参考訳(メタデータ) (2024-09-11T05:39:25Z) - Self-Supervised Video Object Segmentation via Cutout Prediction and
Tagging [117.73967303377381]
本稿では, 自己教師型ビデオオブジェクト(VOS)アプローチを提案する。
本手法は,対象情報と背景情報の両方を考慮した識別学習損失の定式化に基づく。
提案手法であるCT-VOSは, DAVIS-2017 と Youtube-VOS の2つの挑戦的なベンチマークにおいて,最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-04-22T17:53:27Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Robust Region Feature Synthesizer for Zero-Shot Object Detection [87.79902339984142]
我々は,クラス内セマンティック・ディバージングコンポーネントとクラス間構造保存コンポーネントを含む,新しいゼロショットオブジェクト検出フレームワークを構築した。
リモートセンシング画像においてゼロショット物体検出を行う最初の研究である。
論文 参考訳(メタデータ) (2022-01-01T03:09:15Z) - Loss Function Discovery for Object Detection via Convergence-Simulation
Driven Search [101.73248560009124]
本稿では,効率的な収束シミュレーションによる進化的探索アルゴリズムCSE-Autolossを提案する。
一般的な検出器上での損失関数探索の広範囲な評価を行い、探索された損失の優れた一般化能力を検証した。
実験の結果, 2段検出器と1段検出器のmAPでは, 最適損失関数の組み合わせが1.1%と0.8%を上回っていることがわかった。
論文 参考訳(メタデータ) (2021-02-09T08:34:52Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。