論文の概要: Progressive Self-Guided Loss for Salient Object Detection
- arxiv url: http://arxiv.org/abs/2101.02412v1
- Date: Thu, 7 Jan 2021 07:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 19:14:03.428787
- Title: Progressive Self-Guided Loss for Salient Object Detection
- Title(参考訳): 能動物体検出のためのプログレッシブ自己誘導損失
- Authors: Sheng Yang, Weisi Lin, Guosheng Lin, Qiuping Jiang, Zichuan Liu
- Abstract要約: 画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
- 参考スコア(独自算出の注目度): 102.35488902433896
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a simple yet effective progressive self-guided loss function to
facilitate deep learning-based salient object detection (SOD) in images. The
saliency maps produced by the most relevant works still suffer from incomplete
predictions due to the internal complexity of salient objects. Our proposed
progressive self-guided loss simulates a morphological closing operation on the
model predictions for epoch-wisely creating progressive and auxiliary training
supervisions to step-wisely guide the training process. We demonstrate that
this new loss function can guide the SOD model to highlight more complete
salient objects step-by-step and meanwhile help to uncover the spatial
dependencies of the salient object pixels in a region growing manner. Moreover,
a new feature aggregation module is proposed to capture multi-scale features
and aggregate them adaptively by a branch-wise attention mechanism. Benefiting
from this module, our SOD framework takes advantage of adaptively aggregated
multi-scale features to locate and detect salient objects effectively.
Experimental results on several benchmark datasets show that our loss function
not only advances the performance of existing SOD models without architecture
modification but also helps our proposed framework to achieve state-of-the-art
performance.
- Abstract(参考訳): 本稿では,画像中のsod(deep learning-based salient object detection)を容易にするために,簡易かつ効果的な自己誘導損失関数を提案する。
最も関係のある作品によって生み出されるサリエンシーマップは、サルエント対象の内部複雑性のためにまだ不完全な予測に苦しめられている。
提案するプログレッシブ自己誘導損失は,学習過程を段階的に指導するプログレッシブおよび補助訓練監督を作成するためのモデル予測に関する形態的閉鎖操作をシミュレートする。
この新しい損失関数は、sodモデルがより完全なサルエントオブジェクトを段階的に強調すると同時に、サルエントオブジェクトピクセルの空間的依存性を、拡大する領域で解明するのに役立つことを実証する。
さらに,マルチスケールな特徴をキャプチャし,分岐的注意機構により適応的に集約する機能アグリゲーションモジュールを提案する。
このモジュールから恩恵を受けるため、当社のSODフレームワークは、適応的に集約されたマルチスケール機能を利用して、健全なオブジェクトの発見と検出を効果的に行う。
いくつかのベンチマークデータセットによる実験結果から、損失関数はアーキテクチャ変更なしに既存のSODモデルの性能を向上するだけでなく、提案したフレームワークが最先端のパフォーマンスを達成するのに役立ちます。
関連論文リスト
- Visual Grounding with Attention-Driven Constraint Balancing [19.30650183073788]
本稿では,言語関連領域における視覚的特徴の挙動を最適化するために,注意駆動制約バランス(AttBalance)を提案する。
4つの異なるベンチマークで評価された5つの異なるモデルに対して、一定の改善が達成される。
QRNetにメソッドを統合することにより,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-07-03T16:14:09Z) - Uncertainty modeling for fine-tuned implicit functions [10.902709236602536]
入射関数は、スパースビューから詳細な物体形状を再構成するコンピュータビジョンにおいて重要な役割を担っている。
暗黙関数における不確実性推定手法であるDropsemblesを導入する。
その結果,Dropsemblesは深層アンサンブルの精度とキャリブレーションレベルを達成するが,計算コストは著しく低いことがわかった。
論文 参考訳(メタデータ) (2024-06-17T20:46:18Z) - InfRS: Incremental Few-Shot Object Detection in Remote Sensing Images [11.916941756499435]
本稿では,リモートセンシング画像におけるインクリメンタルな数ショット物体検出の複雑な課題について検討する。
本稿では,新しい授業の漸進的な学習を促進するために,InfRSと呼ばれる先駆的な微調整技術を導入する。
我々はワッサーシュタイン距離に基づく原型校正戦略を開発し、破滅的な忘れ問題を軽減する。
論文 参考訳(メタデータ) (2024-05-18T13:39:50Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Boosting Object Representation Learning via Motion and Object Continuity [22.512380611375846]
物体の動きと連続性、すなわち、物体が存在の内外に現れないことを活用することを提案する。
結果のMotion and Object Continuityスキームは、任意のベースラインオブジェクト検出モデルを使用してインスタンス化することができる。
その結果,オブジェクト発見,収束速度,全般的な潜在オブジェクト表現の観点から,SOTAモデルの性能に大きな改善が見られた。
論文 参考訳(メタデータ) (2022-11-16T09:36:41Z) - Dissecting Deep Metric Learning Losses for Image-Text Retrieval [8.248111272824326]
VSE(Visual-Semantic Embedding)は、画像と言語モダリティの結合埋め込み空間を学習することにより、画像テキスト検索における一般的なアプローチである。
強負の鉱業による三重項損失は、ほとんどのVSE法において事実上の目標となっている。
我々は,既存のDML関数の勾配の組み合わせと重み付けを体系的に解析する,新しいグラディエントベースのObjective AnaLysisフレームワーク(textitGOAL)を提案する。
論文 参考訳(メタデータ) (2022-10-21T06:48:27Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - EDN: Salient Object Detection via Extremely-Downsampled Network [66.38046176176017]
画像全体のグローバルビューを効果的に学ぶために、極端なダウンサンプリング技術を使用するExtremely-Downsampled Network(EDN)を紹介します。
実験は、ednがリアルタイム速度でsart性能を達成することを実証する。
論文 参考訳(メタデータ) (2020-12-24T04:23:48Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。