論文の概要: Benchmarking Deep Models for Salient Object Detection
- arxiv url: http://arxiv.org/abs/2202.02925v1
- Date: Mon, 7 Feb 2022 03:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 16:40:56.157336
- Title: Benchmarking Deep Models for Salient Object Detection
- Title(参考訳): サルエント物体検出のための深部モデルベンチマーク
- Authors: Huajun Zhou, Yang Lin, Lingxiao Yang, Jianhuang Lai and Xiaohua Xie
- Abstract要約: 汎用SALOD(General SALient Object Detection)ベンチマークを構築し,複数のSOD手法の総合的な比較を行った。
以上の実験では、既存の損失関数は、通常いくつかの指標に特化しているが、他の指標には劣る結果が報告されている。
我々は,深層ネットワークに画素レベルと画像レベルの両方の監視信号を統合することにより,より識別的な特徴を学習するためのエッジ・アウェア・ロス(EA)を提案する。
- 参考スコア(独自算出の注目度): 67.07247772280212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, deep network-based methods have continuously refreshed
state-of-the-art performance on Salient Object Detection (SOD) task. However,
the performance discrepancy caused by different implementation details may
conceal the real progress in this task. Making an impartial comparison is
required for future researches. To meet this need, we construct a general
SALient Object Detection (SALOD) benchmark to conduct a comprehensive
comparison among several representative SOD methods. Specifically, we
re-implement 14 representative SOD methods by using consistent settings for
training. Moreover, two additional protocols are set up in our benchmark to
investigate the robustness of existing methods in some limited conditions. In
the first protocol, we enlarge the difference between objectness distributions
of train and test sets to evaluate the robustness of these SOD methods. In the
second protocol, we build multiple train subsets with different scales to
validate whether these methods can extract discriminative features from only a
few samples. In the above experiments, we find that existing loss functions
usually specialized in some metrics but reported inferior results on the
others. Therefore, we propose a novel Edge-Aware (EA) loss that promotes deep
networks to learn more discriminative features by integrating both pixel- and
image-level supervision signals. Experiments prove that our EA loss reports
more robust performances compared to existing losses.
- Abstract(参考訳): 近年,深層ネットワークに基づく手法は,SOD(Salient Object Detection)タスクにおける最先端性能を継続的に更新している。
しかし、異なる実装の詳細によって生じるパフォーマンスの相違は、このタスクの実際の進捗を隠蔽する可能性がある。
将来の研究には公平な比較が必要である。
このニーズを満たすために,いくつかの代表的なsod法を包括的に比較するために,salod(general salient object detection)ベンチマークを構築した。
具体的には,14種類の代表sod法を再実装した。
さらに,いくつかの制約条件下での既存手法の堅牢性を検討するために,ベンチマークに2つの追加プロトコルが設定されている。
第1のプロトコルでは、これらのSOD手法の堅牢性を評価するために、列車とテストセットの客観性分布の違いを拡大する。
第2のプロトコルでは、異なるスケールで複数の列車サブセットを構築し、これらの手法が少数のサンプルから識別的特徴を抽出できるかどうかを検証する。
以上の実験では、既存の損失関数は、通常いくつかの指標に特化しているが、他の指標には劣る結果が報告されている。
そこで本研究では,画素レベルの監視信号と画像レベルの監視信号の両方を統合することにより,ディープネットワークがより識別的特徴を学ぶことを促進する新しいエッジアウェアロスを提案する。
実験によると、EAの損失は、既存の損失よりも堅牢なパフォーマンスを報告している。
関連論文リスト
- MutDet: Mutually Optimizing Pre-training for Remote Sensing Object Detection [36.478530086163744]
本研究では,MutDetと呼ばれるリモートセンシングオブジェクト検出のための,Mutally最適化事前学習フレームワークを提案する。
MutDetはオブジェクトの埋め込みを融合し、検出器は最後のエンコーダ層に双方向に機能し、情報インタラクションを強化する。
様々な環境での実験は、新しい最先端の転送性能を示している。
論文 参考訳(メタデータ) (2024-07-13T15:28:15Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - When Super-Resolution Meets Camouflaged Object Detection: A Comparison
Study [135.19004496785408]
Super Resolution (SR) と Camouflaged Object Detection (COD) は、コンピュータビジョンにおける様々なジョイントアプリケーションとのホットトピックである。
我々は、一般的なCODデータセット上で異なる超解像法をベンチマークする。
SR法により処理されたCODデータを用いて,異なるCODモデルのロバスト性を評価する。
論文 参考訳(メタデータ) (2023-08-08T16:17:46Z) - Towards Discriminative and Transferable One-Stage Few-Shot Object
Detectors [3.9189402702217344]
Few-shot Object Detection (FSOD) は、少数のサンプルを与えられた新しいクラスを学習することでこの問題に対処することを目的としている。
2段と1段のFSODの性能差は, 主に識別性の弱いためである。
これらの制約に対処するため,高密度メタ検出器のための前景サンプル数を増大させるマルチウェイサポートトレーニング戦略であるFew-shot RetinaNet(FSRN)を提案する。
論文 参考訳(メタデータ) (2022-10-11T20:58:25Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Plug-and-Play Few-shot Object Detection with Meta Strategy and Explicit
Localization Inference [78.41932738265345]
本稿では, 微調整を行なわずに新しいカテゴリーの物体を正確に検出できるプラグ検出器を提案する。
局所化プロセスに2つの明示的な推論を導入し、アノテーション付きデータへの依存を減らす。
これは、様々な評価プロトコルの下で、効率、精度、リコールの両方において大きなリードを示している。
論文 参考訳(メタデータ) (2021-10-26T03:09:57Z) - Multi-object Tracking with a Hierarchical Single-branch Network [31.680667324595557]
階層的な単一ブランチネットワークに基づくオンライン多目的追跡フレームワークを提案する。
新たなiHOIM損失関数は,2つのサブタスクの目的を統一し,より優れた検出性能を実現する。
MOT16とMOT20データセットの実験結果から,最先端のトラッキング性能が達成できた。
論文 参考訳(メタデータ) (2021-01-06T12:14:58Z) - FADER: Fast Adversarial Example Rejection [19.305796826768425]
近年の防御は, 異なる層表現における正統な訓練試料からの異常な偏差を検出することにより, 対向的堅牢性を向上させることが示されている。
本稿では,検出に基づく手法を高速化する新しい手法であるFADERを紹介する。
実験では,MNISTデータセットの解析値と比較すると,最大73倍の試作機,CIFAR10の最大50倍の試作機について概説した。
論文 参考訳(メタデータ) (2020-10-18T22:00:11Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。