論文の概要: A Deeper Look at Salient Object Detection: Bi-stream Network with a
Small Training Dataset
- arxiv url: http://arxiv.org/abs/2008.02938v1
- Date: Fri, 7 Aug 2020 01:24:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 00:44:21.914771
- Title: A Deeper Look at Salient Object Detection: Bi-stream Network with a
Small Training Dataset
- Title(参考訳): 有能な物体検出のより深い展望:小さなトレーニングデータセットを持つ双方向ネットワーク
- Authors: Zhenyu Wu, Shuai Li, Chenglizhao Chen, Aimin Hao, Hong Qin
- Abstract要約: 4K画像のみを含む新しい小規模トレーニングセットを構築するための実現可能な方法を提案する。
提案する小型トレーニングセットをフル活用するために,新しい双方向ネットワークを提案する。
- 参考スコア(独自算出の注目度): 62.26677215668959
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compared with the conventional hand-crafted approaches, the deep learning
based methods have achieved tremendous performance improvements by training
exquisitely crafted fancy networks over large-scale training sets. However, do
we really need large-scale training set for salient object detection (SOD)? In
this paper, we provide a deeper insight into the interrelationship between the
SOD performances and the training sets. To alleviate the conventional demands
for large-scale training data, we provide a feasible way to construct a novel
small-scale training set, which only contains 4K images. Moreover, we propose a
novel bi-stream network to take full advantage of our proposed small training
set, which is consisted of two feature backbones with different structures,
achieving complementary semantical saliency fusion via the proposed gate
control unit. To our best knowledge, this is the first attempt to use a
small-scale training set to outperform state-of-the-art models which are
trained on large-scale training sets; nevertheless, our method can still
achieve the leading state-of-the-art performance on five benchmark datasets.
- Abstract(参考訳): 従来の手作りの手法と比較して、ディープラーニングベースの手法は、大規模なトレーニングセットよりも巧妙に構築された派手なネットワークをトレーニングすることで、大幅な性能向上を実現している。
しかし、我々は正当性物体検出(SOD)のための大規模トレーニングセットを本当に必要だろうか?
本稿では,SODのパフォーマンスとトレーニングセットの相互関係について,より深い知見を提供する。
大規模なトレーニングデータに対する従来の要求を緩和するため、4K画像のみを含む新しい小規模トレーニングセットを構築するための実現可能な方法を提供する。
さらに,提案する2つの特徴的バックボーンと構造が異なり,ゲート制御ユニットを介して相補的なセマンティック・サリエンシ融合を実現するため,提案する小型トレーニングセットをフル活用するバイストリームネットワークを提案する。
私たちの知る限りでは、これは大規模なトレーニングセットでトレーニングされた最先端モデルを上回るために、小規模なトレーニングセットを使用する最初の試みである。
関連論文リスト
- Task-Oriented Pre-Training for Drivable Area Detection [5.57325257338134]
本稿では,冗長なセグメンテーションの提案から始まるタスク指向の事前学習手法を提案する。
次に、コントラスト言語画像事前学習(CLIP)モデルを微調整するための特定カテゴリー強化微調整(SCEF)戦略を導入する。
このアプローチは、手動のアノテートデータを使用してさらに微調整された事前学習モデルの粗いトレーニングデータを生成することができる。
論文 参考訳(メタデータ) (2024-09-30T10:25:47Z) - A Simple-but-effective Baseline for Training-free Class-Agnostic
Counting [30.792198686654075]
CAC(Class-Agnostic Counting)は、いくつかの参照例だけで、与えられた画像内のオブジェクトを正確にカウントすることを目指している。
近年の取り組みでは、既存の基礎モデルを利用することで、トレーニングなしでこれを達成できることが示されている。
我々は、このパフォーマンスギャップを効果的に橋渡しし、強力なベースラインとして機能する、トレーニング不要のソリューションを提案する。
論文 参考訳(メタデータ) (2024-03-03T07:19:50Z) - Towards All-in-one Pre-training via Maximizing Multi-modal Mutual
Information [77.80071279597665]
マルチモーダル相互情報事前学習(M3I事前学習)を最大化するオールインワン単段階事前学習手法を提案する。
提案手法は,ImageNet分類,オブジェクト検出,LVIS長鎖オブジェクト検出,ADE20kセマンティックセマンティックセマンティックセマンティクスなど,様々なビジョンベンチマークにおける事前学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-11-17T18:59:49Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Efficient deep learning models for land cover image classification [0.29748898344267777]
土地利用土地被覆(LULC)画像分類のためのBigEarthNetデータセットを用いて実験を行った。
コンボリューションニューラルネットワーク、マルチ層パーセプトロン、ビジュアルトランスフォーマー、効率的なネットワーク、ワイド残留ネットワーク(WRN)など、さまざまな最先端モデルをベンチマークする。
提案する軽量モデルは、訓練可能なパラメータが桁違いに小さく、平均的なFスコア分類精度が19のLULCクラスすべてに対して4.5%向上し、ベースラインとして使用するResNet50の2倍高速に訓練される。
論文 参考訳(メタデータ) (2021-11-18T00:03:14Z) - Self-Supervised Learning for Binary Networks by Joint Classifier
Training [11.612308609123566]
本稿では,バイナリネットワークのための自己教師付き学習手法を提案する。
バイナリネットワークのより良いトレーニングのために,特徴類似性損失,損失項の動的バランススキーム,マルチステージトレーニングの修正を提案する。
実証実験により、BSSLは、下流タスクにおけるバイナリネットワークの自己教師付き学習ベースラインよりも優れ、特定のタスクにおける教師付き事前学習よりも優れています。
論文 参考訳(メタデータ) (2021-10-17T15:38:39Z) - Unsupervised Vision-and-Language Pre-training Without Parallel Images
and Captions [92.47566804182338]
画像キャプションコーパスを使わずに教師なし事前学習により、強力なV&L表現モデルを学習できるかどうかを検討する。
特に,テキストのみのコーパスと画像のみのコーパスで,マスク・アンド・予測の事前学習を行うことを提案する。
4つの英語のV&Lベンチマークで、アライメントされたデータで事前訓練されたモデルに近いこのような単純なアプローチの性能が得られた。
論文 参考訳(メタデータ) (2020-10-24T08:17:54Z) - Deep Ensembles for Low-Data Transfer Learning [21.578470914935938]
我々は、事前訓練されたモデルからアンサンブルを作成する様々な方法を研究する。
プレトレーニング自体が多様性の優れた源であることが示される。
本稿では,任意の下流データセットに対して,事前学習したモデルのサブセットを効率的に同定する実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-14T07:59:00Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。