論文の概要: Extending One-Stage Detection with Open-World Proposals
- arxiv url: http://arxiv.org/abs/2201.02302v1
- Date: Fri, 7 Jan 2022 02:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-10 20:38:41.368750
- Title: Extending One-Stage Detection with Open-World Proposals
- Title(参考訳): オープンワールド提案によるワンステップ検出の拡張
- Authors: Sachin Konan and Kevin J Liang and Li Yin
- Abstract要約: 完全畳み込み型一段検出ネットワークFCOSは,新しい授業で最大6%のOWP性能を向上できることを示す。
新たな授業では2段階の手法が6%悪くなったが,共同でOWPと分類を最適化した場合,FCOSは2%しか低下しないことがわかった。
- 参考スコア(独自算出の注目度): 8.492340530784697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many applications, such as autonomous driving, hand manipulation, or robot
navigation, object detection methods must be able to detect objects unseen in
the training set. Open World Detection(OWD) seeks to tackle this problem by
generalizing detection performance to seen and unseen class categories. Recent
works have seen success in the generation of class-agnostic proposals, which we
call Open-World Proposals(OWP), but this comes at the cost of a big drop on the
classification task when both tasks are considered in the detection model.
These works have investigated two-stage Region Proposal Networks (RPN) by
taking advantage of objectness scoring cues; however, for its simplicity,
run-time, and decoupling of localization and classification, we investigate OWP
through the lens of fully convolutional one-stage detection network, such as
FCOS. We show that our architectural and sampling optimizations on FCOS can
increase OWP performance by as much as 6% in recall on novel classes, marking
the first proposal-free one-stage detection network to achieve comparable
performance to RPN-based two-stage networks. Furthermore, we show that the
inherent, decoupled architecture of FCOS has benefits to retaining
classification performance. While two-stage methods worsen by 6% in recall on
novel classes, we show that FCOS only drops 2% when jointly optimizing for OWP
and classification.
- Abstract(参考訳): 自律運転、ハンドマニピュレーション、ロボットナビゲーションといった多くのアプリケーションでは、オブジェクト検出メソッドはトレーニングセットで認識されていないオブジェクトを検出できなければならない。
Open World Detection(OWD)は、検出性能を目に見えるクラスや目に見えないクラスカテゴリに一般化することで、この問題に対処しようとしている。
最近の研究では、open-world proposals(owp)と呼ばれるクラスに依存しない提案の生成に成功しています。
本研究は,2段階領域提案ネットワーク(rpn)を客観性スコアリングの手がかりとして検討してきたが,その単純性,実行時間,局所化と分類の分離のために,fcosのような完全畳み込み型1段階検出ネットワークのレンズを通してowpを調査した。
提案手法は,新しいクラスをリコールする際のOWP性能を最大6%向上させ,RPNベースの2段階ネットワークに匹敵する性能を達成した最初のプロポーザルフリー1段階検出ネットワークであることを示す。
さらに, FCOSの非結合アーキテクチャは, 分類性能の維持に有効であることを示す。
2段階のメソッドは,新しいクラスでリコール時に6%悪化するが,owpと分類を共同で最適化すると,fcosは2%減少する。
関連論文リスト
- LAA-Net: Localized Artifact Attention Network for Quality-Agnostic and Generalizable Deepfake Detection [12.567069964305265]
本稿では,LAA-Net(Localized Artifact Attention Network)と呼ばれる高品質なディープフェイク検出手法を提案する。
高品質なディープフェイク検出のための既存の方法は、主に暗黙の注意機構を備えた教師付きバイナリ分類器に基づいている。
いくつかのベンチマークで行った実験は、AUC(Area Under the Curve)とAP(Average Precision)の観点から、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-01-24T23:42:08Z) - You Should Look at All Objects [28.862053913000384]
本稿では,検出フレームワークにおけるFPNを再検討し,最適化の観点からFPNの成功の性質を明らかにする。
大規模物体の劣化特性は、FPNの統合後の不適切なバックプロパゲーションパスの発生によるものである。
バックボーンの各レベルがFPNベースの検出フレームワークの全オブジェクトを見ることができるように、2つの実行可能な戦略が提案されている。
論文 参考訳(メタデータ) (2022-07-16T09:59:34Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - Modulating Localization and Classification for Harmonized Object
Detection [40.82723262074911]
2つのタスクを変調する相互学習フレームワークを提案する。
特に,2つのタスクは,新たな相互ラベル付け戦略によって互いに学習することを余儀なくされる。
COCOデータセットのベースライン検出器に対する大幅なパフォーマンス向上を実現しました。
論文 参考訳(メタデータ) (2021-03-16T10:36:02Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Corner Proposal Network for Anchor-free, Two-stage Object Detection [174.59360147041673]
オブジェクト検出の目標は、画像内のオブジェクトのクラスと位置を決定することである。
本稿では,多数のオブジェクト提案を抽出する新しいアンカーフリー2段階フレームワークを提案する。
この2つの段階が,リコールと精度の向上に有効な解であることを示す。
論文 参考訳(メタデータ) (2020-07-27T19:04:57Z) - FCOS: A simple and strong anchor-free object detector [111.87691210818194]
物体検出を画素ごとの予測方式で解くために, 完全畳み込み型一段物検出器 (FCOS) を提案する。
RetinaNet、SSD、YOLOv3、Faster R-CNNといった最先端のオブジェクト検出器のほとんどは、事前に定義されたアンカーボックスに依存している。
対照的に、提案した検出器FCOSはアンカーボックスフリーであり、提案はフリーである。
論文 参考訳(メタデータ) (2020-06-14T01:03:39Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。