論文の概要: Mutual Supervision for Dense Object Detection
- arxiv url: http://arxiv.org/abs/2109.05986v1
- Date: Mon, 13 Sep 2021 14:04:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:33:29.909618
- Title: Mutual Supervision for Dense Object Detection
- Title(参考訳): 深度物体検出のための相互監視
- Authors: Ziteng Gao, Limin Wang, Gangshan Wu
- Abstract要約: 我々は、Mutual Supervision(MuSu)と呼ばれる新しい監督パラダイムを提案する。
MuSuは、主に分類予測スコアに基づいて回帰ヘッドのトレーニングサンプルを定義し、その後、回帰ヘッドのローカライズスコアに基づいて分類ヘッドのサンプルを定義する。
この相互監督によって訓練された検出器の収束が保証され,提案手法の有効性がMS COCOベンチマークで検証された。
- 参考スコア(独自算出の注目度): 37.30539436044029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The classification and regression head are both indispensable components to
build up a dense object detector, which are usually supervised by the same
training samples and thus expected to have consistency with each other for
detecting objects accurately in the detection pipeline. In this paper, we break
the convention of the same training samples for these two heads in dense
detectors and explore a novel supervisory paradigm, termed as Mutual
Supervision (MuSu), to respectively and mutually assign training samples for
the classification and regression head to ensure this consistency. MuSu defines
training samples for the regression head mainly based on classification
predicting scores and in turn, defines samples for the classification head
based on localization scores from the regression head. Experimental results
show that the convergence of detectors trained by this mutual supervision is
guaranteed and the effectiveness of the proposed method is verified on the
challenging MS COCO benchmark. We also find that tiling more anchors at the
same location benefits detectors and leads to further improvements under this
training scheme. We hope this work can inspire further researches on the
interaction of the classification and regression task in detection and the
supervision paradigm for detectors, especially separately for these two heads.
- Abstract(参考訳): 分類と回帰ヘッドはどちらも、密度の高い物体検出器を構築するのに必要なコンポーネントであり、通常は同じトレーニングサンプルによって監視されるため、検出パイプライン内の物体を正確に検出するための一貫性が期待できる。
本稿では,これら2つのヘッドのトレーニングサンプルを高密度検出器で同一のトレーニングサンプルの規則を破り,Mutual Supervision (MuSu)と呼ばれる新しいスーパースペクタリーパラダイムを探索し,それぞれに分類と回帰ヘッドのトレーニングサンプルを相互に割り当てて,一貫性を確保する。
MuSuは、主に分類予測スコアに基づいて回帰ヘッドのトレーニングサンプルを定義し、その後、回帰ヘッドの局所化スコアに基づいて分類ヘッドのサンプルを定義する。
実験の結果, この相互監視によって訓練された検出器の収束が保証され, 提案手法の有効性がms cocoベンチマークで検証された。
また,同じロケーションでアンカーをタイリングすることで,検出精度が向上し,このトレーニング方式によるさらなる改善が期待できる。
本研究は,検出における分類タスクと回帰タスクの相互作用,および検出器の監督パラダイム,特にこれらの2つの頭部について,さらなる研究を促すことを願っている。
関連論文リスト
- Hybrid Classification-Regression Adaptive Loss for Dense Object Detection [19.180514552400883]
HCRALと呼ばれるハイブリッド分類回帰適応損失を提案する。
本稿では,タスク間の監視,タスクの不整合に対処するためのResidual of Classification and IoU (RCI)モジュールと,各タスク内の難読化サンプルに焦点をあてる Conditioning Factor (CF) を紹介する。
また, 適応型トレーニングサンプル選択(EATSS)という新たな戦略を導入し, 分類と回帰の不整合を示すサンプルを新たに提供した。
論文 参考訳(メタデータ) (2024-08-30T10:31:39Z) - Memory Consistency Guided Divide-and-Conquer Learning for Generalized
Category Discovery [56.172872410834664]
一般カテゴリー発見(GCD)は、半教師付き学習のより現実的で挑戦的な設定に対処することを目的としている。
メモリ一貫性を誘導する分枝・分枝学習フレームワーク(MCDL)を提案する。
本手法は,画像認識の目に見えるクラスと見えないクラスの両方において,最先端のモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-24T09:39:45Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - Assessing Generalization of SGD via Disagreement [71.17788927037081]
実験により、同一のトレーニングセット上で同じアーキテクチャをトレーニングするだけで、異なるグラディエント・ディフレクション(SGD)を実行することで、ディープネットワークのテストエラーを推定できることを実証的に示す。
この発見は、ラベルのないテストデータを使ってテストエラーを直接予測する単純な経験的尺度を提供するだけでなく、一般化とキャリブレーションの間に新たな概念的接続を確立する。
論文 参考訳(メタデータ) (2021-06-25T17:53:09Z) - Deep Clustering based Fair Outlier Detection [19.601280507914325]
本稿では,統合深層クラスタリングと外乱検出を強化するために,インスタンスレベルの重み付き表現学習戦略を提案する。
我々のDCFOD法は, 異常検出において, 異常検出の妥当性と2種類のフェアネス概念の両面において, 常に優れた性能を達成している。
論文 参考訳(メタデータ) (2021-06-09T15:12:26Z) - Self-supervised driven consistency training for annotation efficient
histopathology image analysis [13.005873872821066]
大きなラベル付きデータセットでニューラルネットワークをトレーニングすることは、計算病理学において依然として支配的なパラダイムである。
本研究では,非教師付き表現学習のための強力な監視信号を学ぶために,ヒストロジ全体スライディング画像の背景となる多段階的文脈的手がかりを利用する自己教師付きプレテキストタスクを提案する。
また,タスク固有の未ラベルデータとの予測整合性に基づいて,事前学習した表現を下流タスクに効果的に転送することを学ぶ教師による半教師付き一貫性パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-07T19:46:21Z) - FADER: Fast Adversarial Example Rejection [19.305796826768425]
近年の防御は, 異なる層表現における正統な訓練試料からの異常な偏差を検出することにより, 対向的堅牢性を向上させることが示されている。
本稿では,検出に基づく手法を高速化する新しい手法であるFADERを紹介する。
実験では,MNISTデータセットの解析値と比較すると,最大73倍の試作機,CIFAR10の最大50倍の試作機について概説した。
論文 参考訳(メタデータ) (2020-10-18T22:00:11Z) - Joint Visual and Temporal Consistency for Unsupervised Domain Adaptive
Person Re-Identification [64.37745443119942]
本稿では,局所的なワンホット分類とグローバルなマルチクラス分類を組み合わせることで,視覚的・時間的整合性を両立させる。
3つの大規模ReIDデータセットの実験結果は、教師なしと教師なしの両方のドメイン適応型ReIDタスクにおいて提案手法の優位性を示す。
論文 参考訳(メタデータ) (2020-07-21T14:31:27Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。