論文の概要: Logit Normalization for Long-tail Object Detection
- arxiv url: http://arxiv.org/abs/2203.17020v1
- Date: Thu, 31 Mar 2022 13:28:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 22:35:05.787143
- Title: Logit Normalization for Long-tail Object Detection
- Title(参考訳): ロングテール物体検出のためのlogit正規化
- Authors: Liang Zhao, Yao Teng, Limin Wang
- Abstract要約: 歪んだ分布を示す現実世界のデータは、既存の物体検出器に深刻な課題をもたらす。
バッチ正規化と同様な方法で検出器の分類されたロジットを自己校正する手法であるLogit Normalization(LogN)を提案する。
一般的に、当社のLogNは、トレーニングとチューニングの不要(つまり、追加のトレーニングとチューニングのプロセスを必要としない)、モデルとラベルの分布に依存しない、そしてプラグインとプレイである。
- 参考スコア(独自算出の注目度): 32.18963619434191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world data exhibiting skewed distributions pose a serious challenge to
existing object detectors. Moreover, the samplers in detectors lead to shifted
training label distributions, while the tremendous proportion of background to
foreground samples severely harms foreground classification. To mitigate these
issues, in this paper, we propose Logit Normalization (LogN), a simple
technique to self-calibrate the classified logits of detectors in a similar way
to batch normalization. In general, our LogN is training- and tuning-free (i.e.
require no extra training and tuning process), model- and label
distribution-agnostic (i.e. generalization to different kinds of detectors and
datasets), and also plug-and-play (i.e. direct application without any bells
and whistles). Extensive experiments on the LVIS dataset demonstrate superior
performance of LogN to state-of-the-art methods with various detectors and
backbones. We also provide in-depth studies on different aspects of our LogN.
Further experiments on ImageNet-LT reveal its competitiveness and
generalizability. Our LogN can serve as a strong baseline for long-tail object
detection and is expected to inspire future research in this field. Code and
trained models will be publicly available at https://github.com/MCG-NJU/LogN.
- Abstract(参考訳): 歪んだ分布を示す現実世界のデータは、既存の物体検出器に深刻な課題をもたらす。
さらに,検出器内の試料はトレーニングラベル分布をシフトさせるが,前景試料に対する背景の膨大な割合は前景分類に悪影響を及ぼす。
この問題を軽減するため,本稿では,バッチ正規化と同様の方法で,検出器の分類されたロジットを自己管理するシンプルな手法であるlognを提案する。
一般的に、当社のlognはトレーニングおよびチューニングフリー(追加のトレーニングとチューニングプロセスを必要としない)、モデルおよびラベル配布非依存(さまざまな種類の検出器とデータセットへの一般化)、プラグイン・アンド・プレイ(ベルやホイッスルのない直接アプリケーション)です。
LVISデータセットの大規模な実験は、様々な検出器とバックボーンを持つ最先端の手法よりもLogNの優れた性能を示す。
また、lognのさまざまな側面に関する詳細な研究も行っています。
ImageNet-LTのさらなる実験は、その競争性と一般化性を明らかにする。
私たちのlognは、ロングテールオブジェクト検出の強力なベースラインとなり、この分野における今後の研究に刺激を与えるものと期待されています。
コードとトレーニングされたモデルはhttps://github.com/MCG-NJU/LogN.comで公開される。
関連論文リスト
- PS-TTL: Prototype-based Soft-labels and Test-Time Learning for Few-shot Object Detection [21.443060372419286]
Few-Shot Object Detection (FSOD) は注目され、大きな進歩を遂げた。
我々は,FSODの新しいフレームワーク,すなわちプロトタイプベースのソフトラベルとテスト時間学習(PS-TTL)を提案する。
論文 参考訳(メタデータ) (2024-08-11T02:21:43Z) - GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - How Low Can You Go? Surfacing Prototypical In-Distribution Samples for Unsupervised Anomaly Detection [48.30283806131551]
非常に少ないトレーニングサンプルを持つUADが、トレーニングデータセット全体のトレーニングパフォーマンスにすでに一致している - そして、場合によっては、それを超えることもある、ということが、私たちは示しています。
そこで本研究では,UAD性能をさらに向上させるために,原型標本を確実に同定するための教師なし手法を提案する。
論文 参考訳(メタデータ) (2023-12-06T15:30:47Z) - AnoShift: A Distribution Shift Benchmark for Unsupervised Anomaly
Detection [7.829710051617368]
本稿では,ネットワーク侵入検知のためのトラフィックデータセットである Kyoto-2006+ 上に構築された,時間とともに変化するデータを含む教師なし異常検出ベンチマークを提案する。
まず, 基本機能解析, t-SNE, および最適輸送手法を用いて, 年々の分布距離を計測する。
従来のアプローチからディープラーニングまで,さまざまなモデルでパフォーマンス劣化を検証する。
論文 参考訳(メタデータ) (2022-06-30T17:59:22Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - SSD: A Unified Framework for Self-Supervised Outlier Detection [37.254114112911786]
ラベルなしの分布データのみに基づく異常検出器を提案する。
自己教師付き表現学習を行い,マハラノビス距離に基づく検出を行う。
可能であれば、トレーニングデータラベルを組み込むためのフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-03-22T17:51:35Z) - Self-Attentive Classification-Based Anomaly Detection in Unstructured
Logs [59.04636530383049]
ログ表現を学習するための分類法であるLogsyを提案する。
従来の方法と比較して,F1スコアの平均0.25の改善を示す。
論文 参考訳(メタデータ) (2020-08-21T07:26:55Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - Incremental Few-Shot Object Detection [96.02543873402813]
OpeN-ended Centre nEtは、いくつかの例でクラスオブジェクトの検出を漸進的に学習する検出器である。
ONCEはインクリメンタルな学習パラダイムを十分に尊重しており、新しいクラス登録では、数発のトレーニングサンプルを1回だけフォワードパスするだけでよい。
論文 参考訳(メタデータ) (2020-03-10T12:56:59Z) - Anomaly Detection by One Class Latent Regularized Networks [36.67420338535258]
近年,GANに基づく半教師付きジェネレーティブ・アドバイザリアル・ネットワーク(GAN)手法が,異常検出タスクで人気を集めている。
遅延特徴空間でトレーニングデータの基盤となる構造を捕捉する新しい対角デュアルオートエンコーダネットワークを提案する。
実験の結果,MNISTおよびCIFAR10データセットおよびGTSRB停止信号データセットの最先端結果が得られた。
論文 参考訳(メタデータ) (2020-02-05T02:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。