論文の概要: Modular network for high accuracy object detection
- arxiv url: http://arxiv.org/abs/2001.09203v3
- Date: Sun, 13 Sep 2020 19:03:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 04:40:36.789779
- Title: Modular network for high accuracy object detection
- Title(参考訳): 高精度物体検出のためのモジュールネットワーク
- Authors: Erez Yahalomi
- Abstract要約: このネットワークは実装が容易で、0.94 mAPである。
学習の伝達による深層学習ネットワークは、後から学習したクラス数が小さくなるにつれて、より正確になることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel modular object detection convolutional neural network that
significantly improves the accuracy of object detection. The network consists
of two stages in a hierarchical structure. The first stage is a network that
detects general classes. The second stage consists of separate networks to
refine the classification and localization of each of the general classes
objects. Compared to a state of the art object detection networks the
classification error in the modular network is improved by approximately 3-5
times, from 12% to 2.5 %-4.5%. This network is easy to implement and has a 0.94
mAP. The network architecture can be a platform to improve the accuracy of
widespread state of the art object detection networks and other kinds of deep
learning networks. We show that a deep learning network initialized by transfer
learning becomes more accurate as the number of classes it later trained to
detect becomes smaller.
- Abstract(参考訳): 本稿では,オブジェクト検出の精度を大幅に向上させるモジュール型オブジェクト検出畳み込みニューラルネットワークを提案する。
ネットワークは階層構造の2つのステージから構成される。
第1段階は一般的なクラスを検出するネットワークである。
第2段階は、各一般的なクラスオブジェクトの分類とローカライゼーションを洗練するための別々のネットワークで構成されている。
artオブジェクト検出ネットワークの状態と比較して、モジュールネットワークの分類誤差は12%から2.5%-4.5%に約3~5倍改善されている。
このネットワークは実装が容易で、0.94 mAPである。
ネットワークアーキテクチャは、アートオブジェクト検出ネットワークやその他の種類のディープラーニングネットワークの広範な状態の正確性を向上させるプラットフォームになり得る。
トランスファー学習によって初期化される深層学習ネットワークは,後から学習したクラス数が小さくなるにつれて精度が向上することを示す。
関連論文リスト
- Neural Collapse in the Intermediate Hidden Layers of Classification
Neural Networks [0.0]
(NC)は、分類ニューラルネットワークの最終的な隠蔽層におけるクラスの表現を正確に記述する。
本稿では,中間層におけるNCの出現を包括的に解析する。
論文 参考訳(メタデータ) (2023-08-05T01:19:38Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Deep Residual Compensation Convolutional Network without Backpropagation [0.0]
数百の層でトレーニングされたPCANetライクなネットワークである残差補償畳み込みネットワークを導入する。
分類誤差を修正するため,各層に先行する各層の残余情報から得られた新しいラベルを学習する。
実験の結果、我々のディープネットワークは既存のPCANetのようなネットワークよりも優れており、従来の勾配モデルと競合していることがわかった。
論文 参考訳(メタデータ) (2023-01-27T11:45:09Z) - DOC-NAD: A Hybrid Deep One-class Classifier for Network Anomaly
Detection [0.0]
ネットワーク侵入検知システム(NIDS)の検出能力を高めるために機械学習アプローチが用いられている。
最近の研究は、バイナリとマルチクラスのネットワーク異常検出タスクに従うことで、ほぼ完璧な性能を実現している。
本稿では,ネットワークデータサンプルの学習のみによるネットワーク侵入検出のためのDeep One-Class (DOC)分類器を提案する。
論文 参考訳(メタデータ) (2022-12-15T00:08:05Z) - Efficient Transfer Learning via Joint Adaptation of Network Architecture
and Weight [66.8543732597723]
近年のニューラルネットワーク探索(NAS)は,十分なネットワーク探索空間を確立することで伝達学習を支援する。
本稿では,2つのモジュールからなる新しいフレームワークを提案する。アーキテクチャトランスファーのためのニューラルアーキテクチャ探索モジュールと,ウェイトトランスファーのためのニューラルウェイト探索モジュールである。
これら2つのモジュールは、減らされたスーパーネットワークに基づいてターゲットタスクを探索するので、ソースタスクのみを訓練する必要がある。
論文 参考訳(メタデータ) (2021-05-19T08:58:04Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Zero Cost Improvements for General Object Detection Network [6.072666305426913]
2つのモジュールがコストゼロで検出精度を向上させるために提案されている。
パラメータの少ないマルチレベル特徴写像を効率的に融合するために,スケールアテンション機構を用いる。
実験の結果,2つのモジュールを持つネットワークはコストゼロで1.1 APと0.8 APを越えられることがわかった。
論文 参考訳(メタデータ) (2020-11-16T07:21:57Z) - Adjoined Networks: A Training Paradigm with Applications to Network
Compression [3.995047443480282]
本稿では、元のベースネットワークとより小さな圧縮ネットワークの両方を同時にトレーニングする学習パラダイムであるAdjoined Networks(AN)を紹介する。
ベースネットワークとしてResNet-50を使用すると、画像Netデータセット上の1.8Mパラメータと1.6GFLOPで71.8%のトップ-1の精度が達成される。
我々は,ニューラルネットワーク探索を用いて,より小さなネットワークの各レイヤの幅と重みを共同で学習し,ANを増強する訓練パラダイムであるDaniable Adjoined Networks (DAN)を提案する。
論文 参考訳(メタデータ) (2020-06-10T02:48:16Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。