論文の概要: Low-Power Object Counting with Hierarchical Neural Networks
- arxiv url: http://arxiv.org/abs/2007.01369v1
- Date: Thu, 2 Jul 2020 20:13:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 14:26:44.252655
- Title: Low-Power Object Counting with Hierarchical Neural Networks
- Title(参考訳): 階層型ニューラルネットワークを用いた低出力物体カウント
- Authors: Abhinav Goel, Caleb Tung, Sara Aghajanzadeh, Isha Ghodgaonkar, Shreya
Ghosh, George K. Thiruvathukal, Yung-Hsiang Lu
- Abstract要約: オブジェクトカウントはイメージとオブジェクトクエリの2つの入力を受け取り、クエリされたオブジェクトの発生回数を報告する。
ディープニューラルネットワーク(DNN)は、オブジェクトカウントなどの多くのコンピュータビジョンタスクにおいて最先端の精度を達成することができる。
DNNは数十億の操作を必要とするため、リソースに制約のある低消費電力デバイスへのデプロイが困難になる。
- 参考スコア(独自算出の注目度): 1.203768341415124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) can achieve state-of-the-art accuracy in many
computer vision tasks, such as object counting. Object counting takes two
inputs: an image and an object query and reports the number of occurrences of
the queried object. To achieve high accuracy on such tasks, DNNs require
billions of operations, making them difficult to deploy on
resource-constrained, low-power devices. Prior work shows that a significant
number of DNN operations are redundant and can be eliminated without affecting
the accuracy. To reduce these redundancies, we propose a hierarchical DNN
architecture for object counting. This architecture uses a Region Proposal
Network (RPN) to propose regions-of-interest (RoIs) that may contain the
queried objects. A hierarchical classifier then efficiently finds the RoIs that
actually contain the queried objects. The hierarchy contains groups of visually
similar object categories. Small DNNs are used at each node of the hierarchy to
classify between these groups. The RoIs are incrementally processed by the
hierarchical classifier. If the object in an RoI is in the same group as the
queried object, then the next DNN in the hierarchy processes the RoI further;
otherwise, the RoI is discarded. By using a few small DNNs to process each
image, this method reduces the memory requirement, inference time, energy
consumption, and number of operations with negligible accuracy loss when
compared with the existing object counters.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、オブジェクトカウントなどの多くのコンピュータビジョンタスクにおいて最先端の精度を達成することができる。
オブジェクトカウントはイメージとオブジェクトクエリの2つの入力を受け取り、クエリされたオブジェクトの発生回数を報告する。
このようなタスクで高い精度を達成するために、dnnは数十億のオペレーションを必要とし、リソース制約のある低消費電力デバイスへのデプロイを困難にしている。
以前の研究は、かなりの数のDNN操作が冗長であり、精度に影響を与えることなく排除できることを示している。
これらの冗長性を低減するため,オブジェクトカウントのための階層型DNNアーキテクチャを提案する。
このアーキテクチャは、RPN(Rerea Proposal Network)を使用して、クエリ対象を含む可能性のあるRerea-of-interest(RoI)を提案する。
階層型分類器は、実際にクエリされたオブジェクトを含むRoIsを効率的に見つける。
階層構造は視覚的に類似した対象カテゴリのグループを含む。
階層の各ノードで小さなDNNを使用して、これらのグループを分類する。
RoIは階層分類器によって漸進的に処理される。
RoI のオブジェクトがクエリ対象と同じグループであれば、階層内の次の DNN は RoI をさらに処理し、そうでなければ RoI は破棄される。
各画像を処理するためにいくつかの小さなdnnを使用することで、既存のオブジェクトカウンタと比較して、メモリ要求、推論時間、エネルギー消費、操作数を無視できる精度損失で削減できる。
関連論文リスト
- A DeNoising FPN With Transformer R-CNN for Tiny Object Detection [25.892598910922004]
そこで本稿では,Trans R-CNN (DNTR) を用いたFPNのデノベーション手法を提案する。
DNTRは、簡単なプラグイン設計、DeNoising FPN (DN-FPN)、効果的なTransformerベースの検出器であるTrans R-CNNで構成されている。
我々は、古いR-CNN検出器を新しいTrans R-CNN検出器に置き換え、自己注意を持つ小さな物体の表現に集中する。
論文 参考訳(メタデータ) (2024-06-09T12:18:15Z) - Spatial-Temporal Graph Enhanced DETR Towards Multi-Frame 3D Object Detection [54.041049052843604]
STEMDは,多フレーム3Dオブジェクト検出のためのDETRのようなパラダイムを改良した,新しいエンドツーエンドフレームワークである。
まず、オブジェクト間の空間的相互作用と複雑な時間的依存をモデル化するために、空間的時間的グラフアテンションネットワークを導入する。
最後に、ネットワークが正のクエリと、ベストマッチしない他の非常に類似したクエリを区別することが課題となる。
論文 参考訳(メタデータ) (2023-07-01T13:53:14Z) - Learning cross space mapping via DNN using large scale click-through
logs [38.94796244812248]
低レベルの視覚信号と高レベルのセマンティクスのギャップは、ディープニューラルネットワーク(DNN)の継続的な開発によって徐々に橋渡しされている。
1つのネットワークにおける画像とクエリを同時にモデル化し、画像-クエリ類似度計算のための統合DNNモデルを提案する。
1000のクエリによる画像検索評価タスクにおける定性的な結果と定量的な結果の両方が,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2023-02-26T09:00:35Z) - Robust Change Detection Based on Neural Descriptor Fields [53.111397800478294]
我々は、部分的に重なり合う観測結果とノイズのある局所化結果に頑健なオブジェクトレベルのオンライン変化検出手法を開発した。
形状符号の類似性を利用して物体を連想させ, 局所的な物体近傍の空間配置を比較することにより, 観測重複や局所雑音に対する頑健性を示す。
論文 参考訳(メタデータ) (2022-08-01T17:45:36Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z) - Low-Power Multi-Camera Object Re-Identification using Hierarchical
Neural Networks [9.884285377021044]
最先端技術は大規模で計算集約的なディープニューラルネットワーク(DNN)に依存している
トレーニングデータセットの属性ラベルを用いて効率的なオブジェクトreIDを実行する新しい階層型DNNアーキテクチャを提案する。
74%のメモリ削減、72%のオペレーション削減、67%のクエリレイテンシ削減、65%のエネルギー消費削減を実現しています。
論文 参考訳(メタデータ) (2021-06-19T23:59:26Z) - MRDet: A Multi-Head Network for Accurate Oriented Object Detection in
Aerial Images [51.227489316673484]
水平アンカーから変換された指向性提案を生成するために、任意指向領域提案ネットワーク(AO-RPN)を提案する。
正確なバウンディングボックスを得るために,検出タスクを複数のサブタスクに分離し,マルチヘッドネットワークを提案する。
各ヘッドは、対応するタスクに最適な特徴を学習するために特別に設計されており、ネットワークがオブジェクトを正確に検出することができる。
論文 参考訳(メタデータ) (2020-12-24T06:36:48Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - A novel Region of Interest Extraction Layer for Instance Segmentation [3.5493798890908104]
本稿では,既存のRoI抽出器の限界を克服する必要性を動機とする。
提案するレイヤ(Generic RoI Extractor - GRoIE)には,非ローカルなビルディングブロックとアテンション機構が導入され,パフォーマンスが向上する。
GRoIEは、オブジェクト検出とインスタンスセグメンテーションの両方のために、すべての2段階アーキテクチャとシームレスに統合できる。
論文 参考訳(メタデータ) (2020-04-28T17:07:32Z) - Rethinking Object Detection in Retail Stores [55.359582952686175]
そこで我々はLocountと略される新しいタスク、同時にオブジェクトのローカライゼーションとカウントを提案する。
Locountは、関心のあるオブジェクトのグループをインスタンス数でローカライズするアルゴリズムを必要とする。
大規模オブジェクトのローカライズと数えるデータセットを小売店で収集する。
論文 参考訳(メタデータ) (2020-03-18T14:01:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。