論文の概要: SSBNet: Improving Visual Recognition Efficiency by Adaptive Sampling
- arxiv url: http://arxiv.org/abs/2207.11511v1
- Date: Sat, 23 Jul 2022 13:01:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:04:03.434770
- Title: SSBNet: Improving Visual Recognition Efficiency by Adaptive Sampling
- Title(参考訳): SSBNet:適応サンプリングによる視覚認識効率の向上
- Authors: Ho Man Kwan and Shenghui Song
- Abstract要約: ディープニューラルネットワークのビルディングブロックにおける適応サンプリングを用いることで、その効率が向上することを示す。
特に,サンプリング層をResNetなどの既存ネットワークに繰り返し挿入することで構築するSSBNetを提案する。
実験結果から,提案したSSBNetは,ImageNetおよびデータセット上での競合画像分類とオブジェクト検出性能を実現することができることがわかった。
- 参考スコア(独自算出の注目度): 1.7767466724342065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Downsampling is widely adopted to achieve a good trade-off between accuracy
and latency for visual recognition. Unfortunately, the commonly used pooling
layers are not learned, and thus cannot preserve important information. As
another dimension reduction method, adaptive sampling weights and processes
regions that are relevant to the task, and is thus able to better preserve
useful information. However, the use of adaptive sampling has been limited to
certain layers. In this paper, we show that using adaptive sampling in the
building blocks of a deep neural network can improve its efficiency. In
particular, we propose SSBNet which is built by inserting sampling layers
repeatedly into existing networks like ResNet. Experiment results show that the
proposed SSBNet can achieve competitive image classification and object
detection performance on ImageNet and COCO datasets. For example, the
SSB-ResNet-RS-200 achieved 82.6% accuracy on ImageNet dataset, which is 0.6%
higher than the baseline ResNet-RS-152 with a similar complexity. Visualization
shows the advantage of SSBNet in allowing different layers to focus on
different positions, and ablation studies further validate the advantage of
adaptive sampling over uniform methods.
- Abstract(参考訳): ダウンサンプリングは、視覚認識の精度と遅延の良好なトレードオフを達成するために広く採用されている。
残念ながら、一般的に使用されるプール層は学習されず、重要な情報を保存できない。
別の次元削減法として、タスクに関連する適応的なサンプリングウェイトとプロセス領域があり、有用な情報をよりよく保存することができる。
しかし、適応サンプリングの使用は特定の層に限定されている。
本稿では,ディープニューラルネットワークのビルディングブロックにおける適応サンプリングを用いることで,その効率を向上できることを示す。
特に,サンプリング層をResNetなどの既存ネットワークに繰り返し挿入することで構築するSSBNetを提案する。
実験の結果,提案したSSBNetは,ImageNetおよびCOCOデータセット上での競合画像分類とオブジェクト検出性能を実現することができることがわかった。
例えば、ssb-resnet-rs-200はimagenetデータセットにおいて82.6%の精度を達成し、同じ複雑さを持つベースラインのresnet-rs-152よりも0.6%高い。
可視化により、異なる層が異なる位置に集中できるssbnetの利点が示され、アブレーションの研究により、均一な方法による適応サンプリングの利点がさらに検証された。
関連論文リスト
- Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Content-aware Scalable Deep Compressed Sensing [8.865549833627794]
本稿では、画像圧縮センシング問題に対処するため、CASNetと呼ばれる新しいコンテンツ対応スケーラブルネットワークを提案する。
まず,各画像領域の重要度を評価するためにデータ駆動型サリエンシ検出器を採用し,サンプリングレートアロケーションのためのサリエンシベースのブロック比アグリゲーション(BRA)戦略を提案する。
トレーニングの収束を加速し、ネットワークの堅牢性を向上させるために、SVDベースのスキームとランダム変換強化(RTE)戦略を提案する。
論文 参考訳(メタデータ) (2022-07-19T14:59:14Z) - SalFBNet: Learning Pseudo-Saliency Distribution via Feedback
Convolutional Networks [8.195696498474579]
本稿では,サリエンシ検出のためのフィードバック再帰的畳み込みフレームワーク(SalFBNet)を提案する。
大規模Pseudo-Saliencyデータセットを作成し、唾液度検出におけるデータ不足の問題を軽減する。
論文 参考訳(メタデータ) (2021-12-07T14:39:45Z) - supervised adptive threshold network for instance segmentation [4.347876036795798]
適応しきい値に基づくマスクR-CNN法
層状適応ネットワーク構造
アダプティブ・フィーチャー・プール
ベンチマークデータセットの実験から,提案モデルの有効性が示唆された。
論文 参考訳(メタデータ) (2021-06-07T09:25:44Z) - BCNet: Searching for Network Width with Bilaterally Coupled Network [56.14248440683152]
この問題に対処するため、BCNet(Bilaterally Coupled Network)と呼ばれる新しいスーパーネットを導入する。
BCNetでは、各チャネルは高度に訓練され、同じ量のネットワーク幅を担っているため、ネットワーク幅をより正確に評価することができる。
提案手法は,他のベースライン手法と比較して,最先端あるいは競合的な性能を実現する。
論文 参考訳(メタデータ) (2021-05-21T18:54:03Z) - Selective Output Smoothing Regularization: Regularize Neural Networks by
Softening Output Distributions [5.725228891050467]
畳み込みニューラルネットワーク(CNN)を学習するための新しい正規化手法であるSelective Output Smoothing Regularizationを提案する。
異なるサンプルからのトレーニングに対する多様な影響にインスパイアされたSelective Output Smoothing Regularizationは、モデルに不正なクラスで同等のロジットを生成するように促すことによって、パフォーマンスを改善する。
このプラグアンドプレイ正規化方法は、余分な手間をかけずに、ほぼすべてのCNNベースのプロジェクトに便利に組み込むことができる。
論文 参考訳(メタデータ) (2021-03-29T07:21:06Z) - MOPS-Net: A Matrix Optimization-driven Network forTask-Oriented 3D Point
Cloud Downsampling [86.42733428762513]
MOPS-Netは行列最適化のための新しい解釈可能な深層学習手法である。
我々はMOPS-Netが様々なタスクに対して最先端の深層学習手法に対して好適な性能が得られることを示す。
論文 参考訳(メタデータ) (2020-05-01T14:01:53Z) - Deep Adaptive Inference Networks for Single Image Super-Resolution [72.7304455761067]
シングルイメージ超解像(SISR)は、ディープ畳み込みニューラルネットワーク(CNN)の展開により、近年大きく進歩している。
本稿では,深部SISR(AdaDSR)の適応型推論ネットワークを活用することで,この問題に対処する。
我々のAdaDSRは、SISRモデルをバックボーンとし、画像の特徴とリソース制約を入力として取り、ローカルネットワーク深さのマップを予測する軽量アダプタモジュールを備える。
論文 参考訳(メタデータ) (2020-04-08T10:08:20Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。