論文の概要: Boosting Mobile CNN Inference through Semantic Memory
- arxiv url: http://arxiv.org/abs/2112.02644v1
- Date: Sun, 5 Dec 2021 18:18:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 18:03:55.100883
- Title: Boosting Mobile CNN Inference through Semantic Memory
- Title(参考訳): 意味記憶によるモバイルcnn推論の促進
- Authors: Yun Li, Chen Zhang, Shihao Han, Li Lyna Zhang, Baoqun Yin, Yunxin Liu,
Mengwei Xu
- Abstract要約: デバイス上のCNN推論を改善するためのセマンティックメモリ設計を開発する。
SMTMは、関心のあるオブジェクトの長いテール分布を利用するために階層型メモリアーキテクチャを採用している。
標準的なアプローチ(最大2倍)や以前のキャッシュ設計(最大1.5倍)よりもモデル推論を大幅に高速化し、精度の低下を許容できる。
- 参考スコア(独自算出の注目度): 12.45440733435801
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human brains are known to be capable of speeding up visual recognition of
repeatedly presented objects through faster memory encoding and accessing
procedures on activated neurons. For the first time, we borrow and distill such
a capability into a semantic memory design, namely SMTM, to improve on-device
CNN inference. SMTM employs a hierarchical memory architecture to leverage the
long-tail distribution of objects of interest, and further incorporates several
novel techniques to put it into effects: (1) it encodes high-dimensional
feature maps into low-dimensional, semantic vectors for low-cost yet accurate
cache and lookup; (2) it uses a novel metric in determining the exit timing
considering different layers' inherent characteristics; (3) it adaptively
adjusts the cache size and semantic vectors to fit the scene dynamics. SMTM is
prototyped on commodity CNN engine and runs on both mobile CPU and GPU.
Extensive experiments on large-scale datasets and models show that SMTM can
significantly speed up the model inference over standard approach (up to 2X)
and prior cache designs (up to 1.5X), with acceptable accuracy loss.
- Abstract(参考訳): 人間の脳は、活性化ニューロンの高速なメモリエンコーディングとアクセス手順を通じて、繰り返し提示された物体の視覚的認識を高速化することが知られている。
デバイス上でのCNN推論を改善するために,このような機能をSMTMというセマンティックメモリ設計に借用し,蒸留する。
SMTM employs a hierarchical memory architecture to leverage the long-tail distribution of objects of interest, and further incorporates several novel techniques to put it into effects: (1) it encodes high-dimensional feature maps into low-dimensional, semantic vectors for low-cost yet accurate cache and lookup; (2) it uses a novel metric in determining the exit timing considering different layers' inherent characteristics; (3) it adaptively adjusts the cache size and semantic vectors to fit the scene dynamics.
SMTMはコモディティCNNエンジンでプロトタイプされ、モバイルCPUとGPUの両方で動作する。
大規模なデータセットとモデルに対する大規模な実験により、SMTMは標準アプローチ(2Xまで)や以前のキャッシュ設計(1.5Xまで)よりもモデル推論を大幅に高速化し、精度の低下を許容できることが示された。
関連論文リスト
- B'MOJO: Hybrid State Space Realizations of Foundation Models with Eidetic and Fading Memory [91.81390121042192]
我々はB'MOJOと呼ばれるモデル群を開発し、構成可能なモジュール内で理想的メモリと暗黙的メモリをシームレスに結合する。
B'MOJOのイデオティックメモリとフェードメモリを変調する能力は、32Kトークンまでテストされた長いシーケンスの推論をより良くする。
論文 参考訳(メタデータ) (2024-07-08T18:41:01Z) - Robust and Efficient Memory Network for Video Object Segmentation [6.7995672846437305]
本稿では,半教師付きビデオオブジェクトセグメンテーション(VOS)研究のためのロバストかつ効率的なメモリネットワーク(REMN)を提案する。
我々は,前景の物体の特徴を前景のマスクで高めることにより,背景の乱れに対処する局所的な注意機構を導入する。
実験によると、我々のREMNはDAVIS 2017で最先端の結果を達成しており、$mathcalJ&F$スコアは86.3%、YouTube-VOS 2018では$mathcalG$平均85.5%である。
論文 参考訳(メタデータ) (2023-04-24T06:19:21Z) - TinyAD: Memory-efficient anomaly detection for time series data in
Industrial IoT [43.207210990362825]
我々は,リアルタイムな異常検出のためのCNNのオンボード推論を効率的に行うための,Tiny Anomaly Detection (TinyAD) という新しいフレームワークを提案する。
CNNのピークメモリ消費を低減するため、我々は2つの相補的戦略、 in-place と patch-by-patch のメモリ再スケジューリングについて検討する。
我々のフレームワークは、オーバーヘッドを無視してピークメモリ消費を2~5倍削減できる。
論文 参考訳(メタデータ) (2023-03-07T02:56:15Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Memory-Guided Semantic Learning Network for Temporal Sentence Grounding [55.31041933103645]
本稿では,TSGタスクにおいて稀に出現しないコンテンツを学習し,記憶するメモリ拡張ネットワークを提案する。
MGSL-Netは、クロスモーダル・インターアクション・モジュール、メモリ拡張モジュール、異種アテンション・モジュールの3つの主要な部分で構成されている。
論文 参考訳(メタデータ) (2022-01-03T02:32:06Z) - Memory-Augmented Deep Unfolding Network for Compressive Sensing [7.123516761504439]
メモリ拡張Deep Unfolding Network (MADUN) は、切り捨てられた最適化手法をディープニューラルネットワークにマッピングするために提案されている。
我々はMADUNが既存の最先端手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2021-10-19T07:03:12Z) - Unsupervised Motion Representation Learning with Capsule Autoencoders [54.81628825371412]
Motion Capsule Autoencoder (MCAE) は、2レベル階層のモーションをモデル化する。
MCAEは、新しいTrajectory20モーションデータセットと、様々な現実世界の骨格に基づく人間のアクションデータセットで評価されている。
論文 参考訳(メタデータ) (2021-10-01T16:52:03Z) - Memformer: A Memory-Augmented Transformer for Sequence Modeling [55.780849185884996]
本稿では、シーケンスモデリングのための効率的なニューラルネットワークであるMemformerを紹介する。
我々のモデルは長いシーケンスを処理する際に線形時間複雑性と一定メモリ空間複雑性を実現する。
論文 参考訳(メタデータ) (2020-10-14T09:03:36Z) - Robust High-dimensional Memory-augmented Neural Networks [13.82206983716435]
メモリ拡張ニューラルネットワークは、これらの問題を克服するために、明示的なメモリでニューラルネットワークを強化する。
この明示的なメモリへのアクセスは、各個々のメモリエントリを含むソフト読み取りおよび書き込み操作を介して行われる。
本稿では,高次元(HD)ベクトル上でのアナログインメモリ計算を行う明示メモリとして,計算メモリユニットを用いた頑健なアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-05T12:01:56Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z) - STH: Spatio-Temporal Hybrid Convolution for Efficient Action Recognition [39.58542259261567]
本稿では,空間的・時間的映像情報を小さなパラメータで同時に符号化するS-Temporal Hybrid Network(STH)を提案する。
このような設計は、効率的な時間的モデリングを可能にし、小さなモデルスケールを維持する。
STHは、3D CNNよりもパフォーマンス上の優位性を持ち、2D CNNよりもはるかに少ないパラメータコストを維持している。
論文 参考訳(メタデータ) (2020-03-18T04:46:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。