論文の概要: Compression of descriptor models for mobile applications
- arxiv url: http://arxiv.org/abs/2001.03102v3
- Date: Fri, 5 Feb 2021 10:41:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 05:06:18.739891
- Title: Compression of descriptor models for mobile applications
- Title(参考訳): モバイルアプリケーションのためのディスクリプタモデルの圧縮
- Authors: Roy Miles, Krystian Mikolajczyk
- Abstract要約: 深層ニューラルネットワークにおける計算コスト,モデルサイズ,マッチング精度のトレードオフを評価する。
我々は、深度的に分離可能な層を用いることで、学習重量の顕著な冗長性を観察する。
本稿では,標準的な畳み込みと奥行き分離可能な畳み込みを補間する手段を提供する,畳み込み-Depthwise-Pointwise(CDP)層を提案する。
- 参考スコア(独自算出の注目度): 26.498907514590165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have demonstrated state-of-the-art performance for
feature-based image matching through the advent of new large and diverse
datasets. However, there has been little work on evaluating the computational
cost, model size, and matching accuracy tradeoffs for these models. This paper
explicitly addresses these practical metrics by considering the
state-of-the-art HardNet model. We observe a significant redundancy in the
learned weights, which we exploit through the use of depthwise separable layers
and an efficient Tucker decomposition. We demonstrate that a combination of
these methods is very effective, but still sacrifices the top-end accuracy. To
resolve this, we propose the Convolution-Depthwise-Pointwise(CDP) layer, which
provides a means of interpolating between the standard and depthwise separable
convolutions. With this proposed layer, we can achieve an 8 times reduction in
the number of parameters on the HardNet model, 13 times reduction in the
computational complexity, while sacrificing less than 1% on the overall
accuracy across theHPatchesbenchmarks. To further demonstrate the
generalisation of this approach, we apply it to the state-of-the-art SuperPoint
model, where we can significantly reduce the number of parameters and
floating-point operations, with minimal degradation in the matching accuracy.
- Abstract(参考訳): ディープニューラルネットワークは、新しい大規模で多様なデータセットの出現を通じて、特徴ベースの画像マッチングのための最先端のパフォーマンスを実証した。
しかし、これらのモデルの計算コスト、モデルサイズ、およびマッチング精度のトレードオフを評価する作業はほとんど行われていない。
本稿では,最先端のハードネットモデルを用いて,これらの実用的指標を明確に扱う。
我々は, 深度分離可能な層と効率的なタッカー分解を用いて, 学習重量の顕著な冗長性を観察した。
これらの手法の組み合わせは非常に効果的であるが、それでもトップエンドの精度を犠牲にしている。
そこで,本稿では,標準値と深さ値の分離可能な畳み込みを補間する手法として,畳み込み-奥行き点分割(cdp)層を提案する。
提案手法により,HardNetモデルのパラメータ数を8倍に削減し,計算複雑性を13倍に削減し,HPatchesbenchmark全体の精度を1%以下に抑えることができる。
さらに本手法の一般化を実証するため,提案手法を最先端のSuperPointモデルに適用し,パラメータ数や浮動小数点演算を大幅に削減し,マッチング精度の低下を最小限に抑える。
関連論文リスト
- WiNet: Wavelet-based Incremental Learning for Efficient Medical Image Registration [68.25711405944239]
深部画像登録は異常な精度と高速な推測を示した。
近年の進歩は、粗大から粗大の方法で密度変形場を推定するために、複数のカスケードまたはピラミッドアーキテクチャを採用している。
本稿では,様々なスケールにわたる変位/速度場に対して,スケールワイブレット係数を漸進的に推定するモデル駆動WiNetを提案する。
論文 参考訳(メタデータ) (2024-07-18T11:51:01Z) - Augmenting Hessians with Inter-Layer Dependencies for Mixed-Precision
Post-Training Quantization [7.392278887917975]
本稿では,ネットワーク上のテンソルに異なる数値精度を割り当てる混合精度ポストトレーニング量子化手法を提案する。
実験では,16ビットベースラインの25.48%$,21.69%$,33.28%$に対して,レイテンシの低減を実証した。
論文 参考訳(メタデータ) (2023-06-08T02:18:58Z) - Pushing the Limits of Asynchronous Graph-based Object Detection with
Event Cameras [62.70541164894224]
低計算を維持しながら、そのようなモデルの深さと複雑さを拡大できるアーキテクチャ選択をいくつか導入する。
我々の手法は、密度の高いグラフニューラルネットワークよりも3.7倍高速に動作し、前方通過はわずか8.4msである。
論文 参考訳(メタデータ) (2022-11-22T15:14:20Z) - Deep learning model compression using network sensitivity and gradients [3.52359746858894]
非リトレーニング条件とリトレーニング条件の両方に対するモデル圧縮アルゴリズムを提案する。
まず,ネットワークパラメータの感度を用いた深層学習モデルの圧縮のためのBin & Quantアルゴリズムを提案する。
第2のケースでは、新しい勾配重み付きk平均クラスタリングアルゴリズム(GWK)を提案する。
論文 参考訳(メタデータ) (2022-10-11T03:02:40Z) - Load-balanced Gather-scatter Patterns for Sparse Deep Neural Networks [20.374784902476318]
モデル重み付けにゼロを導入する方法として, モデル精度と計算効率のトレードオフを良好に提供する方法として, プルーニングが有効であることが示されている。
現代のプロセッサには、高速なオンチップスクラッチパッドメモリと、間接的に負荷を発生させ、そのようなメモリ上の操作を格納する集/散乱エンジンが備わっている。
本研究では,スクラッチパッドメモリと集合/散乱エンジンを利用して,ニューラルネットワークの推論を高速化する,新しいスパースパターン(GSパターン)を提案する。
論文 参考訳(メタデータ) (2021-12-20T22:55:45Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - Training with Quantization Noise for Extreme Model Compression [57.51832088938618]
与えられたモデルサイズに対する精度を最大化しながら、コンパクトなモデルを作成するという問題に取り組む。
標準的な解決策は、トレーニング中に重みが定量化され、勾配がストレート・スルー推定器に近似される量子化意識訓練(Quantization Aware Training)でネットワークをトレーニングすることである。
本稿では, この手法を, 極端な圧縮法を用いて, int8 の固定点量子化を超えて機能するように拡張する。
論文 参考訳(メタデータ) (2020-04-15T20:10:53Z) - Highly Efficient Salient Object Detection with 100K Parameters [137.74898755102387]
そこで我々は,段階内および複数ステージのマルチスケール機能を効率的に活用するために,フレキシブルな畳み込みモジュールであるOctoConv(gOctConv)を提案する。
我々は、非常に軽量なモデル、すなわちCSNetを構築し、一般的なオブジェクト検出ベンチマークで、約0.2%(100k)の大規模モデルで同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-12T07:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。