論文の概要: Binarized Neural Networks for Resource-Constrained On-Device Gait
Identification
- arxiv url: http://arxiv.org/abs/2103.16609v1
- Date: Tue, 30 Mar 2021 18:29:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:27:24.637914
- Title: Binarized Neural Networks for Resource-Constrained On-Device Gait
Identification
- Title(参考訳): 資源制約付きオンデバイス歩行同定のための二元化ニューラルネットワーク
- Authors: Daniel J. Wu, Avoy Datta and Vinay Prabhu
- Abstract要約: バイナライズニューラルネットワークは堅牢な判別器として機能し、許容されるレベルの精度を維持しつつ、メモリ要件を劇的に減少させることが示されています。
Padovaの歩行データセットの最先端のデータとほぼ一致するコンパクトなCNNであるBiPedalNetを提案し、メモリのオーバーヘッドはわずか1/32です。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: User authentication through gait analysis is a promising application of
discriminative neural networks -- particularly due to the ubiquity of the
primary sources of gait accelerometry, in-pocket cellphones. However,
conventional machine learning models are often too large and computationally
expensive to enable inference on low-resource mobile devices. We propose that
binarized neural networks can act as robust discriminators, maintaining both an
acceptable level of accuracy while also dramatically decreasing memory
requirements, thereby enabling on-device inference. To this end, we propose
BiPedalNet, a compact CNN that nearly matches the state-of-the-art on the
Padova gait dataset, with only 1/32 of the memory overhead.
- Abstract(参考訳): 歩行分析によるユーザ認証は、差別的ニューラルネットワークの有望な応用である。特に、歩行加速度計の主要な情報源であるポケット内携帯電話の普及によりである。
しかし、従来の機械学習モデルは、多くの場合、大きすぎて計算コストが高く、低リソースのモバイルデバイスで推論を可能にする。
本稿では、二項化ニューラルネットワークが堅牢な判別器として機能し、許容レベルの精度を維持しつつ、メモリ要求を劇的に低減し、オンデバイス推論を可能にすることを提案する。
この目的のために我々は,Padova Gaitデータセットの最先端とほぼ一致し,メモリオーバーヘッドの1/32しか持たない,コンパクトなCNNであるBiPedalNetを提案する。
関連論文リスト
- Enabling On-device Continual Learning with Binary Neural Networks [3.180732240499359]
連続学習(CL)とバイナリニューラルネットワーク(BNN)の分野における最近の進歩を組み合わせたソリューションを提案する。
具体的には,2値の潜在リプレイアクティベーションと,勾配計算に必要なビット数を大幅に削減する新しい量子化方式を利用する。
論文 参考訳(メタデータ) (2024-01-18T11:57:05Z) - Quantization-aware Neural Architectural Search for Intrusion Detection [5.010685611319813]
本稿では、最先端NNの1000倍の規模を持つ量子化ニューラルネットワーク(NN)モデルを自動的に訓練し、進化させる設計手法を提案する。
FPGAにデプロイする際にこのネットワークが利用するLUTの数は2.3倍から8.5倍と小さく、性能は以前の作業に匹敵する。
論文 参考訳(メタデータ) (2023-11-07T18:35:29Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Recurrent neural networks that generalize from examples and optimize by
dreaming [0.0]
オンライン学習のためのHebbの処方則に従って,ニューロン間のペア結合が構築される一般化されたホップフィールドネットワークを導入する。
ネットワークエクスペリエンスは、パターン毎にノイズの多いサンプルのサンプルで構成されたデータセットに過ぎません。
注目すべきは、睡眠メカニズムが常に正しく一般化するために必要なデータセットサイズを著しく削減することです。
論文 参考訳(メタデータ) (2022-04-17T08:40:54Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Binary Neural Network for Speaker Verification [13.472791713805762]
本稿では,二元的ニューラルネットワークを話者検証の課題に適用する方法に焦点をあてる。
実験の結果、Convolutional Neural Networkをバイナライズした後、ResNet34ベースのネットワークは約5%のEERを達成した。
論文 参考訳(メタデータ) (2021-04-06T06:04:57Z) - Enabling Binary Neural Network Training on the Edge [7.32770338248516]
既存のバイナリニューラルネットワークトレーニング手法では、すべてのレイヤに対して高精度なアクティベーションを同時に保存する必要がある。
本稿では,メモリフットプリントの大幅な削減を図った,低コストなバイナリニューラルネットワークトレーニング戦略を提案する。
また、2ナライズされたResNet-18のin-scratch ImageNetトレーニングも実施し、3.78$times$メモリ削減を実現した。
論文 参考訳(メタデータ) (2021-02-08T15:06:41Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。