論文の概要: REST: Robust and Efficient Neural Networks for Sleep Monitoring in the
Wild
- arxiv url: http://arxiv.org/abs/2001.11363v1
- Date: Wed, 29 Jan 2020 17:23:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 21:02:37.353219
- Title: REST: Robust and Efficient Neural Networks for Sleep Monitoring in the
Wild
- Title(参考訳): REST: 野における睡眠監視のためのロバストで効率的なニューラルネットワーク
- Authors: Rahul Duggal, Scott Freitas, Cao Xiao, Duen Horng Chau, Jimeng Sun
- Abstract要約: ニューラルネットワークの逆トレーニングとLipschitz定数の制御を通じて、両問題に同時に対処する新しい方法であるRESTを提案する。
私たちは、RESTがノイズの存在下で、オリジナルのフルサイズのモデルを大幅に上回る、ロバストで効率的なモデルを生成することを実証しています。
これらのモデルをスマートフォン上のAndroidアプリケーションにデプロイすることにより、RESTによってモデルが最大17倍のエネルギー削減と9倍高速な推論を達成することができることを定量的に観察する。
- 参考スコア(独自算出の注目度): 62.36144064259933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, significant attention has been devoted towards integrating
deep learning technologies in the healthcare domain. However, to safely and
practically deploy deep learning models for home health monitoring, two
significant challenges must be addressed: the models should be (1) robust
against noise; and (2) compact and energy-efficient. We propose REST, a new
method that simultaneously tackles both issues via 1) adversarial training and
controlling the Lipschitz constant of the neural network through spectral
regularization while 2) enabling neural network compression through sparsity
regularization. We demonstrate that REST produces highly-robust and efficient
models that substantially outperform the original full-sized models in the
presence of noise. For the sleep staging task over single-channel
electroencephalogram (EEG), the REST model achieves a macro-F1 score of 0.67
vs. 0.39 achieved by a state-of-the-art model in the presence of Gaussian noise
while obtaining 19x parameter reduction and 15x MFLOPS reduction on two large,
real-world EEG datasets. By deploying these models to an Android application on
a smartphone, we quantitatively observe that REST allows models to achieve up
to 17x energy reduction and 9x faster inference. We open-source the code
repository with this paper: https://github.com/duggalrahul/REST.
- Abstract(参考訳): 近年,医療分野におけるディープラーニング技術の統合に注目が集まっている。
しかし、ホームヘルスモニタリングのためのディープラーニングモデルを安全かつ実践的に展開するには、(1)ノイズに対して頑健であること、(2)コンパクトでエネルギー効率のよいこと、の2つの大きな課題に対処する必要がある。
両問題に同時に対処する新しい方法であるRESTを提案する。
1)スペクトル正則化によるニューラルネットワークの逆トレーニングとリプシッツ定数の制御
2) 空間正規化によるニューラルネットワーク圧縮の実現。
私たちは、RESTがノイズの存在下で、オリジナルのフルサイズのモデルを大幅に上回る、ロバストで効率的なモデルを生成することを実証しています。
単一チャネル脳波(EEG)を用いた睡眠ステージタスクにおいて、RESTモデルは、ガウスノイズの存在下での最先端モデルによるマクロF1スコアが0.67対0.39で達成され、2つの大きな実世界のEEGデータセットに対して19xパラメータの削減と15xMFLOPSの削減が得られる。
これらのモデルをスマートフォン上のandroidアプリケーションにデプロイすることによって、restが最大17倍のエネルギー削減と9倍の高速化を実現することを定量的に観察する。
この記事では、コードリポジトリをオープンソースにしています。
関連論文リスト
- Truncated Consistency Models [57.50243901368328]
トレーニング一貫性モデルは、PF ODE 軌道に沿ったすべての中間点を対応するエンドポイントにマッピングする学習を必要とする。
このトレーニングパラダイムが一貫性モデルの1ステップ生成性能を制限することを実証的に見出した。
整合性関数の新しいパラメータ化と2段階の訓練手順を提案し,時間外学習が崩壊することを防ぐ。
論文 参考訳(メタデータ) (2024-10-18T22:38:08Z) - Exploring Green AI for Audio Deepfake Detection [21.17957700009653]
ディープニューラルネットワークを利用した最先端のオーディオディープフェイク検出器は、印象的な認識性能を示している。
ディープNLPモデルはCOtextsubscript2の約626klbのCOtextsubscript2を生成する。
そこで本研究では,標準CPUリソースを用いてシームレスにトレーニング可能な,オーディオディープフェイク検出のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-21T10:54:21Z) - EDAC: Efficient Deployment of Audio Classification Models For COVID-19
Detection [0.0]
新型コロナウイルスの世界的な感染拡大は、公衆衛生や世界経済に深刻な影響を及ぼした。
新型コロナウイルスを検出するために、さまざまな研究者が機械学習手法を利用した。
このソリューションは、CTスキャンや粗い音声信号などの様々な入力機能と、ディープニューラルネットワークアーキテクチャから生じる最先端の結果を活用する。
この問題に対処するため、私たちはまず、新型コロナウイルスを検出するためにうっ血録音を使用する2つのモデルを再現しました。
論文 参考訳(メタデータ) (2023-09-11T10:07:51Z) - A CNN-Transformer Deep Learning Model for Real-time Sleep Stage
Classification in an Energy-Constrained Wireless Device [2.5672176409865686]
本稿では,単一チャネル脳波データに基づく自動睡眠ステージ分類のためのディープラーニング(DL)モデルを提案する。
このモデルは、ローカル処理によるリアルタイム操作のために、エネルギーとメモリ制限されたデバイス上で動作するように設計された。
我々は、Arduino Nano 33 BLEボード上で、提案モデルの小型版をテストし、完全に機能し、精度が高かった。
論文 参考訳(メタデータ) (2022-11-20T16:22:30Z) - Go Beyond Multiple Instance Neural Networks: Deep-learning Models based
on Local Pattern Aggregation [0.0]
畳み込みニューラルネットワーク(CNN)は、臨床心電図(ECG)と話者非依存音声の処理においてブレークスルーをもたらした。
本稿では,局所的なパターン集約に基づくディープラーニングモデルを提案する。
LPANetと呼ばれる新しいネットワーク構造には、トリミングと集約操作が組み込まれている。
論文 参考訳(メタデータ) (2022-05-28T13:18:18Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Dynamic Model Pruning with Feedback [64.019079257231]
余分なオーバーヘッドを伴わずにスパーストレーニングモデルを生成する新しいモデル圧縮法を提案する。
CIFAR-10 と ImageNet を用いて本手法の評価を行い,得られたスパースモデルが高密度モデルの最先端性能に到達可能であることを示す。
論文 参考訳(メタデータ) (2020-06-12T15:07:08Z) - TinyLSTMs: Efficient Neural Speech Enhancement for Hearing Aids [13.369813069254132]
モデル圧縮技術を用いて、大型ニューラルネットワークとバッテリ駆動型補聴器ハードウェアのギャップを埋める。
我々は,ウェイト/アクティベーションのプルーニングと整数量子化を用いて,RNN音声強調の有効性を初めて実証した。
我々のモデルは計算遅延が2.39msで、10msの目標と、以前の作業よりも351$times$である。
論文 参考訳(メタデータ) (2020-05-20T20:37:47Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。