論文の概要: A Preliminary Study on Pattern Reconstruction for Optimal Storage of
Wearable Sensor Data
- arxiv url: http://arxiv.org/abs/2302.12972v1
- Date: Sat, 25 Feb 2023 03:33:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 19:46:22.333668
- Title: A Preliminary Study on Pattern Reconstruction for Optimal Storage of
Wearable Sensor Data
- Title(参考訳): ウェアラブルセンサデータの最適保存のためのパターン再構成に関する予備的検討
- Authors: Sazia Mahfuz and Farhana Zulkernine
- Abstract要約: 医療データを効率的に保存するための1つのアプローチは、関連する特徴と代表的特徴を抽出し、連続的なストリーミングデータではなく、それらの特徴のみを保存することである。
本稿では,人間の行動認識(HAR)センサデータに対する簡潔な特徴抽出と再構成のための複数のオートエンコーダについて予備的検討を行った。
我々のMulti-Layer Perceptron(MLP)ディープオートエンコーダは,他の3つの実装オートエンコーダと比較して90.18%のストレージ削減を達成した。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Efficient querying and retrieval of healthcare data is posing a critical
challenge today with numerous connected devices continuously generating
petabytes of images, text, and internet of things (IoT) sensor data. One
approach to efficiently store the healthcare data is to extract the relevant
and representative features and store only those features instead of the
continuous streaming data. However, it raises a question as to the amount of
information content we can retain from the data and if we can reconstruct the
pseudo-original data when needed. By facilitating relevant and representative
feature extraction, storage and reconstruction of near original pattern, we aim
to address some of the challenges faced by the explosion of the streaming data.
We present a preliminary study, where we explored multiple autoencoders for
concise feature extraction and reconstruction for human activity recognition
(HAR) sensor data. Our Multi-Layer Perceptron (MLP) deep autoencoder achieved a
storage reduction of 90.18% compared to the three other implemented
autoencoders namely convolutional autoencoder, Long-Short Term Memory (LSTM)
autoencoder, and convolutional LSTM autoencoder which achieved storage
reductions of 11.18%, 49.99%, and 72.35% respectively. Encoded features from
the autoencoders have smaller size and dimensions which help to reduce the
storage space. For higher dimensions of the representation, storage reduction
was low. But retention of relevant information was high, which was validated by
classification performed on the reconstructed data.
- Abstract(参考訳): 医療データの効率的なクエリと検索は、多くの接続デバイスがペタバイト単位のイメージ、テキスト、モノのインターネット(IoT)センサーデータを継続的に生成することで、今日の重要な課題となっている。
医療データを効率的に保存するための1つのアプローチは、関連する特徴と代表的特徴を抽出し、継続的なストリーミングデータの代わりにそれらの特徴だけを保存することである。
しかし、データから保持できる情報コンテンツの量や、必要に応じて擬似オリジナルデータを再構築できるかどうかについて疑問を呈する。
類似した特徴抽出,記憶,復元を容易にすることで,ストリーミングデータの爆発によって直面する課題を解決することを目的とする。
本稿では,人間行動認識(har)センサデータの簡潔な特徴抽出と再構成のためのマルチオートエンコーダについて検討した。
多層パーセプトロン (mlp) 深層オートエンコーダは, 畳み込みオートエンコーダ, 長短項メモリ (lstm) オートエンコーダ, 畳み込みlstmオートエンコーダの3つの実装オートエンコーダと比較して, それぞれ11.18%, 49.99%, 72.35%のストレージ削減を達成した。
オートエンコーダのエンコードされた機能はサイズと寸法が小さく、ストレージスペースの削減に役立ちます。
高次元の表現では、ストレージの削減は低かった。
しかし, 関連情報の保持は高く, 再構成データに基づく分類によって検証された。
関連論文リスト
- Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Neural-based Compression Scheme for Solar Image Data [8.374518151411612]
我々は、NASAのデータ集約画像ミッションで使用されるニューラルネットワークに基づく損失圧縮手法を提案する。
本研究では,画像の局所構造と大域構造の両方を捉えるために,局所的および非局所的アテンションモジュールを備えた逆トレーニングニューラルネットワークを提案する。
このアルゴリズムをSDOデータ解析に使用するための概念実証として、圧縮画像を用いてコロナホール(CH)検出を行った。
論文 参考訳(メタデータ) (2023-11-06T04:13:58Z) - Edge Storage Management Recipe with Zero-Shot Data Compression for Road
Anomaly Detection [1.4563998247782686]
本研究では,高忠実度音声を保存しながら,効率的なストレージ管理手法を提案する。
収集した高解像度オーディオをコンパクトなコードに符号化する計算ファイル圧縮手法を推奨する。
そこで本研究では,単純かつ効果的なオートエンコーダに基づくデータ圧縮手法を提案する。
論文 参考訳(メタデータ) (2023-07-10T01:30:21Z) - Vehicle Detection and Classification without Residual Calculation:
Accelerating HEVC Image Decoding with Random Perturbation Injection [0.0]
本研究では,HEVCビットストリームからの画像を再構成するランダム摂動に基づく圧縮領域法を提案する。
従来の完全復号化手法と比較して,復元速度が大幅に向上したことを示す。
検出精度は画素領域法に匹敵する99.9%,分類精度96.84%,画素領域法に匹敵する0.98%であった。
論文 参考訳(メタデータ) (2023-05-14T22:04:00Z) - Memory Replay with Data Compression for Continual Learning [80.95444077825852]
古いトレーニングサンプルの記憶コストを低減するため,データ圧縮によるメモリリプレイを提案する。
我々はこれを、クラスインクリメンタル学習のいくつかのベンチマークと、自律運転のためのオブジェクト検出の現実的なシナリオにおいて、広範囲に検証する。
論文 参考訳(メタデータ) (2022-02-14T10:26:23Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Deep DNA Storage: Scalable and Robust DNA Storage via Coding Theory and
Deep Learning [49.3231734733112]
シミュレーションデータに基づいてトレーニングされたDeep Neural Networks(DNN)、Product(TP)ベースのエラー修正コード(ECC)、安全マージンを1つのコヒーレントパイプラインに組み合わせたモジュラーで総合的なアプローチを示す。
我々の研究は, 最大で x3200 の速度向上, 40%の精度向上により, 現在の指導的ソリューションの改善を実現し, 高雑音下では1ベースあたり1.6ビットのコードレートを提供する。
論文 参考訳(メタデータ) (2021-08-31T18:21:20Z) - A Variational Information Bottleneck Based Method to Compress Sequential
Networks for Human Action Recognition [9.414818018857316]
本稿では,人間行動認識(HAR)に用いるリカレントニューラルネットワーク(RNN)を効果的に圧縮する手法を提案する。
変分情報ボトルネック(VIB)理論に基づくプルーニング手法を用いて,RNNの逐次セルを流れる情報の流れを小さなサブセットに制限する。
我々は、圧縮を大幅に改善する特定のグループ・ラッソ正規化手法とプルーニング手法を組み合わせる。
提案手法は,UCF11上での動作認識の精度に比較して,最も近い競合に比べて70倍以上の圧縮を実現する。
論文 参考訳(メタデータ) (2020-10-03T12:41:51Z) - OctSqueeze: Octree-Structured Entropy Model for LiDAR Compression [77.8842824702423]
本稿では,LiDAR点雲のメモリフットプリントを削減するための新しいディープ圧縮アルゴリズムを提案する。
本手法は,メモリフットプリントを低減するために,点間の間隔と構造的冗長性を利用する。
我々のアルゴリズムは、自動運転車などのアプリケーションにおいて、LiDARポイントのオンボードおよびオフボードストレージを減らすために使用できる。
論文 参考訳(メタデータ) (2020-05-14T17:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。