論文の概要: Electroencephalogram Sensor Data Compression Using An Asymmetrical
Sparse Autoencoder With A Discrete Cosine Transform Layer
- arxiv url: http://arxiv.org/abs/2309.12201v1
- Date: Fri, 15 Sep 2023 21:55:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-24 03:44:19.857982
- Title: Electroencephalogram Sensor Data Compression Using An Asymmetrical
Sparse Autoencoder With A Discrete Cosine Transform Layer
- Title(参考訳): 離散コサイン変換層を有する非対称スパースオートエンコーダを用いた脳波センサデータ圧縮
- Authors: Xin Zhu, Hongyi Pan, Shuaiang Rong, Ahmet Enis Cetin
- Abstract要約: 脳波信号を圧縮するために、離散コサイン変換(DCT)層を有する非対称スパースオートエンコーダを提案する。
提案手法は,各種データ圧縮実験における平均品質スコアを大幅に改善する。
- 参考スコア(独自算出の注目度): 3.316567107326828
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Electroencephalogram (EEG) data compression is necessary for wireless
recording applications to reduce the amount of data that needs to be
transmitted. In this paper, an asymmetrical sparse autoencoder with a discrete
cosine transform (DCT) layer is proposed to compress EEG signals. The encoder
module of the autoencoder has a combination of a fully connected linear layer
and the DCT layer to reduce redundant data using hard-thresholding
nonlinearity. Furthermore, the DCT layer includes trainable hard-thresholding
parameters and scaling layers to give emphasis or de-emphasis on individual DCT
coefficients. Finally, the one-by-one convolutional layer generates the latent
space. The sparsity penalty-based cost function is employed to keep the feature
map as sparse as possible in the latent space. The latent space data is
transmitted to the receiver. The decoder module of the autoencoder is designed
using the inverse DCT and two fully connected linear layers to improve the
accuracy of data reconstruction. In comparison to other state-of-the-art
methods, the proposed method significantly improves the average quality score
in various data compression experiments.
- Abstract(参考訳): 電子脳波(eeg)データ圧縮は、送信すべきデータ量を減らすために、無線記録アプリケーションに必要なものである。
本稿では,eeg信号を圧縮するために,離散コサイン変換(dct)層を有する非対称スパースオートエンコーダを提案する。
オートエンコーダのエンコーダモジュールは、完全連結線形層とDCT層とを組み合わせて、ハードスレッディング非線形性を用いて冗長データを削減する。
さらに、dct層は、個々のdct係数を強調または強調する訓練可能なハードthresholdパラメータとスケーリング層を含む。
最後に、1対1の畳み込み層は潜在空間を生成する。
sparsityペナルティに基づくコスト関数は、潜在空間における機能マップを可能な限りスパースに保つために使用される。
潜時空間データは受信機に送信される。
オートエンコーダのデコーダモジュールは、逆dctと2つの完全連結線形層を用いて設計され、データ再構成の精度が向上する。
他の最先端手法と比較して,提案手法は各種データ圧縮実験における平均品質スコアを大幅に改善する。
関連論文リスト
- Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - A novel asymmetrical autoencoder with a sparsifying discrete cosine
Stockwell transform layer for gearbox sensor data compression [11.259187827568558]
本稿では,信号適応型非対称オートエンコーダを変換領域層で提案し,センサ信号の圧縮を行う。
提案手法は,コネチカット大学 (UoC) や南東大学 (SEU) のギアボックスデータセットにおいて,他のオートエンコーダ方式よりも優れている。
論文 参考訳(メタデータ) (2023-10-04T14:50:58Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Efficient Data Compression for 3D Sparse TPC via Bicephalous
Convolutional Autoencoder [8.759778406741276]
この研究は、textitBicephalous Convolutional AutoEncoder (BCAE)と呼ばれる、空間と回帰を同時に解決するデュアルヘッドオートエンコーダを導入している。
これはMGARD、SZ、ZFPといった従来のデータ圧縮手法と比較して圧縮忠実度と比の両方の利点を示している。
論文 参考訳(メタデータ) (2021-11-09T21:26:37Z) - Neural Distributed Source Coding [59.630059301226474]
相関構造に依存せず,高次元までスケール可能な損失DSCのためのフレームワークを提案する。
提案手法は,複数のデータセット上で評価し,複雑な相関関係と最先端PSNRを扱えることを示す。
論文 参考訳(メタデータ) (2021-06-05T04:50:43Z) - Gradient flow encoding with distance optimization adaptive step size [10.973034520723957]
グラデーションフローを用いて潜在空間内のデータサンプルをエンコードするデコーダのみの手法を検討する。
私たちの実験では、GFEは自動符号化モデルよりもはるかに高いデータ効率を示しました。
論文 参考訳(メタデータ) (2021-05-11T13:38:23Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z) - Balancing Cost and Benefit with Tied-Multi Transformers [24.70761584719857]
シーケンス・ツー・シーケンス・モデリングでは、N層エンコーダの最後の層の出力をM層デコーダに供給し、最後のデコーダ層の出力を用いて損失を算出する。
提案手法はNxM損失からなる単一損失を計算し,各損失をNエンコーダ層に接続されたMデコーダ層の出力から算出する。
このようなモデルは、エンコーダ層とデコーダ層の数が異なるNxMモデルを仮定し、エンコーダ層とデコーダ層の最大数より少ないデコードに使用できる。
論文 参考訳(メタデータ) (2020-02-20T08:20:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。