論文の概要: Orthogonal Features-based EEG Signal Denoising using Fractionally
Compressed AutoEncoder
- arxiv url: http://arxiv.org/abs/2102.08083v1
- Date: Tue, 16 Feb 2021 11:15:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:00:16.537671
- Title: Orthogonal Features-based EEG Signal Denoising using Fractionally
Compressed AutoEncoder
- Title(参考訳): フラクショナル圧縮オートエンコーダを用いた直交特徴に基づく脳波信号検出
- Authors: Subham Nagar, Ahlad Kumar, M.N.S. Swamy
- Abstract要約: eeg(denoising electroencephalogram)信号の解法として分数ベースの圧縮オートエンコーダアーキテクチャが導入された。
提案アーキテクチャでは,既存の手法と比較して,標準データセットのデノゲーション結果が改善されている。
- 参考スコア(独自算出の注目度): 16.889633963766858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fractional-based compressed auto-encoder architecture has been introduced
to solve the problem of denoising electroencephalogram (EEG) signals. The
architecture makes use of fractional calculus to calculate the gradients during
the backpropagation process, as a result of which a new hyper-parameter in the
form of fractional order ($\alpha$) has been introduced which can be tuned to
get the best denoising performance. Additionally, to avoid substantial use of
memory resources, the model makes use of orthogonal features in the form of
Tchebichef moments as input. The orthogonal features have been used in
achieving compression at the input stage. Considering the growing use of low
energy devices, compression of neural networks becomes imperative. Here, the
auto-encoder's weights are compressed using the randomized singular value
decomposition (RSVD) algorithm during training while evaluation is performed
using various compression ratios. The experimental results show that the
proposed fractionally compressed architecture provides improved denoising
results on the standard datasets when compared with the existing methods.
- Abstract(参考訳): eeg(denoising electroencephalogram)信号の解法として分数ベースの圧縮オートエンコーダアーキテクチャが導入された。
アーキテクチャでは、バックプロパゲーションプロセス中の勾配を計算するために分数計算を使い、結果として分数次($\alpha$)という形の新しいハイパーパラメータが導入され、最適な分数性能を得るように調整できる。
さらに、メモリリソースのかなりの使用を避けるために、モデルは入力としてTchebichefモーメントの形で直交機能を使用します。
直交的な特徴は入力段階で圧縮を達成するのに使われてきた。
低エネルギーデバイスの利用の増加を考えると、ニューラルネットワークの圧縮は必須となる。
ここでは、トレーニング中にランダム化特異値分解(RSVD)アルゴリズムを用いてオートエンコーダの重みを圧縮し、様々な圧縮比を用いて評価を行う。
実験の結果,提案する分数圧縮アーキテクチャは,既存の手法と比較して,標準データセットの分数化結果を改善した。
関連論文リスト
- Approximately Invertible Neural Network for Learned Image Compression [19.330720001489937]
本稿では,学習画像圧縮のための約可逆ニューラルネットワーク(A-INN)フレームワークを提案する。
INNと量子化を用いた場合、損失画像圧縮における速度歪みの最適化を定式化する。
大規模な実験により,提案したA-INNは既存の学習画像圧縮法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-30T07:57:47Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Compression with Bayesian Implicit Neural Representations [16.593537431810237]
本稿では,データに変分ニューラルネットワークをオーバーフィッティングし,相対エントロピー符号化を用いて近似後重みサンプルを圧縮し,量子化やエントロピー符号化を行う。
実験により,本手法は単純さを維持しつつ,画像および音声の圧縮に強い性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-05-30T16:29:52Z) - Modality-Agnostic Variational Compression of Implicit Neural
Representations [96.35492043867104]
Inlicit Neural Representation (INR) としてパラメータ化されたデータの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを提案する。
潜時符号化と疎性の間のギャップを埋めて、ソフトゲーティング機構に非直線的にマッピングされたコンパクト潜時表現を得る。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモーダリティ非依存空間におけるレート/歪みトレードオフを直接最適化する。
論文 参考訳(メタデータ) (2023-01-23T15:22:42Z) - Neural Estimation of the Rate-Distortion Function With Applications to
Operational Source Coding [25.59334941818991]
損失のあるデータ圧縮スキームを設計する際の根本的な問題は、速度歪み関数と比較してどれだけうまくできるかである。
本研究では,大規模な実世界のデータに対して,速度歪み関数を推定する手法について検討する。
本稿では, NERDと呼ばれる速度歪み推定器を画像データセットに適用する。
論文 参考訳(メタデータ) (2022-04-04T16:06:40Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Communication-Efficient Federated Learning via Quantized Compressed
Sensing [82.10695943017907]
提案フレームワークは,無線機器の勾配圧縮とパラメータサーバの勾配再構成からなる。
勾配スペーシフィケーションと量子化により、我々の戦略は1ビット勾配圧縮よりも高い圧縮比を達成することができる。
圧縮を行わない場合とほぼ同じ性能を実現できることを示す。
論文 参考訳(メタデータ) (2021-11-30T02:13:54Z) - Substitutional Neural Image Compression [48.20906717052056]
置換型ニューラルイメージ圧縮(snic)は、あらゆるニューラルイメージ圧縮モデルを強化する一般的なアプローチである。
フレキシブルな歪みメトリックに向けて圧縮性能を高め、単一のモデルインスタンスを使用したビットレート制御を可能にする。
論文 参考訳(メタデータ) (2021-05-16T20:53:31Z) - Orthogonal Features Based EEG Signals Denoising Using Fractional and
Compressed One-Dimensional CNN AutoEncoder [3.8580784887142774]
本稿では脳波(EEG)信号の分数的1次元畳み込みニューラルネットワーク(CNN)オートエンコーダを提案する。
脳波信号は、主に筋肉アーチファクト(MA)によって、記録過程中にしばしばノイズによって汚染される。
論文 参考訳(メタデータ) (2021-04-16T13:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。