論文の概要: A novel asymmetrical autoencoder with a sparsifying discrete cosine
Stockwell transform layer for gearbox sensor data compression
- arxiv url: http://arxiv.org/abs/2310.02862v1
- Date: Wed, 4 Oct 2023 14:50:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 14:39:27.586351
- Title: A novel asymmetrical autoencoder with a sparsifying discrete cosine
Stockwell transform layer for gearbox sensor data compression
- Title(参考訳): ギアボックスセンサデータ圧縮のための離散コサインストックウェル変換層を有する新しい非対称オートエンコーダ
- Authors: Xin Zhu, Daoguang Yang, Hongyi Pan, Hamid Reza Karimi, Didem Ozevin,
Ahmet Enis Cetin
- Abstract要約: 本稿では,信号適応型非対称オートエンコーダを変換領域層で提案し,センサ信号の圧縮を行う。
提案手法は,コネチカット大学 (UoC) や南東大学 (SEU) のギアボックスデータセットにおいて,他のオートエンコーダ方式よりも優れている。
- 参考スコア(独自算出の注目度): 11.259187827568558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The lack of an efficient compression model remains a challenge for the
wireless transmission of gearbox data in non-contact gear fault diagnosis
problems. In this paper, we present a signal-adaptive asymmetrical autoencoder
with a transform domain layer to compress sensor signals. First, a new discrete
cosine Stockwell transform (DCST) layer is introduced to replace linear layers
in a multi-layer autoencoder. A trainable filter is implemented in the DCST
domain by utilizing the multiplication property of the convolution. A trainable
hard-thresholding layer is applied to reduce redundant data in the DCST layer
to make the feature map sparse. In comparison to the linear layer, the DCST
layer reduces the number of trainable parameters and improves the accuracy of
data reconstruction. Second, training the autoencoder with a sparsifying DCST
layer only requires a small number of datasets. The proposed method is superior
to other autoencoder-based methods on the University of Connecticut (UoC) and
Southeast University (SEU) gearbox datasets, as the average quality score is
improved by 2.00% at the lowest and 32.35% at the highest with a limited number
of training samples
- Abstract(参考訳): 効率的な圧縮モデルの欠如は、非接触歯車の故障診断問題におけるギアボックスデータの無線伝送の課題である。
本稿では,変換ドメイン層を有する信号適応型非対称オートエンコーダを用いてセンサ信号を圧縮する。
まず,多層オートエンコーダの線形層を置き換えるために,新しい離散コサインストックウェル変換(DCST)層を導入する。
畳み込みの乗算特性を利用して、DCST領域にトレーニング可能なフィルタを実装する。
トレーニング可能なハード保持層を適用してDCST層の冗長データを低減し、特徴マップをスパースにする。
線形層と比較して、DCST層はトレーニング可能なパラメータの数を減らし、データ再構成の精度を向上させる。
第二に、分散DCST層でオートエンコーダをトレーニングするには、少数のデータセットが必要である。
提案手法はコネチカット大学 (UoC) とサウスイースタン大学 (SEU) のギアボックスデータセットにおける他のオートエンコーダベースの手法よりも優れており、平均品質スコアは最低で2.00%、最高で32.35%向上し、限られたトレーニングサンプル数で改善されている。
関連論文リスト
- A Principled Hierarchical Deep Learning Approach to Joint Image
Compression and Classification [27.934109301041595]
本研究は,エンコーダを誘導し,コンパクトで差別的で,一般的な拡張/変換に適した特徴を抽出する3段階共同学習戦略を提案する。
CIFAR-10では最大1.5%,CIFAR-100では3%,従来のE2Eクロスエントロピートレーニングでは3%の精度向上が得られた。
論文 参考訳(メタデータ) (2023-10-30T15:52:18Z) - Electroencephalogram Sensor Data Compression Using An Asymmetrical
Sparse Autoencoder With A Discrete Cosine Transform Layer [3.316567107326828]
脳波信号を圧縮するために、離散コサイン変換(DCT)層を有する非対称スパースオートエンコーダを提案する。
提案手法は,各種データ圧縮実験における平均品質スコアを大幅に改善する。
論文 参考訳(メタデータ) (2023-09-15T21:55:56Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Towards Data-Efficient Detection Transformers [77.43470797296906]
我々は、ほとんどの検出トランスフォーマーが、小さなデータセットで大きなパフォーマンス低下に悩まされていることを示す。
我々はデータ効率に影響を与える要因を、データ効率のRCNNから代表DETRへのステップバイステップ遷移によって実証的に分析する。
本稿では,よりリッチな監視とデータ効率向上を目的とした,シンプルながら効果的なラベル拡張手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T17:56:34Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - A Hierarchical Coding Scheme for Glasses-free 3D Displays Based on
Scalable Hybrid Layered Representation of Real-World Light Fields [0.6091702876917279]
Schemeは、異なる走査順序から決定される光界ビューのサブセットから、積み重ねた乗法レイヤを学習する。
層状パターンの空間的相関は、クリロフ部分空間上の特異値分解から導かれる係数化の低い階数で悪用される。
HEVCによるエンコーディングは、低ランク近似層におけるイントラビューおよびインタービュー相関を効率的に除去する。
論文 参考訳(メタデータ) (2021-04-19T15:09:21Z) - Self Sparse Generative Adversarial Networks [73.590634413751]
GAN(Generative Adversarial Networks)は、敵対的トレーニングを通じてデータ分布を学習する監視されていない生成モデルである。
本論文では,パラメータ空間を小さくし,ゼロ勾配問題を軽減するSelf Sparse Generative Adversarial Network (Self-Sparse GAN)を提案する。
論文 参考訳(メタデータ) (2021-01-26T04:49:12Z) - Graph Regularized Autoencoder and its Application in Unsupervised
Anomaly Detection [42.86693635734333]
本稿では,最小スパンニングツリー(MST)を用いて局所的な近傍構造を近似し,データ点間の構造保存距離を生成することを提案する。
我々は,20個のベンチマーク異常検出データセットに対して,多種多様な代替手法より優れた新しいグラフ正規化オートエンコーダを開発した。
論文 参考訳(メタデータ) (2020-10-29T21:17:41Z) - Non-Autoregressive Transformer ASR with CTC-Enhanced Decoder Input [54.82369261350497]
CTCモジュールの予測を精算することでターゲットシーケンスを生成するCTC拡張NARトランスを提案する。
実験結果から,Aishell-1およびAishell-2データセットでは,Aishell-1およびAishell-2データセットの絶対CER劣化が0。
論文 参考訳(メタデータ) (2020-10-28T15:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。