論文の概要: Semi-supervised multiscale dual-encoding method for faulty traffic data
detection
- arxiv url: http://arxiv.org/abs/2212.13596v1
- Date: Tue, 27 Dec 2022 20:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 15:46:13.914516
- Title: Semi-supervised multiscale dual-encoding method for faulty traffic data
detection
- Title(参考訳): 故障トラヒックデータ検出のための半教師付きマルチスケールデュアルエンコーディング法
- Authors: Yongcan Huang and Jidong J. Yang
- Abstract要約: 本稿では, 変分オートエンコーダ(VAE)を用いた半教師付き半教師方式を提案する。
実験の結果,2つの符号化方式とアテンションモジュールを組み合わせたアーキテクチャが,他の符号化方式よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by the recent success of deep learning in multiscale information
encoding, we introduce a variational autoencoder (VAE) based semi-supervised
method for detection of faulty traffic data, which is cast as a classification
problem. Continuous wavelet transform (CWT) is applied to the time series of
traffic volume data to obtain rich features embodied in time-frequency
representation, followed by a twin of VAE models to separately encode normal
data and faulty data. The resulting multiscale dual encodings are concatenated
and fed to an attention-based classifier, consisting of a self-attention module
and a multilayer perceptron. For comparison, the proposed architecture is
evaluated against five different encoding schemes, including (1) VAE with only
normal data encoding, (2) VAE with only faulty data encoding, (3) VAE with both
normal and faulty data encodings, but without attention module in the
classifier, (4) siamese encoding, and (5) cross-vision transformer (CViT)
encoding. The first four encoding schemes adopted the same convolutional neural
network (CNN) architecture while the fifth encoding scheme follows the
transformer architecture of CViT. Our experiments show that the proposed
architecture with the dual encoding scheme, coupled with attention module,
outperforms other encoding schemes and results in classification accuracy of
96.4%, precision of 95.5%, and recall of 97.7%.
- Abstract(参考訳): 近年,マルチスケール情報符号化における深層学習の成功に触発されて,分類問題として挙げられる障害トラフィックデータ検出のための変分オートエンコーダ(VAE)に基づく半教師付き手法を導入する。
連続ウェーブレット変換(CWT)は、時間周波数表現で具現化されたリッチな特徴を得るために、トラフィックボリュームデータの時系列に適用される。
得られたマルチスケールのデュアルエンコーディングを連結し、セルフアテンションモジュールと多層パーセプトロンからなる注意に基づく分類器に供給する。
比較のために提案アーキテクチャは,(1)正規データ符号化のみのVAE,(2)欠陥データ符号化のみのVAE,(3)正規データ符号化と欠陥データ符号化の両方のVAE,(4)サイメエンコーディングと(5)クロスビジョントランスフォーマ(CViT)エンコーディングの5つの異なる符号化方式に対して評価を行った。
最初の4つのエンコーディングスキームは同じ畳み込みニューラルネットワーク(CNN)アーキテクチャを採用し、第5のエンコーディングスキームはCViTのトランスフォーマーアーキテクチャに従った。
提案手法とアテンションモジュールを併用した2つの符号化方式により,96.4%の分類精度,95.5%の精度,97.7%のリコールを実現した。
関連論文リスト
- On the Design and Performance of Machine Learning Based Error Correcting Decoders [3.8289109929360245]
まず, 単一ラベル型ニューラルネットワーク (SLNN) とマルチラベル型ニューラルネットワーク (MLNN) のデコーダについて検討した。
次に、エラー訂正符号変換器(ECCT)とクロスアテンションメッセージパッシング変換器(CrossMPT)という、2つのトランスフォーマーベースのデコーダに注目します。
論文 参考訳(メタデータ) (2024-10-21T11:23:23Z) - Error Correction Code Transformer: From Non-Unified to Unified [20.902351179839282]
従来のデコーダは、特定のデコードアルゴリズムに適した固定ハードウェア回路として設計されていた。
本稿では、複数の線形ブロックコードを扱うことができる、コードに依存しないトランスフォーマーベースのデコードアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-10-04T12:30:42Z) - 4D ASR: Joint Beam Search Integrating CTC, Attention, Transducer, and Mask Predict Decoders [53.297697898510194]
我々は、4つのデコーダが同一のエンコーダを共有する共同モデリング手法を提案し、これを4Dモデリングと呼ぶ。
4Dモデルを効率的に訓練するために,マルチタスク学習を安定化させる2段階のトレーニング戦略を導入する。
さらに,3つのデコーダを組み合わせることで,新しい1パスビーム探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-05T05:18:20Z) - CrossMPT: Cross-attention Message-Passing Transformer for Error Correcting Codes [14.631435001491514]
クロスアテンションメッセージパージングトランス(CrossMPT)を提案する。
また、CrossMPTは、既存のニューラルネットワークベースのデコーダを、様々なコードクラスで大幅に上回っていることを示す。
特に、CrossMPTは、メモリ使用量、複雑性、推論時間、トレーニング時間を著しく削減しながら、このデコードパフォーマンスの改善を実現している。
論文 参考訳(メタデータ) (2024-05-02T06:30:52Z) - Efficient Encoder-Decoder Transformer Decoding for Decomposable Tasks [53.550782959908524]
エンコーダ・デコーダモデルのための新しい構成を導入し、構造化された出力と分解可能なタスクの効率を改善する。
提案手法は,インプットを一度エンコードして並列にデコードすることで,トレーニングと推論の効率を向上する。
論文 参考訳(メタデータ) (2024-03-19T19:27:23Z) - Transformer-QEC: Quantum Error Correction Code Decoding with
Transferable Transformers [18.116657629047253]
本稿では,変圧器を用いた量子誤り訂正(QEC)デコーダを提案する。
全ての入力症候群にまたがるグローバルな受容野を達成するために、自己認識を用いる。
これは、局所的な物理的エラーとグローバルなパリティラベルの損失を組み合わせた混合損失トレーニングアプローチを取り入れている。
論文 参考訳(メタデータ) (2023-11-27T18:52:25Z) - Testing the Accuracy of Surface Code Decoders [55.616364225463066]
大規模でフォールトトレラントな量子計算は量子エラー訂正符号(QECC)によって実現される
本研究は,QECC復号方式の精度と有効性をテストするための最初の体系的手法である。
論文 参考訳(メタデータ) (2023-11-21T10:22:08Z) - Denoising Diffusion Error Correction Codes [92.10654749898927]
近年、ニューラルデコーダは古典的デコーダ技術に対する優位性を実証している。
最近の最先端のニューラルデコーダは複雑で、多くのレガシデコーダの重要な反復的スキームが欠如している。
本稿では,任意のブロック長の線形符号のソフトデコードにデノナイズ拡散モデルを適用することを提案する。
論文 参考訳(メタデータ) (2022-09-16T11:00:50Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - Encoding Syntactic Knowledge in Transformer Encoder for Intent Detection
and Slot Filling [6.234581622120001]
本稿では,インテント検出とスロットフィリングのための構文知識を符号化したトランスフォーマーエンコーダアーキテクチャを提案する。
シンタクティックな知識をトランスフォーマーエンコーダにエンコードし、マルチタスク学習を通じて各トークンの構文的パース祖先と部分音声を予測する。
論文 参考訳(メタデータ) (2020-12-21T21:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。