論文の概要: Semi-supervised multiscale dual-encoding method for faulty traffic data
detection
- arxiv url: http://arxiv.org/abs/2212.13596v1
- Date: Tue, 27 Dec 2022 20:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 15:46:13.914516
- Title: Semi-supervised multiscale dual-encoding method for faulty traffic data
detection
- Title(参考訳): 故障トラヒックデータ検出のための半教師付きマルチスケールデュアルエンコーディング法
- Authors: Yongcan Huang and Jidong J. Yang
- Abstract要約: 本稿では, 変分オートエンコーダ(VAE)を用いた半教師付き半教師方式を提案する。
実験の結果,2つの符号化方式とアテンションモジュールを組み合わせたアーキテクチャが,他の符号化方式よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by the recent success of deep learning in multiscale information
encoding, we introduce a variational autoencoder (VAE) based semi-supervised
method for detection of faulty traffic data, which is cast as a classification
problem. Continuous wavelet transform (CWT) is applied to the time series of
traffic volume data to obtain rich features embodied in time-frequency
representation, followed by a twin of VAE models to separately encode normal
data and faulty data. The resulting multiscale dual encodings are concatenated
and fed to an attention-based classifier, consisting of a self-attention module
and a multilayer perceptron. For comparison, the proposed architecture is
evaluated against five different encoding schemes, including (1) VAE with only
normal data encoding, (2) VAE with only faulty data encoding, (3) VAE with both
normal and faulty data encodings, but without attention module in the
classifier, (4) siamese encoding, and (5) cross-vision transformer (CViT)
encoding. The first four encoding schemes adopted the same convolutional neural
network (CNN) architecture while the fifth encoding scheme follows the
transformer architecture of CViT. Our experiments show that the proposed
architecture with the dual encoding scheme, coupled with attention module,
outperforms other encoding schemes and results in classification accuracy of
96.4%, precision of 95.5%, and recall of 97.7%.
- Abstract(参考訳): 近年,マルチスケール情報符号化における深層学習の成功に触発されて,分類問題として挙げられる障害トラフィックデータ検出のための変分オートエンコーダ(VAE)に基づく半教師付き手法を導入する。
連続ウェーブレット変換(CWT)は、時間周波数表現で具現化されたリッチな特徴を得るために、トラフィックボリュームデータの時系列に適用される。
得られたマルチスケールのデュアルエンコーディングを連結し、セルフアテンションモジュールと多層パーセプトロンからなる注意に基づく分類器に供給する。
比較のために提案アーキテクチャは,(1)正規データ符号化のみのVAE,(2)欠陥データ符号化のみのVAE,(3)正規データ符号化と欠陥データ符号化の両方のVAE,(4)サイメエンコーディングと(5)クロスビジョントランスフォーマ(CViT)エンコーディングの5つの異なる符号化方式に対して評価を行った。
最初の4つのエンコーディングスキームは同じ畳み込みニューラルネットワーク(CNN)アーキテクチャを採用し、第5のエンコーディングスキームはCViTのトランスフォーマーアーキテクチャに従った。
提案手法とアテンションモジュールを併用した2つの符号化方式により,96.4%の分類精度,95.5%の精度,97.7%のリコールを実現した。
関連論文リスト
- Transformer-QEC: Quantum Error Correction Code Decoding with
Transferable Transformers [18.116657629047253]
本稿では,変圧器を用いた量子誤り訂正(QEC)デコーダを提案する。
全ての入力症候群にまたがるグローバルな受容野を達成するために、自己認識を用いる。
これは、局所的な物理的エラーとグローバルなパリティラベルの損失を組み合わせた混合損失トレーニングアプローチを取り入れている。
論文 参考訳(メタデータ) (2023-11-27T18:52:25Z) - Testing the Accuracy of Surface Code Decoders [55.616364225463066]
大規模でフォールトトレラントな量子計算は量子エラー訂正符号(QECC)によって実現される
本研究は,QECC復号方式の精度と有効性をテストするための最初の体系的手法である。
論文 参考訳(メタデータ) (2023-11-21T10:22:08Z) - An Exploration of Encoder-Decoder Approaches to Multi-Label
Classification for Legal and Biomedical Text [20.100081284294973]
マルチラベル分類のための4つの手法を比較し,エンコーダのみに基づく2つの手法と,エンコーダ-デコーダに基づく2つの手法を比較した。
その結果、エンコーダ-デコーダ法はエンコーダのみの手法よりも優れており、より複雑なデータセットに有利であることがわかった。
論文 参考訳(メタデータ) (2023-05-09T17:13:53Z) - Streaming Audio-Visual Speech Recognition with Alignment Regularization [69.30185151873707]
本稿では,ハイブリッド接続型時間分類(CTC)/アテンションニューラルネットワークアーキテクチャに基づくストリーミングAV-ASRシステムを提案する。
提案したAV-ASRモデルは、オフラインおよびオンライン設定でLip Reading Sentences 3データセット上で、WERの2.0%と2.6%を達成する。
論文 参考訳(メタデータ) (2022-11-03T20:20:47Z) - Denoising Diffusion Error Correction Codes [92.10654749898927]
近年、ニューラルデコーダは古典的デコーダ技術に対する優位性を実証している。
最近の最先端のニューラルデコーダは複雑で、多くのレガシデコーダの重要な反復的スキームが欠如している。
本稿では,任意のブロック長の線形符号のソフトデコードにデノナイズ拡散モデルを適用することを提案する。
論文 参考訳(メタデータ) (2022-09-16T11:00:50Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Deep Learning-Based Intra Mode Derivation for Versatile Video Coding [65.96100964146062]
本稿では,Deep Learning based intra Mode Derivation (DLIMD) と呼ばれるインテリジェントイントラモード導出法を提案する。
DLIMDのアーキテクチャは、異なる量子化パラメータ設定と、非平方要素を含む可変符号化ブロックに適応するように開発されている。
提案手法は,Versatile Video Coding (VVC) テストモデルを用いて,Y, U, Vコンポーネントの平均ビットレートを2.28%, 1.74%, 2.18%削減できる。
論文 参考訳(メタデータ) (2022-04-08T13:23:59Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - Deliberation of Streaming RNN-Transducer by Non-autoregressive Decoding [21.978994865937786]
この方法は、テキスト機能とオーディオ機能の両方に対応するトランスフォーマーデコーダを各ステップで共有する、いくつかの改善ステップを実行する。
本研究では,ストリーミングRNN-Tモデルの仮説アライメントを条件に,第1パスRNN-Tよりも精度の高い認識結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-01T01:34:28Z) - Encoding Syntactic Knowledge in Transformer Encoder for Intent Detection
and Slot Filling [6.234581622120001]
本稿では,インテント検出とスロットフィリングのための構文知識を符号化したトランスフォーマーエンコーダアーキテクチャを提案する。
シンタクティックな知識をトランスフォーマーエンコーダにエンコードし、マルチタスク学習を通じて各トークンの構文的パース祖先と部分音声を予測する。
論文 参考訳(メタデータ) (2020-12-21T21:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。