論文の概要: Assessment of the Relative Importance of different hyper-parameters of
LSTM for an IDS
- arxiv url: http://arxiv.org/abs/2012.14427v1
- Date: Sat, 26 Dec 2020 18:00:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 01:07:00.808051
- Title: Assessment of the Relative Importance of different hyper-parameters of
LSTM for an IDS
- Title(参考訳): IDSのためのLSTMの異なるハイパーパラメータの相対的重要性の評価
- Authors: Mohit Sewak, Sanjay K. Sahay and Hemant Rathore
- Abstract要約: 音声言語用に調整されたデフォルト設定のLSTMモデルは、マルウェアを検出するのにうまく機能しない可能性がある。
侵入検知システムを構成するLSTMネットワークは、隠蔽層数、入力シーケンス長、アクティベーション-ファンクションの選択に対して非常に敏感である。
- 参考スコア(独自算出の注目度): 2.4493299476776778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent deep learning language models like the LSTM are often used to
provide advanced cyber-defense for high-value assets. The underlying assumption
for using LSTM networks for malware-detection is that the op-code sequence of
malware could be treated as a (spoken) language representation. There are
differences between any spoken-language (sequence of words/sentences) and the
machine-language (sequence of op-codes). In this paper, we demonstrate that due
to these inherent differences, an LSTM model with its default configuration as
tuned for a spoken-language, may not work well to detect malware (using its
op-code sequence) unless the network's essential hyper-parameters are tuned
appropriately. In the process, we also determine the relative importance of all
the different hyper-parameters of an LSTM network as applied to malware
detection using their op-code sequence representations. We experimented with
different configurations of LSTM networks, and altered hyper-parameters like
the embedding-size, number of hidden layers, number of LSTM-units in a hidden
layer, pruning/padding-length of the input-vector, activation-function, and
batch-size. We discovered that owing to the enhanced complexity of the
malware/machine-language, the performance of an LSTM network configured for an
Intrusion Detection System, is very sensitive towards the
number-of-hidden-layers, input sequence-length, and the choice of the
activation-function. Also, for (spoken) language-modeling, the recurrent
architectures by-far outperform their non-recurrent counterparts. Therefore, we
also assess how sequential DL architectures like the LSTM compare against their
non-sequential counterparts like the MLP-DNN for the purpose of
malware-detection.
- Abstract(参考訳): LSTMのような反復的なディープラーニング言語モデルは、しばしば高価値資産のための高度なサイバー防御を提供するために使用される。
LSTMネットワークをマルウェア検出に使用する基本的な前提は、マルウェアのオプトコードシーケンスを(偽)言語表現として扱うことができることである。
音声言語(単語/単語の系列)と機械語(オペ符号の系列)には違いがある。
本稿では,これら固有の違いから,ネットワークの必須ハイパーパラメータが適切に調整されない限り,音声言語用に調整されたデフォルト構成のLSTMモデルでは,マルウェアを検出するのに有効ではないことを示す。
その過程では,lstmネットワークのすべての異なるハイパーパラメータの相対的重要性を,そのオペコードシーケンス表現を用いてマルウェア検出に適用する。
LSTMネットワークの異なる構成を実験し、埋め込みサイズ、隠蔽層数、隠蔽層数、入力ベクトルのプルーニング/パディング長、アクティベーション-ファンクション、バッチサイズなどのハイパーパラメータを変更した。
侵入検知システム用に構成されたLSTMネットワークの性能は,マルウェア/機械言語の複雑さの増大により,隠れ層数,入力シーケンス長,アクティベーション-ファンクションの選択に非常に敏感であることが判明した。
また、言語モデリングでは、リカレントアーキテクチャは非リカレントアーキテクチャよりも優れています。
したがって、LSTMのような連続的なDLアーキテクチャが、マルウェア検出のために、MLP-DNNのようなシーケンシャルでないアーキテクチャとどのように比較するかを評価する。
関連論文リスト
- Towards Energy-Efficient, Low-Latency and Accurate Spiking LSTMs [1.7969777786551424]
Spiking Neural Networks(SNN)は、複雑なタスクのための魅力的なテンポラルコンピューティングパラダイムビジョンとして登場した。
そこで本研究では,新規な長期記憶ネットワーク(LSTM)の学習フレームワークを提案する。
rev-to-SNN変換フレームワーク、続いてSNNトレーニング。
我々は、時間的M、Google Speech Commands(GSC)データセット、異なるLSTMアーキテクチャ上のUCIスマートフォンなど、逐次学習タスクに関するフレームワークを評価した。
論文 参考訳(メタデータ) (2022-10-23T04:10:27Z) - A Multi-Stage Multi-Codebook VQ-VAE Approach to High-Performance Neural
TTS [52.51848317549301]
高速なTTS合成のためのマルチステージマルチコードブック(MSMC)手法を提案する。
ベクトル量子化可変オートエンコーダ(VQ-VAE)に基づく特徴解析器を用いて,音声訓練データのメルスペクトルを符号化する。
合成において、ニューラルネットワークは予測されたSMCRを最終的な音声波形に変換する。
論文 参考訳(メタデータ) (2022-09-22T09:43:17Z) - Learning Bounded Context-Free-Grammar via LSTM and the
Transformer:Difference and Explanations [51.77000472945441]
Long Short-Term Memory (LSTM) と Transformer は、自然言語処理タスクに使用される2つの一般的なニューラルネットワークアーキテクチャである。
実際には、トランスフォーマーモデルの方がLSTMよりも表現力が高いことがよく見られる。
本研究では,LSTMとTransformerの実践的差異について検討し,その潜在空間分解パターンに基づく説明を提案する。
論文 参考訳(メタデータ) (2021-12-16T19:56:44Z) - LSTM Hyper-Parameter Selection for Malware Detection: Interaction
Effects and Hierarchical Selection Approach [2.4493299476776778]
Long-Short-Term-Memory (LSTM)ネットワークは人工知能(AI)ベースの言語モデリングにおいて大きな可能性を秘めている。
LSTMネットワークはAIベースの侵入検知システム(IDS)の設計にも人気がある。
論文 参考訳(メタデータ) (2021-09-23T17:03:34Z) - Working Memory Connections for LSTM [51.742526187978726]
ワーキングメモリ接続は,様々なタスクにおけるLSTMの性能を常に向上することを示す。
数値的な結果は、細胞状態がゲート構造に含まれる価値のある情報を含んでいることを示唆している。
論文 参考訳(メタデータ) (2021-08-31T18:01:30Z) - A journey in ESN and LSTM visualisations on a language task [77.34726150561087]
我々は,CSL(Cross-Situationnal Learning)タスクでESNとLSTMを訓練した。
その結果, 性能比較, 内部力学解析, 潜伏空間の可視化の3種類が得られた。
論文 参考訳(メタデータ) (2020-12-03T08:32:01Z) - Multi-view Frequency LSTM: An Efficient Frontend for Automatic Speech
Recognition [4.753402561130792]
複数のFLSTMスタックの出力を異なるビューで組み合わせることで、シンプルで効率的な修正を行う。
本研究では,マルチビューFLSTM音響モデルにより,話者・音響環境の異なるシナリオに対して,単語誤り率(WER)が3~7%向上することを示す。
論文 参考訳(メタデータ) (2020-06-30T22:19:53Z) - Self-Attention Networks for Intent Detection [0.9023847175654603]
本稿では,自己注意ネットワークとBi-LSTMに基づく新たな意図検出システムを提案する。
提案手法は,変圧器モデルと深層平均化ネットワークベースユニバーサル文エンコーダを用いて改善を示す。
我々は,Snips,Smart Speaker,Smart Lights,およびATISデータセットを異なる評価指標で評価する。
論文 参考訳(メタデータ) (2020-06-28T12:19:15Z) - Investigation of learning abilities on linguistic features in
sequence-to-sequence text-to-speech synthesis [48.151894340550385]
ニューラルシークエンス・ツー・シークエンス・テキスト・トゥ・音声合成(TTS)は、テキストや音素のような単純な言語的特徴から直接高品質な音声を生成することができる。
ニューラルシークエンス・ツー・シークエンス TTS が日本語と英語でどのように機能するかを考察する。
論文 参考訳(メタデータ) (2020-05-20T23:26:14Z) - Depth-Adaptive Graph Recurrent Network for Text Classification [71.20237659479703]
S-LSTM(Sentence-State LSTM)は、高効率なグラフリカレントネットワークである。
そこで本研究では,S-LSTMの深度適応機構を提案する。
論文 参考訳(メタデータ) (2020-02-29T03:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。