論文の概要: Locality Sensitive Hashing-based Sequence Alignment Using Deep
Bidirectional LSTM Models
- arxiv url: http://arxiv.org/abs/2004.02094v1
- Date: Sun, 5 Apr 2020 05:13:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 12:01:49.972939
- Title: Locality Sensitive Hashing-based Sequence Alignment Using Deep
Bidirectional LSTM Models
- Title(参考訳): 深部双方向LSTMモデルを用いた局所感性ハッシュに基づくシーケンスアライメント
- Authors: Neda Tavakoli
- Abstract要約: LSTM(Bidirectional Long Short-Term Memory)は、RNN(Recurrent Neural Network)アーキテクチャの一種である。
本稿では,LSH(Locality-sensitive hashing)に基づくシーケンスアライメントを実現する手法として,深層双方向LSTMを用いたシーケンスモデリングを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bidirectional Long Short-Term Memory (LSTM) is a special kind of Recurrent
Neural Network (RNN) architecture which is designed to model sequences and
their long-range dependencies more precisely than RNNs. This paper proposes to
use deep bidirectional LSTM for sequence modeling as an approach to perform
locality-sensitive hashing (LSH)-based sequence alignment. In particular, we
use the deep bidirectional LSTM to learn features of LSH. The obtained LSH is
then can be utilized to perform sequence alignment. We demonstrate the
feasibility of the modeling sequences using the proposed LSTM-based model by
aligning the short read queries over the reference genome. We use the human
reference genome as our training dataset, in addition to a set of short reads
generated using Illumina sequencing technology. The ultimate goal is to align
query sequences into a reference genome. We first decompose the reference
genome into multiple sequences. These sequences are then fed into the
bidirectional LSTM model and then mapped into fixed-length vectors. These
vectors are what we call the trained LSH, which can then be used for sequence
alignment. The case study shows that using the introduced LSTM-based model, we
achieve higher accuracy with the number of epochs.
- Abstract(参考訳): LSTM(Bidirectional Long Short-Term Memory)は、RNN(Recurrent Neural Network)アーキテクチャの一種で、RNNよりも正確にシーケンスとその長距離依存性をモデル化するように設計されている。
本稿では,LSH(Locality-sensitive hashing)に基づくシーケンスアライメントを実現する手法として,深層双方向LSTMを用いたシーケンスモデリングを提案する。
特に,深層指向性LSTMを用いてLSHの特徴を学習する。
得られたLSHを利用してシーケンスアライメントを行うことができる。
提案したLSTMモデルを用いて,参照ゲノム上の短い読解クエリをアライメントすることで,モデリングシーケンスの実現可能性を示す。
我々は、イルミナシークエンシング技術を用いて生成された短い読み出しに加えて、人間の参照ゲノムをトレーニングデータセットとして利用する。
最終的な目標は、クエリシーケンスを参照ゲノムにアライメントすることだ。
まず、参照ゲノムを複数の配列に分解する。
これらの配列は双方向LSTMモデルに入力され、固定長ベクトルにマッピングされる。
これらのベクトルはトレーニングされたLSHと呼ばれ、シーケンスアライメントに使用できる。
ケーススタディでは,導入したLSTMモデルを用いることで,エポック数の精度が向上した。
関連論文リスト
- Genetic Instruct: Scaling up Synthetic Generation of Coding Instructions for Large Language Models [54.51932175059004]
本稿では,大規模言語モデルのコード生成能力を高めるために,合成命令を生成するスケーラブルな手法を提案する。
提案したアルゴリズムは進化過程を模倣し、自己インストラクションを利用して限られた数の種子から多数の合成サンプルを生成する。
論文 参考訳(メタデータ) (2024-07-29T20:42:59Z) - Nearest Neighbor Speculative Decoding for LLM Generation and Attribution [87.3259169631789]
Nearest Speculative Decoding (NEST)は、任意の長さの実世界のテキストスパンをLM世代に組み込むことができ、それらのソースへの属性を提供する。
NESTは、様々な知識集約タスクにおいて、基本LMの生成品質と帰属率を大幅に向上させる。
さらに、NESTは、Llama-2-Chat 70Bに適用した場合の推論時間において1.8倍のスピードアップを達成することにより、生成速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-05-29T17:55:03Z) - Image Classification using Sequence of Pixels [3.04585143845864]
本研究では,繰り返しニューラルネットワークを用いた逐次画像分類法の比較を行った。
本稿では,Long-Short-Term memory(LSTM)やBidirectional Long-Short-Term memory(BiLSTM)アーキテクチャに基づく手法について述べる。
論文 参考訳(メタデータ) (2022-09-23T09:42:44Z) - Combining Recurrent, Convolutional, and Continuous-time Models with
Linear State-Space Layers [21.09321438439848]
一般化する制御系にインスパイアされた単純なシーケンスモデルを導入する。
LSSLモデルは上記の3つのモデルのファミリーと密接な関係を示し、その強みを継承する。
例えば、畳み込みを連続時間に一般化し、共通のRNN-1を説明し、時間スケール適応のようなNDEの特徴を共有する。
論文 参考訳(メタデータ) (2021-10-26T19:44:53Z) - Score-based Generative Modeling in Latent Space [93.8985523558869]
スコアベース生成モデル(SGM)は,最近,サンプル品質と分布範囲の両面で顕著な結果を示した。
本稿では,Latent Score-based Generative Model (LSGM)を提案する。
データから潜在空間への移動により、より表現力のある生成モデルをトレーニングし、非連続データにSGMを適用し、よりスムーズなSGMをより小さな空間で学習することができる。
論文 参考訳(メタデータ) (2021-06-10T17:26:35Z) - Asymmetrical Bi-RNN for pedestrian trajectory encoding [2.1485350418225244]
シーケンスエンコーダとしてU-RNNと呼ばれる非対称双方向リカレントニューラルネットワークアーキテクチャを提案する。
Trajnet++ベンチマークの実験結果から、U-LSTMの変種は、利用可能なすべてのメトリックについて、より良い結果が得られることが示された。
論文 参考訳(メタデータ) (2021-06-01T12:05:15Z) - Adaptive Linear Span Network for Object Skeleton Detection [56.78705071830965]
本研究では,適応線形スパンネットワーク(AdaLSN)を提案する。
AdaLSNは、精度とレイテンシのトレードオフを著しく高めることで、その汎用性を裏付ける。
また、エッジ検出や道路抽出といったイメージ・ツー・マスクのタスクに適用可能であることも示している。
論文 参考訳(メタデータ) (2020-11-08T12:51:14Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - Automatic Remaining Useful Life Estimation Framework with Embedded
Convolutional LSTM as the Backbone [5.927250637620123]
組込み畳み込みLSTM(E NeuralTM)と呼ばれる新しいLSTM変種を提案する。
ETMでは、異なる1次元の畳み込みの群がLSTM構造に埋め込まれている。
RUL推定のために広く用いられているいくつかのベンチマークデータセットに対する最先端のアプローチよりも,提案したEMMアプローチの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-10T08:34:20Z) - Future Vector Enhanced LSTM Language Model for LVCSR [67.03726018635174]
本稿では,将来ベクトルを用いた拡張長短期メモリ(LSTM)LMを提案する。
実験の結果,提案したLSTM LMはBLEUスコアよりも長期のシーケンス予測に有効であることがわかった。
新たなLSTM LMと従来のLSTM LMを併用することで,単語誤り率を大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-07-31T08:38:56Z) - Sentiment Analysis Using Simplified Long Short-term Memory Recurrent
Neural Networks [1.5146765382501612]
GOPディベートTwitterデータセット上で感情分析を行う。
学習を高速化し、計算コストと時間を短縮するために、LSTMモデルのスリムバージョンを6つの異なるパラメータで削減する手法を提案する。
論文 参考訳(メタデータ) (2020-05-08T12:50:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。