論文の概要: Nanopore Base Calling on the Edge
- arxiv url: http://arxiv.org/abs/2011.04312v1
- Date: Mon, 9 Nov 2020 10:36:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 02:10:06.611351
- Title: Nanopore Base Calling on the Edge
- Title(参考訳): エッジ上でのナノ孔ベースコール
- Authors: Peter Pere\v{s}\'ini, Vladim\'ir Bo\v{z}a, Bro\v{n}a Brejov\'a,
Tom\'a\v{s} Vina\v{r}
- Abstract要約: DeepNano-coralは、Guppyベース呼び出しの高速モードよりも精度が若干良く、シークエンシング中のリアルタイムベース呼び出しを実現する。
非常にエネルギー効率が良く、消費電力はわずか10Wである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We developed a new base caller DeepNano-coral for nanopore sequencing, which
is optimized to run on the Coral Edge Tensor Processing Unit, a small
USB-attached hardware accelerator. To achieve this goal, we have designed new
versions of two key components used in convolutional neural networks for speech
recognition and base calling. In our components, we propose a new way of
factorization of a full convolution into smaller operations, which decreases
memory access operations, memory access being a bottleneck on this device.
DeepNano-coral achieves real-time base calling during sequencing with the
accuracy slightly better than the fast mode of the Guppy base caller and is
extremely energy efficient, using only 10W of power. Availability:
https://github.com/fmfi-compbio/coral-basecaller
- Abstract(参考訳): 我々は,小型のUSB接続ハードウェアアクセラレータであるCoral Edge Tensor Processing Unitで動作するように最適化された,ナノ孔シークエンシングのための新しいベースコールのDeepNano-coralを開発した。
この目的を達成するために,我々は,畳み込みニューラルネットワークで音声認識とベース呼び出しに使用される2つの重要なコンポーネントの新バージョンを設計した。
提案するコンポーネントでは,コンボリューション全体を小さな操作に分解する新たな手法を提案し,メモリアクセス操作を減少させ,メモリアクセスをこのデバイスにおけるボトルネックとすることを提案する。
deepnano-coralは、シークエンシング中のリアルタイムベース呼び出しを、guppyベース呼び出しの高速モードよりもわずかに精度良く達成し、10wの電力しか使わず、非常にエネルギー効率が良い。
利用可能: https://github.com/fmfi-compbio/coral-basecaller
関連論文リスト
- Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - SegNeXt: Rethinking Convolutional Attention Design for Semantic
Segmentation [100.89770978711464]
セマンティックセグメンテーションのための単純な畳み込みネットワークアーキテクチャであるSegNeXtを提案する。
コンボリューションアテンションは、トランスフォーマーの自己認識メカニズムよりも、文脈情報をエンコードするより効率的で効果的な方法であることを示す。
論文 参考訳(メタデータ) (2022-09-18T14:33:49Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Dynamic Pooling Improves Nanopore Base Calling Accuracy [0.0]
ナノ孔シークエンシングでは、DNA分子がシークエンシング孔を通過すると電気信号が測定される。
これまで最も成功したナノホールベース呼び出し者は、畳み込みニューラルネットワーク(cnn)を使用してタスクを実行している。
本論文では,この問題を適応的に調整することで解決するニューラル・ネットワーク・コンポーネントである動的プーリングを提案する。
論文 参考訳(メタデータ) (2021-05-16T21:39:17Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - SparseDNN: Fast Sparse Deep Learning Inference on CPUs [1.6244541005112747]
CPUをターゲットとしたスパースディープラーニング推論エンジンであるSparseDNNを紹介します。
我々のスパースコードジェネレータは,最先端のスパースライブラリや高密度ライブラリよりも大幅に高速化できることを示す。
論文 参考訳(メタデータ) (2021-01-20T03:27:35Z) - Helix: Algorithm/Architecture Co-design for Accelerating Nanopore Genome
Base-calling [19.269085366989078]
最先端のベースコールはディープニューラルネットワーク(DNN)を使用して、ナノ孔シーケンサによって生成された電気信号をデジタルDNAシンボルに変換する。
DNNベースのベースコールは、ナノ孔シークエンシングパイプラインの総実行時間の44.5%を消費する。
本稿では,ナノ孔ベースの呼び出しを効率よく正確に高速化するアルゴリズムとアーキテクチャを共同設計したHelixを提案する。
論文 参考訳(メタデータ) (2020-08-04T22:17:19Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Efficient Neural Network Deployment for Microcontroller [0.0]
本稿では,マイクロコントローラのための畳み込みニューラルネットワークの展開を探索し,一般化する。
メモリの節約と性能は、ARM Cortex-M CPU用に開発されたCMSIS-NNフレームワークと比較される。
最終的な目的は、トレーニングされたネットワーク重みを持つPyTorchモデルを消費するツールを開発することであり、低メモリ(キロバイトレベル)と限られた計算能力を持つマイクロコントローラのためにC/C++で最適化された推論エンジンとなる。
論文 参考訳(メタデータ) (2020-07-02T19:21:05Z) - ARIANN: Low-Interaction Privacy-Preserving Deep Learning via Function
Secret Sharing [2.6228228854413356]
AriaNNは、機密データに対するプライベートニューラルネットワークトレーニングと推論のための、低インタラクションのプライバシ保護フレームワークである。
我々は、ReLU、MaxPool、BatchNormといったニューラルネットワークの構築ブロックのためのプリミティブを設計する。
n-party private federated learning をサポートするための拡張として,当社のフレームワークを実装した。
論文 参考訳(メタデータ) (2020-06-08T13:40:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。