論文の概要: Predicting Succinylation Sites in Proteins with Improved Deep Learning
Architecture
- arxiv url: http://arxiv.org/abs/2201.11215v1
- Date: Mon, 27 Dec 2021 16:15:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-30 14:22:40.153363
- Title: Predicting Succinylation Sites in Proteins with Improved Deep Learning
Architecture
- Title(参考訳): ディープラーニングアーキテクチャの改良によるタンパク質の簡潔化部位の予測
- Authors: Olusola Odeyomi, and Gergely Zaruba
- Abstract要約: タンパク質の翻訳後修飾(PTM)は翻訳の後に起こる。
本稿では,簡潔なサイトを予測するためのディープラーニングアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Post-translational modifications (PTMs) in proteins occur after the process
of translation. PTMs account for many cellular processes such as
deoxyribonucleic acid (DNA) repair, cell signaling and cell death. One of the
recent PTMs is succinylation. Succinylation modifies lysine residue from $-1$
to $+1$. Locating succinylation sites using experimental methods, such as mass
spectrometry is very laborious. Hence, computational methods are favored using
machine learning techniques. This paper proposes a deep learning architecture
to predict succinylation sites. The performance of the proposed architecture is
compared to the state-of-the-art deep learning architecture and other
traditional machine learning techniques for succinylation. It is shown from the
performance metrics that the proposed architecture provides a good trade-off
between speed of computation and classification accuracy.
- Abstract(参考訳): タンパク質の翻訳後修飾(PTM)は翻訳の後に起こる。
PTMは、デオキシリボヌクレイン酸(DNA)の修復、細胞シグナル伝達、細胞死など、多くの細胞プロセスに関与している。
最近のPTMの1つは簡潔化である。
サクシニル化はリジン残基を1$-1$から1$に修飾する。
質量分析法のような実験手法による簡潔な部位の配置は非常に困難である。
したがって、計算手法は機械学習技術を用いて好まれる。
本稿では,簡潔化サイトを予測するためのディープラーニングアーキテクチャを提案する。
提案アーキテクチャの性能は、最先端のディープラーニングアーキテクチャや、簡潔化のための従来の機械学習技術と比較される。
性能指標から,提案手法が計算速度と分類精度との間に良好なトレードオフをもたらすことを示す。
関連論文リスト
- Heterogeneous Integration of In-Memory Analog Computing Architectures
with Tensor Processing Units [0.0]
本稿では,IMACユニットとエッジTPUを統合してモバイルCNNの性能を向上させる,新しい,異種,混合信号,混合精度アーキテクチャを提案する。
本稿では,TPU-IMACアーキテクチャ上にモデルをデプロイする際の潜在的な精度低下を軽減するために,混合精度トレーニング手法を取り入れた統合学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-18T19:44:56Z) - Boosting Convolutional Neural Networks' Protein Binding Site Prediction
Capacity Using SE(3)-invariant transformers, Transfer Learning and
Homology-based Augmentation [1.160208922584163]
標的タンパク質の小さな結合部位を、ポケットや残基の分解能で見つけることは、実際の薬物発見のシナリオにおいて重要である。
そこで本研究では,実世界のアプリケーションに関係のある,結合サイト予測のための新しい計算手法を提案する。
論文 参考訳(メタデータ) (2023-02-20T05:02:40Z) - Learning with Multigraph Convolutional Filters [153.20329791008095]
MSPモデルに基づいて情報を処理する階層構造として多グラフ畳み込みニューラルネットワーク(MGNN)を導入する。
また,MGNNにおけるフィルタ係数のトラクタブルな計算手法と,レイヤ間で転送される情報の次元性を低減するための低コストな手法を開発した。
論文 参考訳(メタデータ) (2022-10-28T17:00:50Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Towards Scaling Difference Target Propagation by Learning Backprop
Targets [64.90165892557776]
Different Target Propagationは,Gauss-Newton(GN)最適化と密接な関係を持つ生物学的に証明可能な学習アルゴリズムである。
本稿では、DTPがBPを近似し、階層的なフィードバックウェイトトレーニングを復元できる新しいフィードバックウェイトトレーニング手法を提案する。
CIFAR-10 と ImageNet 上で DTP が達成した最高の性能について報告する。
論文 参考訳(メタデータ) (2022-01-31T18:20:43Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Scalable Second Order Optimization for Deep Learning [34.12384996822749]
本稿では,第2次プレコンディショニング手法のスケーラブルな実装について述べる(第2に,完全行列 Adagrad の変種)。
我々の新しい設計は、多コアCPUと複数のアクセラレーションユニットを組み合わせた深層モデルのトレーニングに、一般的な異種ハードウェアアーキテクチャを効果的に活用する。
本稿では,変換器を用いた機械翻訳,BERTによる言語モデリング,Criteoによるクリックスルー率予測,ResNet-50によるImageNetの画像分類など,非常に大規模な学習課題における最先端の学習性能を示す。
論文 参考訳(メタデータ) (2020-02-20T20:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。