論文の概要: adabmDCA 2.0 -- a flexible but easy-to-use package for Direct Coupling Analysis
- arxiv url: http://arxiv.org/abs/2501.18456v1
- Date: Thu, 30 Jan 2025 16:15:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 15:13:40.046646
- Title: adabmDCA 2.0 -- a flexible but easy-to-use package for Direct Coupling Analysis
- Title(参考訳): adabmDCA 2.0 -- 直接結合分析のための柔軟だが使いやすいパッケージ
- Authors: Lorenzo Rosset, Roberto Netti, Anna Paola Muntoni, Martin Weigt, Francesco Zamponi,
- Abstract要約: ボルツマン機械学習に基づく直接結合解析(DCA)の柔軟な実装を提供する。
textttadabmDCA 2.0パッケージは、異なるアーキテクチャで利用可能な異なるプログラミング言語(C++、Julia、Python)で利用可能である。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this methods article, we provide a flexible but easy-to-use implementation of Direct Coupling Analysis (DCA) based on Boltzmann machine learning, together with a tutorial on how to use it. The package \texttt{adabmDCA 2.0} is available in different programming languages (C++, Julia, Python) usable on different architectures (single-core and multi-core CPU, GPU) using a common front-end interface. In addition to several learning protocols for dense and sparse generative DCA models, it allows to directly address common downstream tasks like residue-residue contact prediction, mutational-effect prediction, scoring of sequence libraries and generation of artificial sequences for sequence design. It is readily applicable to protein and RNA sequence data.
- Abstract(参考訳): 本稿では、ボルツマン機械学習に基づく直接結合解析(DCA)の柔軟で使いやすい実装と、それの使い方に関するチュートリアルを提供する。
パッケージ \texttt{adabmDCA 2.0 {\displaystyle \texttt{adabmDCA 2.0} は異なるプログラミング言語(C++、Julia、Python)で、共通のフロントエンドインターフェイスを使用して異なるアーキテクチャ(シングルコア、マルチコアCPU、GPU)で使用することができる。
濃密で疎密なDCAモデルのためのいくつかの学習プロトコルに加えて、残差残差接触予測、突然変異効果予測、シーケンスライブラリのスコアリング、シーケンス設計のための人工シーケンスの生成といった、一般的な下流タスクに直接対処することができる。
タンパク質やRNAの配列データにも容易に適用できる。
関連論文リスト
- SegMix: A Simple Structure-Aware Data Augmentation Method [1.6620013437599903]
SegMixは、タスク固有の構造に適応できるアカウントベースのDAアルゴリズムのコレクションである。
SegMixは、名前付きエンティティ認識(NER)と関係抽出(RE)タスクにおいて、強力なベースラインモデルよりも一貫してパフォーマンスを改善している。
論文 参考訳(メタデータ) (2023-11-16T02:05:15Z) - AdaBrowse: Adaptive Video Browser for Efficient Continuous Sign Language
Recognition [39.778958624066185]
本稿では,入力されたビデオシーケンスから最も情報性の高いサブシーケンスを動的に選択する新しいモデル(AdaBrowse)を提案する。
AdaBrowseは1.44$times$スループットと2.12$times$より少ないFLOPで同等の精度を実現している。
論文 参考訳(メタデータ) (2023-08-16T12:40:47Z) - PEvoLM: Protein Sequence Evolutionary Information Language Model [0.0]
タンパク質配列は、アミノ酸(AA)と呼ばれる連続したトークンまたは文字の集合である
本研究では,タンパク質配列を数値ベクトル表現に変換する埋め込み言語モデル(ELMo)を提案する。
このモデルは、次のAAを予測するだけでなく、類似しているが異なる配列から派生した次のAAの確率分布についても訓練された。
論文 参考訳(メタデータ) (2023-08-16T06:46:28Z) - Towards Better Dynamic Graph Learning: New Architecture and Unified
Library [29.625205125350313]
DyGFormerは、動的グラフ学習のためのTransformerベースのアーキテクチャである。
DyGLibは、標準のトレーニングパイプラインとコーディングインターフェースを備えた統一ライブラリである。
論文 参考訳(メタデータ) (2023-03-23T05:27:32Z) - Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - HelixFold-Single: MSA-free Protein Structure Prediction by Using Protein
Language Model as an Alternative [61.984700682903096]
HelixFold-Singleは、大規模なタンパク質言語モデルとAlphaFold2の優れた幾何学的学習能力を組み合わせるために提案されている。
提案手法は,数千万の一次配列を持つ大規模タンパク質言語モデルを事前学習する。
我々は、一次系列のみから原子の3次元座標を予測するために、エンドツーエンドの微分可能なモデルを得る。
論文 参考訳(メタデータ) (2022-07-28T07:30:33Z) - Learning to Combine Instructions in LLVM Compiler [1.2987894327817158]
我々は、従来の命令コンバータ(IC)に関連する課題を軽減するために、NIC(Neural Instruction Combiner)を実装している。
従来のICとニューラルマシンの翻訳基準であるBleuの精度スコア(0.94)と比較すると,NICの正確な一致率は72%であった。
論文 参考訳(メタデータ) (2022-02-22T06:20:51Z) - Pre-training Co-evolutionary Protein Representation via A Pairwise
Masked Language Model [93.9943278892735]
タンパク質配列表現学習の鍵となる問題は、配列中の残基間の共変量によって反映される共進化情報をキャプチャすることである。
Pairwise Masked Language Model (PMLM) と呼ばれる専用言語モデルによる事前学習により,この情報を直接キャプチャする新しい手法を提案する。
提案手法は, 相互関係を効果的に把握し, ベースラインと比較して, 接触予測性能を最大9%向上できることを示す。
論文 参考訳(メタデータ) (2021-10-29T04:01:32Z) - Improved Code Summarization via a Graph Neural Network [96.03715569092523]
一般に、ソースコード要約技術はソースコードを入力として使用し、自然言語記述を出力する。
これらの要約を生成するために、ASTのデフォルト構造によくマッチするグラフベースのニューラルアーキテクチャを使用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:36:42Z) - Torch-Struct: Deep Structured Prediction Library [138.5262350501951]
本稿では,構造化予測ライブラリTorch-Structを紹介する。
Torch-Structには,シンプルで柔軟な分散ベースのAPIを通じてアクセスされる,確率的構造の広範なコレクションが含まれている。
論文 参考訳(メタデータ) (2020-02-03T16:43:02Z) - Multi-layer Optimizations for End-to-End Data Analytics [71.05611866288196]
代替アプローチを実現するフレームワークであるIFAQ(Iterative Functional Aggregate Queries)を紹介する。
IFAQは、特徴抽出クエリと学習タスクを、IFAQのドメイン固有言語で与えられた1つのプログラムとして扱う。
IFAQ の Scala 実装が mlpack,Scikit,特殊化を数桁で上回り,線形回帰木モデルや回帰木モデルを複数の関係データセット上で処理可能であることを示す。
論文 参考訳(メタデータ) (2020-01-10T16:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。