論文の概要: Predicting Transcription Factor Binding Sites using Transformer based
Capsule Network
- arxiv url: http://arxiv.org/abs/2310.15202v2
- Date: Thu, 28 Dec 2023 18:25:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 21:59:39.682955
- Title: Predicting Transcription Factor Binding Sites using Transformer based
Capsule Network
- Title(参考訳): Transformer-based Capsule Network を用いた転写因子結合サイトの予測
- Authors: Nimisha Ghosh and Daniele Santoni and Indrajit Saha and Giovanni
Felici
- Abstract要約: 転写因子の結合部位の予測は、どのように遺伝子発現を調節し、この制御を治療目的でどのように調節するかを理解するために重要である。
DNABERT-Capは、多数のゲノムDNA配列が事前訓練された双方向エンコーダであり、最終予測にカプセル層が関与する。
DNABERT-Capは、既存の最先端のディープラーニングベースの予測器vizと比較されている。DeepARC、DeepTF、CNN-Zeng、DeepBindは、それらを上回っている。
- 参考スコア(独自算出の注目度): 0.8793721044482612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prediction of binding sites for transcription factors is important to
understand how they regulate gene expression and how this regulation can be
modulated for therapeutic purposes. Although in the past few years there are
significant works addressing this issue, there is still space for improvement.
In this regard, a transformer based capsule network viz. DNABERT-Cap is
proposed in this work to predict transcription factor binding sites mining
ChIP-seq datasets. DNABERT-Cap is a bidirectional encoder pre-trained with
large number of genomic DNA sequences, empowered with a capsule layer
responsible for the final prediction. The proposed model builds a predictor for
transcription factor binding sites using the joint optimisation of features
encompassing both bidirectional encoder and capsule layer, along with
convolutional and bidirectional long-short term memory layers. To evaluate the
efficiency of the proposed approach, we use a benchmark ChIP-seq datasets of
five cell lines viz. A549, GM12878, Hep-G2, H1-hESC and Hela, available in the
ENCODE repository. The results show that the average area under the receiver
operating characteristic curve score exceeds 0.91 for all such five cell lines.
DNABERT-Cap is also compared with existing state-of-the-art deep learning based
predictors viz. DeepARC, DeepTF, CNN-Zeng and DeepBind, and is seen to
outperform them.
- Abstract(参考訳): 転写因子の結合部位の予測は、遺伝子発現の制御方法と、この調節がどのように治療目的に調節されるかを理解するために重要である。
過去数年間、この問題には大きな取り組みがあったが、改善の余地はまだ残っている。
この場合、トランスベースのカプセルネットワークvizである。
DNABERT-Capは、ChIP-seqデータセットをマイニングする転写因子結合部位を予測するために提案されている。
DNABERT-Capは、多数のゲノムDNA配列が事前訓練された双方向エンコーダであり、最終予測にカプセル層が関与する。
提案モデルは,双方向エンコーダとカプセル層を包含する特徴と,畳み込みおよび双方向の長期記憶層との協調最適化を用いて,転写因子結合部位の予測器を構築する。
提案手法の有効性を評価するために,5つのセルラインvizのベンチマークChIP-seqデータセットを用いる。
A549, GM12878, Hep-G2, H1-hESC, Hela – ENCODEリポジトリで利用できる。
その結果、受信機動作特性曲線スコアの下の平均面積は、これら5つのセルラインすべてで 0.91 を超えることがわかった。
DNABERT-Capは、最先端のディープラーニングベースの予測器vizと比較される。
DeepARC、DeepTF、CNN-Zeng、DeepBindはそれらを上回っている。
関連論文リスト
- Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - xTrimoGene: An Efficient and Scalable Representation Learner for
Single-Cell RNA-Seq Data [45.043516102428676]
我々は、xTrimoGene$alpha$(略してxTrimoGene)と呼ばれる、cRNA-seqデータのための新しい非対称エンコーダデコーダトランスを提案する。
xTrimoGeneは、高い精度を維持しながら、古典的なトランスフォーマーと比較して、FLOPを1~2桁削減する。
また,モデルサイズをスケールアップすることで,xTrimoGeneの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-11-26T01:23:01Z) - DPSeq: A Novel and Efficient Digital Pathology Classifier for Predicting
Cancer Biomarkers using Sequencer Architecture [4.876281217951695]
デジタル病理学の課題では、トランスフォーマーは畳み込みニューラルネットワーク(CNN)を超越して最先端の結果を得た。
我々はDPSeqと呼ばれる新規かつ効率的なデジタル病理分類器を開発し,癌バイオマーカーの予測を行った。
論文 参考訳(メタデータ) (2023-05-03T08:31:44Z) - Binary Graph Convolutional Network with Capacity Exploration [58.99478502486377]
ネットワークパラメータと入力ノード属性の両方を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均31倍のメモリ消費を削減でき、推論速度を平均51倍に加速できる。
論文 参考訳(メタデータ) (2022-10-24T12:05:17Z) - Characterization of anomalous diffusion through convolutional
transformers [0.8984888893275713]
本稿では, 異常拡散のキャラクタリゼーションのためのトランスフォーマーに基づくニューラルネットワークアーキテクチャを提案する。
新たなアーキテクチャであるConvTransformer(ConvTransformer)は、二層畳み込みニューラルネットワークを使用して、拡散軌道から特徴を抽出します。
我々は,ConvTransformerが,短い軌跡において,基礎となる拡散状態を決定する上で,従来の技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-10T18:53:13Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - BTranspose: Bottleneck Transformers for Human Pose Estimation with
Self-Supervised Pre-Training [0.304585143845864]
本稿では,CNNとマルチヘッド自己注意層(MHSA)を効果的に組み合わせたBottleneck Transformersを提案する。
我々は,異なるバックボーンアーキテクチャを考察し,DINO自己教師型学習手法を用いて事前学習を行う。
実験により,本モデルが [1] などの他の手法と競合する 76.4 のAPを達成でき,ネットワークパラメータも少ないことがわかった。
論文 参考訳(メタデータ) (2022-04-21T15:45:05Z) - Hierarchical Transformer Networks for Longitudinal Clinical Document
Classification [5.670490259188555]
このネットワークは、3段階のトランスフォーマーベースのエンコーダを備えており、単語から文、文から音まで徐々に学習し、最終的に患者に注記する。
従来のBERTモデルと比較して,本モデルでは, 512語から, 長い臨床書面列に適した長いシーケンスへと, 最大入力長を増大させる。
予測タスクが異なるMIMIC-IIIデータセットに対する実験結果から,提案した階層モデルが従来の階層型ニューラルネットワークより優れていることが示された。
論文 参考訳(メタデータ) (2021-04-17T04:45:52Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。