論文の概要: CAME-AB: Cross-Modality Attention with Mixture-of-Experts for Antibody Binding Site Prediction
- arxiv url: http://arxiv.org/abs/2509.06465v1
- Date: Mon, 08 Sep 2025 09:24:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.033172
- Title: CAME-AB: Cross-Modality Attention with Mixture-of-Experts for Antibody Binding Site Prediction
- Title(参考訳): CAME-AB: 抗体結合部位予測のための試験の混合による異質性注意
- Authors: Hongzong Li, Jiahao Ma, Zhanpeng Shi, Fanming Jin, Ye-Fan Hu, Jian-Dong Huang,
- Abstract要約: CAME-ABは、抗体結合部位予測のための新しいクロスモーダルアテンションフレームワークである。
生酸エンコーディング、BLOSUM置換プロファイル、構造認識の特徴、生化学グラフを含む5つの生物学的基盤を持つ。
これは、Precision、Recall、F1スコア、AUC-ROC、MCCなど、複数のメトリクスの強いベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 3.7252166064253203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Antibody binding site prediction plays a pivotal role in computational immunology and therapeutic antibody design. Existing sequence or structure methods rely on single-view features and fail to identify antibody-specific binding sites on the antigens-a dual limitation in representation and prediction. In this paper, we propose CAME-AB, a novel Cross-modality Attention framework with a Mixture-of-Experts (MoE) backbone for robust antibody binding site prediction. CAME-AB integrates five biologically grounded modalities, including raw amino acid encodings, BLOSUM substitution profiles, pretrained language model embeddings, structure-aware features, and GCN-refined biochemical graphs-into a unified multimodal representation. To enhance adaptive cross-modal reasoning, we propose an adaptive modality fusion module that learns to dynamically weight each modality based on its global relevance and input-specific contribution. A Transformer encoder combined with an MoE module further promotes feature specialization and capacity expansion. We additionally incorporate a supervised contrastive learning objective to explicitly shape the latent space geometry, encouraging intra-class compactness and inter-class separability. To improve optimization stability and generalization, we apply stochastic weight averaging during training. Extensive experiments on benchmark antibody-antigen datasets demonstrate that CAME-AB consistently outperforms strong baselines on multiple metrics, including Precision, Recall, F1-score, AUC-ROC, and MCC. Ablation studies further validate the effectiveness of each architectural component and the benefit of multimodal feature integration. The model implementation details and the codes are available on https://anonymous.4open.science/r/CAME-AB-C525
- Abstract(参考訳): 抗体結合部位の予測は、計算免疫学および治療抗体設計において重要な役割を担っている。
既存の配列や構造法は単一ビューの特徴に依存しており、抗原上の抗体特異的な結合部位の同定に失敗する。
本稿では,Mixture-of-Experts (MoE) バックボーンを組み込んだクロスモーダルアテンションフレームワークであるCAME-ABを提案する。
CAME-ABは、生アミノ酸エンコーディング、BLOSUM置換プロファイル、事前訓練された言語モデル埋め込み、構造認識の特徴、GCN精製された生化学グラフを含む5つの生物学的基盤を持つ。
適応的相互モーダル推論を強化するため,適応的モーダル融合モジュールを提案し,そのグローバルな関連性と入力固有の寄与に基づいて各モーダルを動的に重み付けすることを学習する。
トランスフォーマーエンコーダとMoEモジュールを組み合わせることで、機能特殊化とキャパシティ拡張がさらに促進される。
さらに、教師付きコントラスト学習目標を組み込んで、潜在空間幾何学を明示的に形成し、クラス内コンパクト性とクラス間分離性を奨励する。
最適化の安定性と一般化を改善するため,トレーニング中の確率的ウェイト平均化を適用した。
CAME-ABは、CAME-ABが精度、リコール、F1スコア、AUC-ROC、MCCなど、複数の指標の強いベースラインを一貫して上回っていることを示す。
アブレーション研究は、各アーキテクチャコンポーネントの有効性とマルチモーダル機能統合の利点をさらに検証する。
モデル実装の詳細とコードはhttps://anonymous.4open.science/r/CAME-AB-C525で公開されている。
関連論文リスト
- Towards Efficient General Feature Prediction in Masked Skeleton Modeling [59.46799426434277]
マスクスケルトンモデリングのための新しい汎用特徴予測フレームワーク(GFP)を提案する。
我々の重要な革新は、局所的な動きパターンからグローバルな意味表現にまたがる、従来の低レベルな再構築を高レベルな特徴予測に置き換えることです。
論文 参考訳(メタデータ) (2025-09-03T18:05:02Z) - Foundation Model for Skeleton-Based Human Action Understanding [56.89025287217221]
本稿では,統一骨格に基づくDense Representation Learningフレームワークを提案する。
USDRLはトランスフォーマーベースのDense Spatio-Temporal (DSTE)、Multi-Grained Feature Deorrelation (MG-FD)、Multi-Perspective Consistency Training (MPCT)で構成されている。
論文 参考訳(メタデータ) (2025-08-18T02:42:16Z) - AbRank: A Benchmark Dataset and Metric-Learning Framework for Antibody-Antigen Affinity Ranking [3.6572710422983445]
AbRankは、アフィニティ予測をペアのランキング問題として再設定する大規模なベンチマークと評価フレームワークである。
グラフベースのアプローチであるWALLE-Affinityを導入し、タンパク質言語モデルの埋め込みを構造情報と統合し、相互結合の嗜好を予測する。
論文 参考訳(メタデータ) (2025-06-21T23:34:46Z) - Dual encoding feature filtering generalized attention UNET for retinal vessel segmentation [3.016046646886431]
DEFFA-Unetは、ドメイン不変のプリプロセス入力を処理するエンコーダが追加されている。
精密な特徴フィルタリングとロバストなハイブリッド特徴融合を保証するため、特徴フィルタリング融合モジュールが開発された。
データ不足と分散不均衡に対処するために、革新的なデータ拡張とバランスの手法が提案されている。
論文 参考訳(メタデータ) (2025-06-02T23:01:15Z) - Semi-supervised Semantic Segmentation with Multi-Constraint Consistency Learning [81.02648336552421]
本稿では,エンコーダとデコーダの段階的拡張を容易にするためのマルチ制約一貫性学習手法を提案する。
自己適応型特徴マスキングとノイズ注入は、デコーダの堅牢な学習のための特徴を摂動させるために、インスタンス固有の方法で設計されている。
Pascal VOC2012およびCityscapesデータセットの実験結果から,提案したMCCLが新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2025-03-23T03:21:33Z) - CAVE-Net: Classifying Abnormalities in Video Capsule Endoscopy [0.1937002985471497]
複雑な画像データセットを解析する際の診断精度を向上させるために,アンサンブルに基づくアプローチを提案する。
各モデルのユニークな特徴抽出機能を活用し、全体的な精度を向上させる。
これらの手法を用いることで、提案フレームワークであるCAVE-Netは、ロバストな特徴識別と、より優れた分類結果を提供する。
論文 参考訳(メタデータ) (2024-10-26T17:25:08Z) - DualKanbaFormer: An Efficient Selective Sparse Framework for Multimodal Aspect-based Sentiment Analysis [0.6187939267100836]
マルチモーダル解析のための並列テキストおよびVisual KanbaFormerモジュールを利用する新しいフレームワークであるDual KanbaFormerを紹介する。
当社のアプローチでは、アスペクト指向スパース注意(ADSA)を導入して、粗粒度の凝集とアスペクト指向の精度のためのきめ細かい選択のバランスを取る。
従来のフィードフォワードネットワークと正規化をKAN(Kolmogorov-Arnold Networks)とDyT(Dynamic Tanh)に置き換え、非線形表現性と推論安定性を向上させる。
論文 参考訳(メタデータ) (2024-08-27T19:33:15Z) - Unleashing Network Potentials for Semantic Scene Completion [50.95486458217653]
本稿では,新しいSSCフレームワーク - Adrial Modality Modulation Network (AMMNet)を提案する。
AMMNetは、モダリティ間の勾配流の相互依存性を可能にするクロスモーダル変調と、動的勾配競争を利用するカスタマイズされた逆トレーニングスキームの2つのコアモジュールを導入している。
AMMNetは最先端のSSC法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2024-03-12T11:48:49Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。