論文の概要: Improved Therapeutic Antibody Reformatting through Multimodal Machine Learning
- arxiv url: http://arxiv.org/abs/2509.19604v1
- Date: Tue, 23 Sep 2025 21:52:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.620465
- Title: Improved Therapeutic Antibody Reformatting through Multimodal Machine Learning
- Title(参考訳): マルチモーダル機械学習による治療的抗体改質の改善
- Authors: Jiayi Xin, Aniruddh Raghu, Nick Bhattacharya, Adam Carr, Melanie Montgomery, Hunter Elliott,
- Abstract要約: 我々は「改革の成功」を予測する機械学習フレームワークを開発した
実世界の抗体再構成データセットの実験では、大きな事前訓練されたタンパク質言語モデルが単純でドメインを調整したマルチモーダル表現を上回らないという驚くべき結果が得られました。
- 参考スコア(独自算出の注目度): 4.3582808574546315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern therapeutic antibody design often involves composing multi-part assemblages of individual functional domains, each of which may be derived from a different source or engineered independently. While these complex formats can expand disease applicability and improve safety, they present a significant engineering challenge: the function and stability of individual domains are not guaranteed in the novel format, and the entire molecule may no longer be synthesizable. To address these challenges, we develop a machine learning framework to predict "reformatting success" -- whether converting an antibody from one format to another will succeed or not. Our framework incorporates both antibody sequence and structural context, incorporating an evaluation protocol that reflects realistic deployment scenarios. In experiments on a real-world antibody reformatting dataset, we find the surprising result that large pretrained protein language models (PLMs) fail to outperform simple, domain-tailored, multimodal representations. This is particularly evident in the most difficult evaluation setting, where we test model generalization to a new starting antibody. In this challenging "new antibody, no data" scenario, our best multimodal model achieves high predictive accuracy, enabling prioritization of promising candidates and reducing wasted experimental effort.
- Abstract(参考訳): 近代的な抗体設計では、個々の機能ドメインの複数の部分集合体を構成することがしばしばあり、それぞれが異なるソースから誘導されるか、独立して設計される。
これらの複雑なフォーマットは病気の適用性を高め、安全性を向上させることができるが、個々のドメインの機能と安定性は新規なフォーマットでは保証されず、分子全体がもはや合成できないという、重要なエンジニアリング上の課題が提示される。
これらの課題に対処するため、あるフォーマットから別のフォーマットへの抗体の変換が成功するかどうかを"再フォーマットの成功"を予測する機械学習フレームワークを開発しました。
本フレームワークは, 現実的な展開シナリオを反映した評価プロトコルを組み込んだ, 抗体配列と構造コンテキストの両方を組み込んだフレームワークである。
実世界の抗体再構成データセットの実験では、大きな事前訓練されたタンパク質言語モデル(PLM)が、単純でドメインを調整したマルチモーダル表現を上回らないという驚くべき結果が得られました。
これは、新しい開始抗体に対するモデル一般化をテストする最も難しい評価条件において特に顕著である。
この挑戦的な「新しい抗体、データなし」シナリオでは、最良のマルチモーダルモデルは高い予測精度を達成し、有望な候補の優先順位付けを可能にし、無駄な実験作業を減らすことができる。
関連論文リスト
- White-Basilisk: A Hybrid Model for Code Vulnerability Detection [45.03594130075282]
我々は、優れた性能を示す脆弱性検出の新しいアプローチであるWhite-Basiliskを紹介する。
White-Basiliskは、パラメータ数2億の脆弱性検出タスクで結果を得る。
この研究は、コードセキュリティにおける新しいベンチマークを確立し、コンパクトで効率的に設計されたモデルが、特定のタスクにおいてより大きなベンチマークよりも優れているという実証的な証拠を提供する。
論文 参考訳(メタデータ) (2025-07-11T12:39:25Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - OET: Optimization-based prompt injection Evaluation Toolkit [25.148709805243836]
大規模言語モデル(LLM)は、自然言語の理解と生成において顕著な能力を示した。
インジェクション攻撃に対する感受性は、重大なセキュリティリスクを生じさせる。
多くの防衛戦略にもかかわらず、その効果を厳格に評価する標準化された枠組みが欠如している。
論文 参考訳(メタデータ) (2025-05-01T20:09:48Z) - S$^2$ALM: Sequence-Structure Pre-trained Large Language Model for Comprehensive Antibody Representation Learning [8.059724314850799]
抗体は、特定の抗原に正確かつ強力な結合を通じて健康を守り、新型コロナウイルスを含む多くの疾患の治療に有望な治療効果を示す。
バイオメディカル言語モデルの最近の進歩は、複雑な生物学的構造や機能を理解する大きな可能性を示している。
本稿では,1つの総合的抗体基盤モデルにおいて,包括的および構造的情報を組み合わせたシーケンス構造型多段階事前訓練抗体言語モデル(S$2$ALM)を提案する。
論文 参考訳(メタデータ) (2024-11-20T14:24:26Z) - Incorporating Pre-training Paradigm for Antibody Sequence-Structure
Co-design [134.65287929316673]
深層学習に基づく計算抗体の設計は、人間の経験を補完する可能性のあるデータから自動的に抗体パターンをマイニングするので、注目を集めている。
計算手法は高品質な抗体構造データに大きく依存しており、非常に限定的である。
幸いなことに、CDRをモデル化し、構造データへの依存を軽減するために有効な抗体の配列データが多数存在する。
論文 参考訳(メタデータ) (2022-10-26T15:31:36Z) - Reprogramming Pretrained Language Models for Antibody Sequence Infilling [72.13295049594585]
抗体の計算設計には、構造的一貫性を維持しながら、新規で多様な配列を生成することが含まれる。
近年のディープラーニングモデルでは優れた結果が得られたが、既知の抗体配列/構造対の数が限られているため、性能が劣化することが多い。
これは、ソース言語でトレーニング済みのモデルを再利用して、異なる言語で、データが少ないタスクに適応するものです。
論文 参考訳(メタデータ) (2022-10-05T20:44:55Z) - Antibody Representation Learning for Drug Discovery [7.291511531280898]
新規なSARS-CoV-2抗体結合データセットと追加ベンチマークデータセットについて報告する。
従来の統計的シーケンスモデル,各データセットの教師付き学習,および抗体特異的事前訓練言語モデルの微調整の3つのクラスを比較した。
実験結果から,特徴表現の自己教師付き事前学習は,従来の手法よりも大幅に改善されていることが示唆された。
論文 参考訳(メタデータ) (2022-10-05T13:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。