論文の概要: AFD-INSTRUCTION: A Comprehensive Antibody Instruction Dataset with Functional Annotations for LLM-Based Understanding and Design
- arxiv url: http://arxiv.org/abs/2602.04916v1
- Date: Wed, 04 Feb 2026 05:09:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.538506
- Title: AFD-INSTRUCTION: A Comprehensive Antibody Instruction Dataset with Functional Annotations for LLM-Based Understanding and Design
- Title(参考訳): AFD-Instructuction:LLMに基づく理解と設計のための機能アノテーション付き総合的な抗体インストラクションデータセット
- Authors: Ling Luo, Wenbin Jiang, Xushi Zhang, Hongyuan Chang, Xinkang Wang, Yueting Xiong, Mengsha Tong, Rongshan Yu,
- Abstract要約: AFD-Instructionは、抗体に合わせた機能アノテーションを備えた最初の大規模命令データセットである。
このデータセットは2つの重要な構成要素を含んでいる: 抗体理解は、配列から直接機能的特性を推測するものであり、また、機能的制約の下でデノボ配列を生成することができる抗体設計である。
- 参考スコア(独自算出の注目度): 3.969766698776214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have significantly advanced protein representation learning. However, their capacity to interpret and design antibodies through natural language remains limited. To address this challenge, we present AFD-Instruction, the first large-scale instruction dataset with functional annotations tailored to antibodies. This dataset encompasses two key components: antibody understanding, which infers functional attributes directly from sequences, and antibody design, which enables de novo sequence generation under functional constraints. These components provide explicit sequence-function alignment and support antibody design guided by natural language instructions. Extensive instruction-tuning experiments on general-purpose LLMs demonstrate that AFD-Instruction consistently improves performance across diverse antibody-related tasks. By linking antibody sequences with textual descriptions of function, AFD-Instruction establishes a new foundation for advancing antibody modeling and accelerating therapeutic discovery.
- Abstract(参考訳): 大規模言語モデル(LLM)は、タンパク質表現学習を著しく進歩させた。
しかし、自然言語による抗体の解釈と設計能力は依然として限られている。
この課題に対処するために、抗体に合わせた機能アノテーションを備えた最初の大規模命令データセットであるAFD-Instructionを提案する。
このデータセットは2つの重要な構成要素を含んでいる: 抗体理解は、配列から直接機能的特性を推測するものであり、また、機能的制約の下でデノボ配列を生成することができる抗体設計である。
これらのコンポーネントは、明示的な配列機能アライメントと、自然言語命令でガイドされる抗体設計をサポートする。
汎用LDMにおける広範囲な指導訓練実験により,AFD-インストラクションは多種多様な抗体関連タスクのパフォーマンスを一貫して改善することが示された。
AFD-Instructionは、抗体配列と機能のテキスト記述を結びつけることによって、抗体モデリングの進歩と治療発見の促進のための新しい基盤を確立する。
関連論文リスト
- STELLA: Guiding Large Language Models for Time Series Forecasting with Semantic Abstractions [4.169671705130711]
構造的補足情報や補足情報をマイニングし注入するフレームワークSTELLAを提案する。
StELLAは、入力系列をトレンド、季節性、残留成分に分解する動的セマンティック抽象化機構を採用している。
8つのベンチマークデータセットの実験により、STELLAは長期および短期予測において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-12-04T14:56:36Z) - SLiNT: Structure-aware Language Model with Injection and Contrastive Training for Knowledge Graph Completion [11.686307370683922]
知識グラフにおけるリンク予測は、欠落したエンティティを推測するために構造情報と意味コンテキストを統合する必要がある。
SLiNTは,知識グラフに基づく構造的コンテキストを,ロラをベースとした軽量な適応型フリーズバックボーンに注入し,堅牢なリンク予測を行うモジュールフレームワークである。
WN18RRとFB15k-237の実験により、SLiNTは埋め込みベースとジェネレーションベースの両方と比較して優れた性能または競争性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-09-08T10:36:49Z) - Are All Prompt Components Value-Neutral? Understanding the Heterogeneous Adversarial Robustness of Dissected Prompt in Large Language Models [11.625319498017733]
PromptAnatomyは、プロンプトを機能コンポーネントに分解する自動化フレームワークです。
提案手法であるComPerturbを用いて,各コンポーネントを選択的に摂動することで,逆例を生成する。
補完的なリソースとして,PromptAnatomyフレームワークを用いて4つの公開命令チューニングデータセットを注釈付けする。
論文 参考訳(メタデータ) (2025-08-03T02:46:30Z) - DecIF: Improving Instruction-Following through Meta-Decomposition [9.939860059820917]
DecIFは、多種多様な高品質の命令追従データを生成する、完全に自律的でメタ分解誘導フレームワークである。
命令生成のために,LLMは様々なメタ情報を反復的に生成し,応答制約と組み合わせて意味的にリッチな命令を生成するように誘導する。
応答生成のために、各命令を原子レベルの評価基準に分解し、厳密な検証と不正確な命令応答対の除去を可能にする。
論文 参考訳(メタデータ) (2025-05-20T06:38:28Z) - ASIDE: Architectural Separation of Instructions and Data in Language Models [87.16417239344285]
ASIDEは言語モデルに対して、埋め込みのレベルで命令とデータを明確に分離することを可能にする。
本稿では,ASIDE を用いた命令調整 LLM がモデルユーティリティを損なうことなく,命令データ分離の高度化につながることを実験的に示す。
モデル表現の分析を通じて,本手法の基盤となるメカニズムについて考察する。
論文 参考訳(メタデータ) (2025-03-13T17:17:17Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z) - FIND: A Function Description Benchmark for Evaluating Interpretability
Methods [86.80718559904854]
本稿では,自動解釈可能性評価のためのベンチマークスイートであるFIND(Function Interpretation and Description)を紹介する。
FINDには、トレーニングされたニューラルネットワークのコンポーネントに似た機能と、私たちが生成しようとしている種類の記述が含まれています。
本研究では、事前訓練された言語モデルを用いて、自然言語とコードにおける関数の振る舞いの記述を生成する手法を評価する。
論文 参考訳(メタデータ) (2023-09-07T17:47:26Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Reprogramming Pretrained Language Models for Antibody Sequence Infilling [72.13295049594585]
抗体の計算設計には、構造的一貫性を維持しながら、新規で多様な配列を生成することが含まれる。
近年のディープラーニングモデルでは優れた結果が得られたが、既知の抗体配列/構造対の数が限られているため、性能が劣化することが多い。
これは、ソース言語でトレーニング済みのモデルを再利用して、異なる言語で、データが少ないタスクに適応するものです。
論文 参考訳(メタデータ) (2022-10-05T20:44:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。