論文の概要: Inference-Time Toxicity Mitigation in Protein Language Models
- arxiv url: http://arxiv.org/abs/2603.04045v1
- Date: Wed, 04 Mar 2026 13:28:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.318461
- Title: Inference-Time Toxicity Mitigation in Protein Language Models
- Title(参考訳): タンパク質言語モデルにおける推論時毒性軽減
- Authors: Manuel Fernández Burda, Santiago Aranguri, Iván Arcuschin Moreno, Enzo Ferrante,
- Abstract要約: 特定の分類群へのドメイン適応は有毒なタンパク質生成を引き起こす可能性があることを示す。
タンパク質言語モデルの推論時間制御機構としてLogit Diff Amplificationを適用した。
以上の結果から,LDAは遺伝子品質を保ちながら毒性を緩和するタンパク質生成体に対して,実用的な安全ノブを提供することが明らかとなった。
- 参考スコア(独自算出の注目度): 4.803854991927891
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Protein language models (PLMs) are becoming practical tools for de novo protein design, yet their dual-use potential raises safety concerns. We show that domain adaptation to specific taxonomic groups can elicit toxic protein generation, even when toxicity is not the training objective. To address this, we adapt Logit Diff Amplification (LDA) as an inference-time control mechanism for PLMs. LDA modifies token probabilities by amplifying the logit difference between a baseline model and a toxicity-finetuned model, requiring no retraining. Across four taxonomic groups, LDA consistently reduces predicted toxicity rate (measured via ToxDL2) below the taxon-finetuned baseline while preserving biological plausibility. We evaluate quality using Fréchet ESM Distance and predicted foldability (pLDDT), finding that LDA maintains distributional similarity to natural proteins and structural viability (unlike activation-based steering methods that tend to degrade sequence properties). Our results demonstrate that LDA provides a practical safety knob for protein generators that mitigates elicited toxicity while retaining generative quality.
- Abstract(参考訳): タンパク質言語モデル(PLM)は、デノボタンパク質設計の実用的なツールになりつつあるが、その二重使用の可能性は安全性を懸念している。
特定の分類群に対するドメイン適応は, 毒性が訓練目的ではない場合でも有毒なタンパク質生成を誘発できることを示した。
そこで我々は,PLMの推論時間制御機構としてLogit Diff Amplification (LDA)を適用した。
LDAは、基準ラインモデルと毒性に富んだモデルとのロジット差を増幅し、再トレーニングを必要としないトークン確率を変化させる。
4つの分類群にまたがって、LDAは予測毒性率(ToxDL2を介して測定される)を、生物学的な妥当性を維持しながら、分類群を細分化した基準線以下で一貫して減少させる。
Fréchet ESM Distance and predict foldability (pLDDT) を用いて, LDAは天然タンパク質との分布的類似性および構造的生存性(配列特性を劣化させるアクティベーションベースのステアリング法とは違って)を維持していることを確認した。
以上の結果から,LDAは遺伝子品質を保ちながら毒性を緩和するタンパク質生成体に対して,実用的な安全ノブを提供することが明らかとなった。
関連論文リスト
- Robust Machine Learning for Regulatory Sequence Modeling under Biological and Technical Distribution Shifts [0.3948325938742681]
性能劣化、校正失敗、不確実性に基づく信頼性を定量化するためのロバストネスフレームワークを導入する。
シミュレーションでは、セル型特異的プログラム、摂動、GCバイアス、深さ変化、バッチ効果、ヘテロscedastic noiseによってモチーフ駆動の制御出力が生成される。
モデルは精度は保たれるが、高い誤差、激しいばらつきの誤校正、モチーフ効果の反転とノイズによるカバー崩壊が支配的な体制である。
論文 参考訳(メタデータ) (2026-01-21T13:15:27Z) - Self Distillation Fine-Tuning of Protein Language Models Improves Versatility in Protein Design [61.2846583160056]
Supervised Fine-tuning (SFT) は、大規模言語モデルを特殊なドメインに適応するための標準的なアプローチである。
これは、高品質なアノテートされたデータは、自然言語よりもタンパク質の入手がはるかに難しいためである。
生成したタンパク質配列の忠実度,信頼性,新規性を改善するために設計された,PLMの高速SFTのための簡易かつ汎用的なレシピを提案する。
論文 参考訳(メタデータ) (2025-12-10T05:34:47Z) - Integrating Neural Differential Forecasting with Safe Reinforcement Learning for Blood Glucose Regulation [51.12307713554633]
TSODEは、Thompson RL SmplingとNeural Ordinary Differential Equation forecasterを統合した安全対応のコントローラである。
FDAが承認したUVa/Padovaシミュレータ(adult cohort)では、TSODEは87.9%のタイムインレンジを達成した。
論文 参考訳(メタデータ) (2025-11-16T02:11:33Z) - Lightweight MSA Design Advances Protein Folding From Evolutionary Embeddings [51.731441632457226]
マルチシークエンスアライメント(MSA)は低ホモロジーおよび孤児タンパク質で機能する。
我々は、下流の折り畳みをより良くサポートするMSAを生成する軽量なMSA設計フレームワークPLAMEを紹介する。
AlphaFold2の低ホモロジー/孤児ベンチマークでは、PLAMEは構造精度の最先端の改善を提供する。
論文 参考訳(メタデータ) (2025-06-17T04:11:30Z) - JanusDDG: A Thermodynamics-Compliant Model for Sequence-Based Protein Stability via Two-Fronts Multi-Head Attention [0.0]
残基の変化がタンパク質の安定性にどのように影響するかを理解することは 機能的なタンパク質を設計するのに重要である。
タンパク質言語モデル(PLM)の最近の進歩は、計算タンパク質分析に革命をもたらした。
我々は PLM 由来の埋め込みと双方向のクロスアテンショントランスフォーマアーキテクチャを利用するディープラーニングフレームワーク JanusDDG を紹介する。
論文 参考訳(メタデータ) (2025-04-04T09:02:32Z) - How Does DPO Reduce Toxicity? A Mechanistic Neuron-Level Analysis [1.6274584204099996]
安全微調整アルゴリズムは言語モデルにおける有害な出力を減らすが、そのメカニズムは未解明のままである。
毒性ニューロンは、モデル全体でのDPOの効果の2.5%から24%に過ぎなかった。
そこで我々はDPOを模倣した活性化編集法を開発した。
論文 参考訳(メタデータ) (2024-11-10T11:07:34Z) - Large Language Models can be Strong Self-Detoxifiers [82.6594169242814]
SASA(Self-disciplined Autoregressive Smpling)は、大規模言語モデル(LLM)の毒性低減のための軽量制御復号アルゴリズムである。
SASAは、自己回帰サンプリング戦略を調整することにより、電流出力のマージンを追跡し、有害な部分空間から世代を分離する。
Llama-3.1-Instruct (8B), Llama-2 (7B), GPT2-L model with the RealToxicityPrompts, BOLD, and AttaQ benchmarks。
論文 参考訳(メタデータ) (2024-10-04T17:45:15Z) - Model Surgery: Modulating LLM's Behavior Via Simple Parameter Editing [63.20133320524577]
パラメータの小さなサブセットを編集することで、大きな言語モデル(LLM)の特定の振る舞いを効果的に調節できることを示す。
我々の手法は、RealToxicityPromptsデータセットで最大90.0%の毒性を減少させ、ToxiGenで49.2%を達成する。
論文 参考訳(メタデータ) (2024-07-11T17:52:03Z) - MSAGPT: Neural Prompting Protein Structure Prediction via MSA Generative Pre-Training [48.398329286769304]
マルチシークエンスアライメント(MSA)は、タンパク質ファミリーの進化的軌道を明らかにする上で重要な役割を担っている。
MSAGPTは、低MSA状態下でのMSA生成前訓練を通じてタンパク質構造予測を促進する新しいアプローチである。
論文 参考訳(メタデータ) (2024-06-08T04:23:57Z) - Blood Glucose Control Via Pre-trained Counterfactual Invertible Neural Networks [3.7217371773133325]
対実的可逆ニューラルネットワーク(CINN)に基づくイントロスペクティブ強化学習(RL)を提案する。
事前学習したCINNをRLエージェントのフリーズイントロスペクティブブロックとして使用し、フォワード予測と反ファクト推論を統合してポリシー更新を誘導する。
本稿では,BG予測における事前学習CINNの精度と一般化能力を実験的に検証した。
論文 参考訳(メタデータ) (2024-05-23T01:34:59Z) - Towards Understanding the Robustness of Diffusion-Based Purification: A Stochastic Perspective [65.10019978876863]
拡散性浄化(DBP)は、敵の攻撃に対する効果的な防御機構として出現している。
本稿では,DBPプロセスの本質性がロバスト性を駆動する主要な要因であることを示す。
論文 参考訳(メタデータ) (2024-04-22T16:10:38Z) - SPLDExtraTrees: Robust machine learning approach for predicting kinase
inhibitor resistance [1.0674604700001966]
本研究では,タンパク質変異によるリガンド結合親和性の変化を正確に予測できる堅牢な機械学習手法SPLDExtraTreesを提案する。
提案手法は、学習が容易なサンプルから始まる特定のスキームに従ってトレーニングデータをランク付けする。
実験では,3つのシナリオにおいて,キナーゼ阻害剤耐性の予測法の有効性を実証した。
論文 参考訳(メタデータ) (2021-11-15T09:07:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。