論文の概要: Open-weight genome language model safeguards: Assessing robustness via adversarial fine-tuning
- arxiv url: http://arxiv.org/abs/2511.19299v1
- Date: Mon, 24 Nov 2025 16:46:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.325133
- Title: Open-weight genome language model safeguards: Assessing robustness via adversarial fine-tuning
- Title(参考訳): オープンウェイトゲノム言語モデルの保護:敵の微調整による堅牢性の評価
- Authors: James R. M. Black, Moritz S. Hanke, Aaron Maiwald, Tina Hernandez-Boussard, Oliver M. Crook, Jaspreet Pannu,
- Abstract要約: 我々は、最先端のgLMであるEvo 2を評価し、110の有害ヒト感染ウイルスの配列を用いて微調整を行う。
我々は、gLMの安全フレームワークの必要性を強調し、gLMの安全な配置を可能にするために必要な作業の概要を述べる。
- 参考スコア(独自算出の注目度): 5.053164256829132
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Novel deep learning architectures are increasingly being applied to biological data, including genetic sequences. These models, referred to as genomic language mod- els (gLMs), have demonstrated impressive predictive and generative capabilities, raising concerns that such models may also enable misuse, for instance via the generation of genomes for human-infecting viruses. These concerns have catalyzed calls for risk mitigation measures. The de facto mitigation of choice is filtering of pretraining data (i.e., removing viral genomic sequences from training datasets) in order to limit gLM performance on virus-related tasks. However, it is not currently known how robust this approach is for securing open-source models that can be fine-tuned using sensitive pathogen data. Here, we evaluate a state-of-the-art gLM, Evo 2, and perform fine-tuning using sequences from 110 harmful human-infecting viruses to assess the rescue of misuse-relevant predictive capabilities. The fine- tuned model exhibited reduced perplexity on unseen viral sequences relative to 1) the pretrained model and 2) a version fine-tuned on bacteriophage sequences. The model fine-tuned on human-infecting viruses also identified immune escape variants from SARS-CoV-2 (achieving an AUROC of 0.6), despite having no expo- sure to SARS-CoV-2 sequences during fine-tuning. This work demonstrates that data exclusion might be circumvented by fine-tuning approaches that can, to some degree, rescue misuse-relevant capabilities of gLMs. We highlight the need for safety frameworks for gLMs and outline further work needed on evaluations and mitigation measures to enable the safe deployment of gLMs.
- Abstract(参考訳): 新たなディープラーニングアーキテクチャは、遺伝子配列を含む生物学的データに適用されつつある。
これらのモデルはgLM(genomic language mod-els)と呼ばれ、優れた予測能力と生成能力を示しており、例えばヒトに感染するウイルスのゲノムの生成を通じて、そのようなモデルが誤用を可能にする可能性があるという懸念を提起している。
これらの懸念は、リスク軽減対策の要求を喚起した。
選択の事実上の緩和は、プレトレーニングデータ(すなわち、トレーニングデータセットからウイルスゲノム配列を除去する)をフィルタリングして、ウイルス関連のタスクにおけるgLMのパフォーマンスを制限することである。
しかし、この手法が、センシティブな病原体データを使って微調整できるオープンソースのモデルを確保するためにどれほど堅牢かは、現時点では分かっていない。
ここでは、最先端のgLMであるEvo 2を評価し、110の有害なヒト感染ウイルスの配列を用いて微調整を行い、誤用関連予測能力の回復を評価する。
微調整モデルでは、目に見えないウイルス配列に対するパープレキシティが低下した。
1)事前訓練されたモデル及び
2)バクテリオファージ配列を微調整したバージョン。
ヒト感染ウイルスを微調整したこのモデルは、微調整中にSARS-CoV-2配列に異常な確証がないにもかかわらず、SARS-CoV-2(AUROCは0.6)からの免疫逃避変異も同定した。
この研究は、データ排除が、ある程度は、gLMの誤用関連能力を救える微調整アプローチによって回避される可能性を実証している。
我々は、gLMの安全フレームワークの必要性を強調し、gLMの安全な配置を可能にするための評価および緩和措置に必要な更なる作業の概要を述べる。
関連論文リスト
- Adaptive Defense against Harmful Fine-Tuning for Large Language Models via Bayesian Data Scheduler [67.24175911858312]
有害な微調整は、大規模な言語モデルのための微調整・アズ・ア・サービスに重大な安全性のリスクをもたらす。
Bayesian Data Scheduler (BDS) は、アタックシミュレーションを必要としない適応型チューニングステージ防衛戦略である。
BDSは、微調整データセットとアライメントデータセットに基づいて、各データポイントの安全属性の後方分布を学習する。
論文 参考訳(メタデータ) (2025-10-31T04:49:37Z) - SafeGenes: Evaluating the Adversarial Robustness of Genomic Foundation Models [8.019763193322298]
本稿では,ゲノム基盤モデルのセキュア解析のためのフレームワークであるSafeGenesを提案する。
我々は、高速勾配符号法とソフトプロンプト攻撃という2つのアプローチを用いて、GFMの敵の脆弱性を評価する。
ターゲットとしたソフトプロンプト攻撃は、ESM1bやESM1vのような大型モデルでも大幅に性能が低下した。
論文 参考訳(メタデータ) (2025-06-01T03:54:03Z) - Backdoor Cleaning without External Guidance in MLLM Fine-tuning [76.82121084745785]
Believe Your Eyes (BYE)は、アテンションエントロピーパターンを自己教師信号として活用して、バックドアサンプルを特定してフィルタリングするデータフィルタリングフレームワークである。
クリーンタスクのパフォーマンスを維持しながら、ほぼゼロの攻撃成功率を達成する。
論文 参考訳(メタデータ) (2025-05-22T17:11:58Z) - HR-VILAGE-3K3M: A Human Respiratory Viral Immunization Longitudinal Gene Expression Dataset for Systems Immunity [8.64940622146001]
ヒト呼吸性ウイルス免疫LongitudinAl遺伝子の発現(HR-VilAGE-3K3M)リポジトリは、256万以上の細胞を含む66の被験者3,178名から14,136名のRNA-seqプロファイルを統合している。
HR-VilAGE-3K3Mは、ヒトの呼吸器ウイルス免疫にとって最大の経時的転写産物である。
論文 参考訳(メタデータ) (2025-05-19T19:37:49Z) - Exploration of Hepatitis B Virus Infection Dynamics through Physics-Informed Deep Learning Approach [0.0]
近年、ウイルス感染のダイナミクスを捉えるための有望なフレームワークとして物理情報ニューラルネットワーク(PINN)が登場している。
標準PINNは、フォワードモデリングによって疾患のダイナミクスをシミュレートするのに有効であるが、しばしば重要な生物学的パラメータを推定する際の課題に直面している。
DINNはパラメータ推定タスクに対して、より堅牢なアプローチを提供する。
論文 参考訳(メタデータ) (2025-03-12T20:02:31Z) - Neuromorphic Spiking Neural Network Based Classification of COVID-19 Spike Sequences [4.497217246897902]
本稿では,SARS-CoV-2データの効率的な解析を行うニューラルネットワークベース(NN)機構を提案する。
本稿では、まずスパイクタンパク質配列を固定長の数値表現に変換し、次にニューロモルフィックスパイキングニューラルネットワークを用いてそれらの配列を分類するパイプラインを提案する。
論文 参考訳(メタデータ) (2024-12-19T10:26:31Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - Benchmarking Machine Learning Robustness in Covid-19 Genome Sequence
Classification [109.81283748940696]
我々は、IlluminaやPacBioといった一般的なシークエンシングプラットフォームのエラープロファイルを模倣するために、SARS-CoV-2ゲノム配列を摂動する方法をいくつか紹介する。
シミュレーションに基づくいくつかのアプローチは、入力シーケンスに対する特定の敵攻撃に対する特定の埋め込み手法に対して、他の手法よりも堅牢(かつ正確)であることを示す。
論文 参考訳(メタデータ) (2022-07-18T19:16:56Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。