論文の概要: SafeGenes: Evaluating the Adversarial Robustness of Genomic Foundation Models
- arxiv url: http://arxiv.org/abs/2506.00821v1
- Date: Sun, 01 Jun 2025 03:54:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.681065
- Title: SafeGenes: Evaluating the Adversarial Robustness of Genomic Foundation Models
- Title(参考訳): SafeGenes:ゲノム基盤モデルの逆ロバスト性の評価
- Authors: Huixin Zhan, Jason H. Moore,
- Abstract要約: 本稿では,ゲノム基盤モデルのセキュア解析のためのフレームワークであるSafeGenesを提案する。
我々は、高速勾配符号法とソフトプロンプト攻撃という2つのアプローチを用いて、GFMの敵の脆弱性を評価する。
ターゲットとしたソフトプロンプト攻撃は、ESM1bやESM1vのような大型モデルでも大幅に性能が低下した。
- 参考スコア(独自算出の注目度): 8.019763193322298
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Genomic Foundation Models (GFMs), such as Evolutionary Scale Modeling (ESM), have demonstrated significant success in variant effect prediction. However, their adversarial robustness remains largely unexplored. To address this gap, we propose SafeGenes: a framework for Secure analysis of genomic foundation models, leveraging adversarial attacks to evaluate robustness against both engineered near-identical adversarial Genes and embedding-space manipulations. In this study, we assess the adversarial vulnerabilities of GFMs using two approaches: the Fast Gradient Sign Method (FGSM) and a soft prompt attack. FGSM introduces minimal perturbations to input sequences, while the soft prompt attack optimizes continuous embeddings to manipulate model predictions without modifying the input tokens. By combining these techniques, SafeGenes provides a comprehensive assessment of GFM susceptibility to adversarial manipulation. Targeted soft prompt attacks led to substantial performance degradation, even in large models such as ESM1b and ESM1v. These findings expose critical vulnerabilities in current foundation models, opening new research directions toward improving their security and robustness in high-stakes genomic applications such as variant effect prediction.
- Abstract(参考訳): 進化的スケールモデリング(ESM)のようなGFM(Genomic Foundation Models)は、変動効果予測において大きな成功を収めている。
しかし、その敵対的堅牢性はほとんど未解明のままである。
このギャップに対処するために,ゲノム基盤モデルのセキュア解析のためのフレームワークであるSafeGenesを提案する。
本研究では,FGSM(Fast Gradient Sign Method)とソフト・プロンプト・アタック(Soft prompt attack)の2つのアプローチを用いて,GFMの対角的脆弱性を評価する。
FGSMは入力シーケンスに最小の摂動を導入し、ソフトプロンプト攻撃は連続的な埋め込みを最適化し、入力トークンを変更することなくモデル予測を操作する。
これらのテクニックを組み合わせることで、SafeGenesは、敵対的操作に対するGFM感受性の包括的な評価を提供する。
ターゲットとしたソフトプロンプト攻撃は、ESM1bやESM1vのような大型モデルでも大幅に性能が低下した。
これらの発見は、現在の基盤モデルにおける重要な脆弱性を明らかにし、変異効果予測のような高度なゲノム応用において、セキュリティとロバスト性を改善するための新たな研究方向を開く。
関連論文リスト
- GenoArmory: A Unified Evaluation Framework for Adversarial Attacks on Genomic Foundation Models [18.23302204506568]
ゲノミック・ファンデーション・モデル(GFM)に対する最初の統合逆攻撃ベンチマークを提案する。
我々は,4つの広く採用されている攻撃アルゴリズムと3つの防衛戦略を用いて,最先端の5つのGFMの対角的ロバスト性を評価する。
GFMの安全性を向上させるために設計された新しい逆サンプルデータセットであるGenoAdvを紹介する。
論文 参考訳(メタデータ) (2025-05-16T08:29:56Z) - Fast and Low-Cost Genomic Foundation Models via Outlier Removal [6.493357255196893]
GERMは、強い圧縮性能と高速適応性を持つゲノム基盤モデルである。
我々は,バニラアテンション層を連想記憶モデルにインスパイアされた外乱のない機構に置き換える。
GERM-Tは,アウトリアフリーフレームワーク内での連続学習を段階的に行う戦略である。
論文 参考訳(メタデータ) (2025-05-01T15:31:09Z) - Feature Statistics with Uncertainty Help Adversarial Robustness [19.01087281157066]
敵対的攻撃はディープニューラルネットワーク(DNN)の信頼性に重大な課題をもたらす
不確実性のある特徴統計(FSU)と呼ばれる頑健性向上モジュールを提案する。
チャネルワイドの特徴手段と多変量ガウス分布からの例の標準偏差を再サンプリングし、攻撃された例を再構築し、シフトした分布を校正するのに役立つ。
提案したFSUモジュールは、トレーニング、アタック、予測、微調整に普遍的な適用性を持ち、より簡単な追加時間コストで顕著な堅牢性向上能力を示す。
論文 参考訳(メタデータ) (2025-03-26T14:30:33Z) - Game-Theoretic Defenses for Robust Conformal Prediction Against Adversarial Attacks in Medical Imaging [12.644923600594176]
敵対的攻撃は、ディープラーニングモデルの信頼性と安全性に重大な脅威をもたらす。
本稿では,共形予測とゲーム理論の防衛戦略を統合する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-07T02:20:04Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。