論文の概要: SafeGenes: Evaluating the Adversarial Robustness of Genomic Foundation Models
- arxiv url: http://arxiv.org/abs/2506.00821v1
- Date: Sun, 01 Jun 2025 03:54:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.681065
- Title: SafeGenes: Evaluating the Adversarial Robustness of Genomic Foundation Models
- Title(参考訳): SafeGenes:ゲノム基盤モデルの逆ロバスト性の評価
- Authors: Huixin Zhan, Jason H. Moore,
- Abstract要約: 本稿では,ゲノム基盤モデルのセキュア解析のためのフレームワークであるSafeGenesを提案する。
我々は、高速勾配符号法とソフトプロンプト攻撃という2つのアプローチを用いて、GFMの敵の脆弱性を評価する。
ターゲットとしたソフトプロンプト攻撃は、ESM1bやESM1vのような大型モデルでも大幅に性能が低下した。
- 参考スコア(独自算出の注目度): 8.019763193322298
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Genomic Foundation Models (GFMs), such as Evolutionary Scale Modeling (ESM), have demonstrated significant success in variant effect prediction. However, their adversarial robustness remains largely unexplored. To address this gap, we propose SafeGenes: a framework for Secure analysis of genomic foundation models, leveraging adversarial attacks to evaluate robustness against both engineered near-identical adversarial Genes and embedding-space manipulations. In this study, we assess the adversarial vulnerabilities of GFMs using two approaches: the Fast Gradient Sign Method (FGSM) and a soft prompt attack. FGSM introduces minimal perturbations to input sequences, while the soft prompt attack optimizes continuous embeddings to manipulate model predictions without modifying the input tokens. By combining these techniques, SafeGenes provides a comprehensive assessment of GFM susceptibility to adversarial manipulation. Targeted soft prompt attacks led to substantial performance degradation, even in large models such as ESM1b and ESM1v. These findings expose critical vulnerabilities in current foundation models, opening new research directions toward improving their security and robustness in high-stakes genomic applications such as variant effect prediction.
- Abstract(参考訳): 進化的スケールモデリング(ESM)のようなGFM(Genomic Foundation Models)は、変動効果予測において大きな成功を収めている。
しかし、その敵対的堅牢性はほとんど未解明のままである。
このギャップに対処するために,ゲノム基盤モデルのセキュア解析のためのフレームワークであるSafeGenesを提案する。
本研究では,FGSM(Fast Gradient Sign Method)とソフト・プロンプト・アタック(Soft prompt attack)の2つのアプローチを用いて,GFMの対角的脆弱性を評価する。
FGSMは入力シーケンスに最小の摂動を導入し、ソフトプロンプト攻撃は連続的な埋め込みを最適化し、入力トークンを変更することなくモデル予測を操作する。
これらのテクニックを組み合わせることで、SafeGenesは、敵対的操作に対するGFM感受性の包括的な評価を提供する。
ターゲットとしたソフトプロンプト攻撃は、ESM1bやESM1vのような大型モデルでも大幅に性能が低下した。
これらの発見は、現在の基盤モデルにおける重要な脆弱性を明らかにし、変異効果予測のような高度なゲノム応用において、セキュリティとロバスト性を改善するための新たな研究方向を開く。
関連論文リスト
- Explainer-guided Targeted Adversarial Attacks against Binary Code Similarity Detection Models [12.524811181751577]
我々は,BCSDモデルに対する敵攻撃に対する新たな最適化を提案する。
特に,攻撃目標は,モデル予測を特定の範囲に制限することである。
我々の攻撃は、モデル決定境界の解釈において、ブラックボックス、モデルに依存しない説明器の優れた能力を活用する。
論文 参考訳(メタデータ) (2025-06-05T08:29:19Z) - GenoArmory: A Unified Evaluation Framework for Adversarial Attacks on Genomic Foundation Models [18.23302204506568]
ゲノミック・ファンデーション・モデル(GFM)に対する最初の統合逆攻撃ベンチマークを提案する。
我々は,4つの広く採用されている攻撃アルゴリズムと3つの防衛戦略を用いて,最先端の5つのGFMの対角的ロバスト性を評価する。
GFMの安全性を向上させるために設計された新しい逆サンプルデータセットであるGenoAdvを紹介する。
論文 参考訳(メタデータ) (2025-05-16T08:29:56Z) - Fast and Low-Cost Genomic Foundation Models via Outlier Removal [6.493357255196893]
GERMは、強い圧縮性能と高速適応性を持つゲノム基盤モデルである。
我々は,バニラアテンション層を連想記憶モデルにインスパイアされた外乱のない機構に置き換える。
GERM-Tは,アウトリアフリーフレームワーク内での連続学習を段階的に行う戦略である。
論文 参考訳(メタデータ) (2025-05-01T15:31:09Z) - Feature Statistics with Uncertainty Help Adversarial Robustness [19.01087281157066]
敵対的攻撃はディープニューラルネットワーク(DNN)の信頼性に重大な課題をもたらす
不確実性のある特徴統計(FSU)と呼ばれる頑健性向上モジュールを提案する。
チャネルワイドの特徴手段と多変量ガウス分布からの例の標準偏差を再サンプリングし、攻撃された例を再構築し、シフトした分布を校正するのに役立つ。
提案したFSUモジュールは、トレーニング、アタック、予測、微調整に普遍的な適用性を持ち、より簡単な追加時間コストで顕著な堅牢性向上能力を示す。
論文 参考訳(メタデータ) (2025-03-26T14:30:33Z) - Game-Theoretic Defenses for Robust Conformal Prediction Against Adversarial Attacks in Medical Imaging [12.644923600594176]
敵対的攻撃は、ディープラーニングモデルの信頼性と安全性に重大な脅威をもたらす。
本稿では,共形予測とゲーム理論の防衛戦略を統合する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-07T02:20:04Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Enhancing the "Immunity" of Mixture-of-Experts Networks for Adversarial
Defense [6.3712912872409415]
近年の研究では、敵対的な例に対するディープニューラルネットワーク(DNN)の脆弱性が明らかにされている。
そこで我々は,Mixture-of-Experts (MoE) アーキテクチャを改良した新たな敵防御手法 "Immunity" を提案する。
論文 参考訳(メタデータ) (2024-02-29T01:27:38Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - In and Out-of-Domain Text Adversarial Robustness via Label Smoothing [64.66809713499576]
多様なNLPタスクの基本モデルにおいて,ラベルの平滑化戦略によって提供される対角的ロバスト性について検討する。
実験の結果,ラベルのスムース化は,BERTなどの事前学習モデルにおいて,様々な攻撃に対して,逆方向の堅牢性を大幅に向上させることがわかった。
また,予測信頼度とロバスト性の関係を解析し,ラベルの平滑化が敵の例に対する過度な信頼誤差を減少させることを示した。
論文 参考訳(メタデータ) (2022-12-20T14:06:50Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。