論文の概要: GenoArmory: A Unified Evaluation Framework for Adversarial Attacks on Genomic Foundation Models
- arxiv url: http://arxiv.org/abs/2505.10983v1
- Date: Fri, 16 May 2025 08:29:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.297098
- Title: GenoArmory: A Unified Evaluation Framework for Adversarial Attacks on Genomic Foundation Models
- Title(参考訳): GenoArmory: ゲノム基盤モデルに対する敵対的攻撃のための統一評価フレームワーク
- Authors: Haozheng Luo, Chenghao Qiu, Yimin Wang, Shang Wu, Jiahao Yu, Han Liu, Binghui Wang, Yan Chen,
- Abstract要約: ゲノミック・ファンデーション・モデル(GFM)に対する最初の統合逆攻撃ベンチマークを提案する。
我々は,4つの広く採用されている攻撃アルゴリズムと3つの防衛戦略を用いて,最先端の5つのGFMの対角的ロバスト性を評価する。
GFMの安全性を向上させるために設計された新しい逆サンプルデータセットであるGenoAdvを紹介する。
- 参考スコア(独自算出の注目度): 18.23302204506568
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose the first unified adversarial attack benchmark for Genomic Foundation Models (GFMs), named GenoArmory. Unlike existing GFM benchmarks, GenoArmory offers the first comprehensive evaluation framework to systematically assess the vulnerability of GFMs to adversarial attacks. Methodologically, we evaluate the adversarial robustness of five state-of-the-art GFMs using four widely adopted attack algorithms and three defense strategies. Importantly, our benchmark provides an accessible and comprehensive framework to analyze GFM vulnerabilities with respect to model architecture, quantization schemes, and training datasets. Additionally, we introduce GenoAdv, a new adversarial sample dataset designed to improve GFM safety. Empirically, classification models exhibit greater robustness to adversarial perturbations compared to generative models, highlighting the impact of task type on model vulnerability. Moreover, adversarial attacks frequently target biologically significant genomic regions, suggesting that these models effectively capture meaningful sequence features.
- Abstract(参考訳): 我々は、Genomic Foundation Models (GFMs) に対して、GenoArmory という、最初の統合された敵攻撃ベンチマークを提案する。
既存のGFMベンチマークとは異なり、GenoArmoryは、敵攻撃に対するGFMの脆弱性を体系的に評価する最初の総合的な評価フレームワークを提供する。
提案手法は,4つの広く採用されている攻撃アルゴリズムと3つの防御戦略を用いて,5つの最先端GFMの対角的ロバスト性を評価する。
重要な点として、我々のベンチマークは、モデルアーキテクチャ、量子化スキーム、およびデータセットのトレーニングに関するGFM脆弱性を分析するための、アクセス可能で包括的なフレームワークを提供する。
また,GFMの安全性向上を目的とした新しい逆サンプルデータセットであるGenoAdvを紹介する。
経験的に、分類モデルは、生成モデルと比較して敵の摂動に対して強い堅牢性を示し、モデル脆弱性に対するタスクタイプの影響を強調している。
さらに、敵対的攻撃はしばしば生物学的に重要なゲノム領域を標的としており、これらのモデルが意味のある配列の特徴を効果的に捉えていることを示唆している。
関連論文リスト
- Fast and Low-Cost Genomic Foundation Models via Outlier Removal [6.493357255196893]
GERMは、強い圧縮性能と高速適応性を持つゲノム基盤モデルである。
我々は,バニラアテンション層を連想記憶モデルにインスパイアされた外乱のない機構に置き換える。
GERM-Tは,アウトリアフリーフレームワーク内での連続学習を段階的に行う戦略である。
論文 参考訳(メタデータ) (2025-05-01T15:31:09Z) - A Framework for Evaluating Vision-Language Model Safety: Building Trust in AI for Public Sector Applications [0.0]
本稿では,視覚言語モデル(VLM)における敵対的リスクを定量化する新しい枠組みを提案する。
我々は,ガウス,ソルト・アンド・ペッパー,均一雑音下でのモデル性能を解析し,誤分類しきい値を特定し,脆弱な領域を目立たせる複合ノイズパッチやサリエンシパターンを導出する。
本稿では,ランダムノイズと敵攻撃の影響を組み合わせた新しい脆弱性スコアを提案し,モデルロバスト性を評価するための総合的指標を提供する。
論文 参考訳(メタデータ) (2025-02-22T21:33:26Z) - Game-Theoretic Defenses for Robust Conformal Prediction Against Adversarial Attacks in Medical Imaging [12.644923600594176]
敵対的攻撃は、ディープラーニングモデルの信頼性と安全性に重大な脅威をもたらす。
本稿では,共形予測とゲーム理論の防衛戦略を統合する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-07T02:20:04Z) - GenBench: A Benchmarking Suite for Systematic Evaluation of Genomic Foundation Models [56.63218531256961]
我々はGenomic Foundation Modelsの有効性を評価するためのベンチマークスイートであるGenBenchを紹介する。
GenBenchはモジュラーで拡張可能なフレームワークを提供し、様々な最先端の方法論をカプセル化している。
本稿では,タスク固有性能におけるモデルアーキテクチャとデータセット特性の相互作用のニュアンス解析を行う。
論文 参考訳(メタデータ) (2024-06-01T08:01:05Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - GREAT Score: Global Robustness Evaluation of Adversarial Perturbation using Generative Models [60.48306899271866]
GREATスコア(GREAT Score)と呼ばれる新しいフレームワークを提案する。
我々は,ロバストベンチにおける攻撃ベースモデルと比較し,高い相関性を示し,GREATスコアのコストを大幅に削減した。
GREAT Scoreは、プライバシーに敏感なブラックボックスモデルのリモート監査に使用することができる。
論文 参考訳(メタデータ) (2023-04-19T14:58:27Z) - A Comprehensive Evaluation Framework for Deep Model Robustness [44.20580847861682]
ディープニューラルネットワーク(DNN)は、幅広いアプリケーションで顕著なパフォーマンスを達成しています。
彼らは敵の防御を動機付ける敵の例に弱い。
本稿では,包括的で厳密で一貫性のある評価指標を含むモデル評価フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-24T01:04:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。