論文の概要: Comparative Insights on Adversarial Machine Learning from Industry and Academia: A User-Study Approach
- arxiv url: http://arxiv.org/abs/2602.04753v1
- Date: Wed, 04 Feb 2026 16:51:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.641175
- Title: Comparative Insights on Adversarial Machine Learning from Industry and Academia: A User-Study Approach
- Title(参考訳): 産学・産学連携型機械学習の比較研究 : ユーザスタディによるアプローチ
- Authors: Vishruti Kakkad, Paul Chung, Hanan Hibshi, Maverick Woo,
- Abstract要約: 本稿では,産業専門家と学生の様々な機械学習の脆弱性とその教育戦略について考察する。
最初の調査では、専門家によるオンライン調査を行い、サイバーセキュリティ教育とAMLの脅威に対する懸念との間に顕著な相関が示された。
第2の研究では、自然言語処理と生成AIの概念を実装した2つのCTF課題を開発し、トレーニングデータセットに対する有害な攻撃を実証した。
これらの課題の有効性は、カーネギーメロン大学の学部生や大学院生を対象に調査を行い、CTFベースのアプローチがAMLの脅威に効果的に関与することを発見した。
- 参考スコア(独自算出の注目度): 1.0044628029182177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An exponential growth of Machine Learning and its Generative AI applications brings with it significant security challenges, often referred to as Adversarial Machine Learning (AML). In this paper, we conducted two comprehensive studies to explore the perspectives of industry professionals and students on different AML vulnerabilities and their educational strategies. In our first study, we conducted an online survey with professionals revealing a notable correlation between cybersecurity education and concern for AML threats. For our second study, we developed two CTF challenges that implement Natural Language Processing and Generative AI concepts and demonstrate a poisoning attack on the training data set. The effectiveness of these challenges was evaluated by surveying undergraduate and graduate students at Carnegie Mellon University, finding that a CTF-based approach effectively engages interest in AML threats. Based on the responses of the participants in our research, we provide detailed recommendations emphasizing the critical need for integrated security education within the ML curriculum.
- Abstract(参考訳): 機械学習とその生成AIアプリケーションの指数関数的な成長は、しばしばAdversarial Machine Learning (AML)と呼ばれる、重大なセキュリティ上の課題をもたらす。
本稿では,AMLの脆弱性と教育戦略について,産業界の専門家と学生の視点を探るため,総合的な2つの研究を行った。
最初の調査では、専門家によるオンライン調査を行い、サイバーセキュリティ教育とAMLの脅威に対する懸念との間に顕著な相関が示された。
第2の研究では、自然言語処理と生成AIの概念を実装した2つのCTF課題を開発し、トレーニングデータセットに対する有害な攻撃を実証した。
これらの課題の有効性は、カーネギーメロン大学の学部生や大学院生を対象に調査を行い、CTFベースのアプローチがAMLの脅威に効果的に関与することを発見した。
本研究の参加者の回答に基づき,MLカリキュラムにおける総合的なセキュリティ教育の必要性を強調した詳細なレコメンデーションを提示する。
関連論文リスト
- A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - Safety at Scale: A Comprehensive Survey of Large Model and Agent Safety [296.5392512998251]
我々は、敵攻撃、データ中毒、バックドア攻撃、ジェイルブレイクとプロンプトインジェクション攻撃、エネルギー遅延攻撃、データとモデル抽出攻撃、出現するエージェント固有の脅威を含む、大規模なモデルに対する安全脅威の包括的分類を提示する。
我々は、大規模なモデル安全性におけるオープンな課題を特定し、議論し、包括的な安全性評価、スケーラブルで効果的な防御機構、持続可能なデータプラクティスの必要性を強調します。
論文 参考訳(メタデータ) (2025-02-02T05:14:22Z) - Predicting Vulnerability to Malware Using Machine Learning Models: A Study on Microsoft Windows Machines [0.0]
本研究では機械学習(ML)技術を活用した効果的なマルウェア検出戦略の必要性に対処する。
本研究の目的は、個々のマシンの特定の状況に基づいて、マルウェアの脆弱性を正確に予測する高度なMLモデルを開発することである。
論文 参考訳(メタデータ) (2025-01-05T10:04:58Z) - Threats, Attacks, and Defenses in Machine Unlearning: A Survey [14.03428437751312]
マシン・アンラーニング(MU)は、Safe AIを達成する可能性から、最近かなりの注目を集めている。
この調査は、機械学習における脅威、攻撃、防衛に関する広範な研究のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-03-20T15:40:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。