論文の概要: Runtime Detection of Adversarial Attacks in AI Accelerators Using Performance Counters
- arxiv url: http://arxiv.org/abs/2503.07568v1
- Date: Mon, 10 Mar 2025 17:38:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 18:54:28.379092
- Title: Runtime Detection of Adversarial Attacks in AI Accelerators Using Performance Counters
- Title(参考訳): 性能カウンタを用いたAI加速器の敵攻撃の実行時検出
- Authors: Habibur Rahaman, Atri Chatterjee, Swarup Bhunia,
- Abstract要約: 本稿では,AIハードウェアの悪意ある使用に対する保護のための新しいフレームワークである佐村井を提案する。
Samurai氏は、AIモデルの動的振る舞いを追跡するAI Performance Counter(APC)を紹介している。
APCは、異なるAI操作の低レベルのハードウェアイベントのランタイムプロファイルを記録する。
APCが記録した要約情報は、TANTOによって処理され、潜在的なセキュリティ違反を効率的に識別する。
- 参考スコア(独自算出の注目度): 5.097354139604596
- License:
- Abstract: Rapid adoption of AI technologies raises several major security concerns, including the risks of adversarial perturbations, which threaten the confidentiality and integrity of AI applications. Protecting AI hardware from misuse and diverse security threats is a challenging task. To address this challenge, we propose SAMURAI, a novel framework for safeguarding against malicious usage of AI hardware and its resilience to attacks. SAMURAI introduces an AI Performance Counter (APC) for tracking dynamic behavior of an AI model coupled with an on-chip Machine Learning (ML) analysis engine, known as TANTO (Trained Anomaly Inspection Through Trace Observation). APC records the runtime profile of the low-level hardware events of different AI operations. Subsequently, the summary information recorded by the APC is processed by TANTO to efficiently identify potential security breaches and ensure secure, responsible use of AI. SAMURAI enables real-time detection of security threats and misuse without relying on traditional software-based solutions that require model integration. Experimental results demonstrate that SAMURAI achieves up to 97% accuracy in detecting adversarial attacks with moderate overhead on various AI models, significantly outperforming conventional software-based approaches. It enhances security and regulatory compliance, providing a comprehensive solution for safeguarding AI against emergent threats.
- Abstract(参考訳): AI技術の迅速な採用は、AIアプリケーションの機密性と整合性を脅かす敵の摂動のリスクを含む、いくつかの主要なセキュリティ上の懸念を提起する。
AIハードウェアを誤用や多様なセキュリティ脅威から守ることは、難しい課題だ。
この課題に対処するために,悪意あるAIハードウェアの使用と攻撃に対するレジリエンスの保護を目的とした,新たなフレームワークである佐村井を提案する。
Samurai氏は、オンチップ機械学習(ML)分析エンジンであるTANTO(Trained Anomaly Inspection Through Trace Observation)と組み合わせて、AIモデルの動的挙動を追跡するAI Performance Counter(APC)を紹介している。
APCは、異なるAI操作の低レベルのハードウェアイベントのランタイムプロファイルを記録する。
その後、APCによって記録された要約情報は、TANTOによって処理され、潜在的なセキュリティ違反を効率的に識別し、AIの安全で責任ある使用を保証する。
SAmuraiは、モデル統合を必要とする従来のソフトウェアベースのソリューションに頼ることなく、セキュリティの脅威や誤用をリアルタイムに検出できる。
実験の結果,様々なAIモデルにおいて,敵攻撃を適度なオーバーヘッドで検出した場合,最大97%の精度が達成され,従来のソフトウェアベースアプローチよりも著しく優れていた。
セキュリティと規制のコンプライアンスを強化し、緊急の脅威からAIを保護するための包括的なソリューションを提供する。
関連論文リスト
- Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - AI Agents Under Threat: A Survey of Key Security Challenges and Future Pathways [10.16690494897609]
人工知能(AI)エージェント(英: Artificial Intelligence, AI)は、自律的にタスクを実行したり、事前に定義された目的やデータ入力に基づいて決定を行うソフトウェアエンティティである。
この調査は、AIエージェントが直面している新たなセキュリティ脅威を掘り下げ、これらを4つの重要な知識ギャップに分類する。
これらの脅威を体系的にレビューすることにより、この論文はAIエージェントの保護における進歩と既存の制限の両方を強調している。
論文 参考訳(メタデータ) (2024-06-04T01:22:31Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Defense against ML-based Power Side-channel Attacks on DNN Accelerators with Adversarial Attacks [21.611341074006162]
AIAShieldはFPGAベースのAIアクセラレータを保護するための新しい防衛手法である。
我々は、機械学習コミュニティの卓越した敵攻撃技術を活用して、繊細なノイズを発生させる。
AIAShieldは、転送性に優れた既存のソリューションより優れている。
論文 参考訳(メタデータ) (2023-12-07T04:38:01Z) - A Unified Hardware-based Threat Detector for AI Accelerators [12.96840649714218]
FPGAベースのAIアクセラレータを保護するために,UniGuardを設計する。
我々は、電力変動を捉え、教師付き機械学習モデルを訓練し、様々な種類の脅威を特定するために、タイム・トゥ・デジタル・コンバータを用いている。
論文 参考訳(メタデータ) (2023-11-28T10:55:02Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Vulnerabilities of Connectionist AI Applications: Evaluation and Defence [0.0]
この記事では、コネクショナリスト人工知能(AI)アプリケーションのITセキュリティを扱い、完全性への脅威に焦点を当てます。
脅威の包括的リストと軽減の可能性は、最先端の文献をレビューすることによって提示される。
緩和に関する議論は同様に、AIシステム自体のレベルに限定されず、むしろサプライチェーンの文脈でAIシステムを見ることを提唱している。
論文 参考訳(メタデータ) (2020-03-18T12:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。