論文の概要: Stealing AI Model Weights Through Covert Communication Channels
- arxiv url: http://arxiv.org/abs/2510.00151v1
- Date: Tue, 30 Sep 2025 18:21:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.194372
- Title: Stealing AI Model Weights Through Covert Communication Channels
- Title(参考訳): カバー通信チャネルを通じてAIモデルのウェイトをステアリングする
- Authors: Valentin Barbaza, Alan Rodrigo Diaz-Rizo, Hassan Aboushady, Spyridon Raptis, Haralampos-G. Stratigopoulos,
- Abstract要約: 本稿では,AIハードウェアアクセラレーターを搭載した無線機器を対象とした新たな攻撃手法を提案する。
第1フェーズでは、被害者のデバイスはハードウェアのトロイの木馬によって妥協される。
第2フェーズでは、敵は近くの無線デバイスを使用して被害者の送信フレームを傍受する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI models are often regarded as valuable intellectual property due to the high cost of their development, the competitive advantage they provide, and the proprietary techniques involved in their creation. As a result, AI model stealing attacks pose a serious concern for AI model providers. In this work, we present a novel attack targeting wireless devices equipped with AI hardware accelerators. The attack unfolds in two phases. In the first phase, the victim's device is compromised with a hardware Trojan (HT) designed to covertly leak model weights through a hidden communication channel, without the victim realizing it. In the second phase, the adversary uses a nearby wireless device to intercept the victim's transmission frames during normal operation and incrementally reconstruct the complete weight matrix. The proposed attack is agnostic to both the AI model architecture and the hardware accelerator used. We validate our approach through a hardware-based demonstration involving four diverse AI models of varying types and sizes. We detail the design of the HT and the covert channel, highlighting their stealthy nature. Additionally, we analyze the impact of bit error rates on the reception and propose an error mitigation technique. The effectiveness of the attack is evaluated based on the accuracy of the reconstructed models with stolen weights and the time required to extract them. Finally, we explore potential defense mechanisms.
- Abstract(参考訳): AIモデルは、開発コストの高騰、それらが提供する競争上の優位性、そしてそれらの創造に関わるプロプライエタリな技術のために、価値ある知的財産と見なされることが多い。
その結果、AIモデル盗難攻撃は、AIモデルプロバイダに深刻な懸念をもたらす。
本研究では,AIハードウェアアクセラレーションを備えた無線デバイスを対象とした,新たな攻撃手法を提案する。
攻撃は2段階に展開する。
第1フェーズでは、被害者のデバイスは、隠れた通信チャネルを通じてモデル重量を隠蔽的に漏れさせるように設計されたハードウェアTrojan (HT)で妥協される。
第2段階では、敵は近くの無線装置を使用して、通常の操作中に被害者の送信フレームを傍受し、完全な重み行列を漸進的に再構築する。
提案された攻撃は、AIモデルアーキテクチャと使用するハードウェアアクセラレータの両方に依存しない。
さまざまなタイプとサイズを持つ4つの多様なAIモデルを含むハードウェアベースのデモを通じて、このアプローチを検証する。
我々はHTと秘密チャンネルの設計を詳述し、そのステルス性を強調した。
さらに,ビット誤り率が受信に与える影響を分析し,誤り低減手法を提案する。
攻撃の有効性は, 盗難重量を用いた復元モデルの精度と抽出に要する時間に基づいて評価される。
最後に,防御機構について検討する。
関連論文リスト
- Cuckoo Attack: Stealthy and Persistent Attacks Against AI-IDE [64.47951172662745]
Cuckoo Attackは、悪意のあるペイロードを構成ファイルに埋め込むことで、ステルス性と永続的なコマンド実行を実現する新しい攻撃である。
攻撃パラダイムを初期感染と持続性という2つの段階に分類する。
当社は、ベンダーが製品のセキュリティを評価するために、実行可能な7つのチェックポイントを提供しています。
論文 参考訳(メタデータ) (2025-09-19T04:10:52Z) - Attacking Attention of Foundation Models Disrupts Downstream Tasks [18.92561703051693]
ファンデーションモデルは大規模なモデルであり、多くの下流タスクで高い精度を提供する広範囲なデータに基づいて訓練されている。
これらのモデルは敵の攻撃に弱い。
本稿では,CLIP と ViT に着目した視覚基盤モデルの脆弱性について検討する。
タスクに依存しない方法でトランスフォーマーアーキテクチャの構造をターゲットとした,新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2025-06-03T19:42:48Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Vulnerabilities in AI-generated Image Detection: The Challenge of Adversarial Attacks [39.524974831780874]
FPBAはブラックボックス攻撃を成功させることができるので、敵攻撃はAIGI検出器にとって真の脅威であることを示す。
我々はこの手法を周波数ベースのポストトレインベイズアタック (FPBA) と呼ぶ。
論文 参考訳(メタデータ) (2024-07-30T14:07:17Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Omni: Automated Ensemble with Unexpected Models against Adversarial
Evasion Attack [35.0689225703137]
機械学習に基づくセキュリティ検出モデルは、敵の回避攻撃の影響を受けやすい。
我々はオムニ(Omni)と呼ばれる手法を提案し、「予期せぬモデル」のアンサンブルを作成する方法を探る。
5種類の敵対的回避攻撃による研究において,オムニは防衛戦略として有望なアプローチであることを示す。
論文 参考訳(メタデータ) (2020-11-23T20:02:40Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。