論文の概要: MoEcho: Exploiting Side-Channel Attacks to Compromise User Privacy in Mixture-of-Experts LLMs
- arxiv url: http://arxiv.org/abs/2508.15036v1
- Date: Wed, 20 Aug 2025 20:02:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.080163
- Title: MoEcho: Exploiting Side-Channel Attacks to Compromise User Privacy in Mixture-of-Experts LLMs
- Title(参考訳): MoEcho:エクスプロイト・オブ・エクスプロイトのLLMでユーザープライバシを妥協するためにサイドチャネル攻撃を爆発させる
- Authors: Ruyi Ding, Tianhong Xu, Xinyi Shen, Aidong Adam Ding, Yunsi Fei,
- Abstract要約: MoEchoは分析ベースのアタックサーフェスで、MoEベースのシステムのユーザのプライバシを侵害する。
大規模言語モデル(LLM)と視覚言語モデル(VLM)において,MoEアーキテクチャに基づくユーザプライバシを効果的に侵害する4つの攻撃を提案する。
- 参考スコア(独自算出の注目度): 4.364203697065213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The transformer architecture has become a cornerstone of modern AI, fueling remarkable progress across applications in natural language processing, computer vision, and multimodal learning. As these models continue to scale explosively for performance, implementation efficiency remains a critical challenge. Mixture of Experts (MoE) architectures, selectively activating specialized subnetworks (experts), offer a unique balance between model accuracy and computational cost. However, the adaptive routing in MoE architectures, where input tokens are dynamically directed to specialized experts based on their semantic meaning inadvertently opens up a new attack surface for privacy breaches. These input-dependent activation patterns leave distinctive temporal and spatial traces in hardware execution, which adversaries could exploit to deduce sensitive user data. In this work, we propose MoEcho, discovering a side channel analysis based attack surface that compromises user privacy on MoE based systems. Specifically, in MoEcho, we introduce four novel architectural side channels on different computing platforms, including Cache Occupancy Channels and Pageout+Reload on CPUs, and Performance Counter and TLB Evict+Reload on GPUs, respectively. Exploiting these vulnerabilities, we propose four attacks that effectively breach user privacy in large language models (LLMs) and vision language models (VLMs) based on MoE architectures: Prompt Inference Attack, Response Reconstruction Attack, Visual Inference Attack, and Visual Reconstruction Attack. MoEcho is the first runtime architecture level security analysis of the popular MoE structure common in modern transformers, highlighting a serious security and privacy threat and calling for effective and timely safeguards when harnessing MoE based models for developing efficient large scale AI services.
- Abstract(参考訳): トランスフォーマーアーキテクチャは現代のAIの基盤となり、自然言語処理、コンピュータビジョン、マルチモーダル学習などの応用において顕著な進歩をもたらした。
これらのモデルはパフォーマンスのために爆発的にスケールし続けるため、実装効率は依然として重要な課題である。
専門家の混在(Mixture of Experts)アーキテクチャ(Mixture of Experts)は、特別なサブネットワーク(Experts)を選択的に活性化し、モデル精度と計算コストのユニークなバランスを提供する。
しかし、入力トークンを専門の専門家に動的に向けるMoEアーキテクチャの適応的ルーティングは、プライバシー侵害に対する新たな攻撃面を不注意に開く。
これらの入力に依存したアクティベーションパターンは、ハードウェア実行における時間的および空間的な特徴を残している。
そこで本研究では,MoEベースのシステムにおけるユーザのプライバシを侵害するサイドチャネル解析に基づく攻撃面の発見を目的としたMoEchoを提案する。
特に MoEcho では,CPU 上の Cache Occupancy Channels と Pageout+Reload,GPU 上の Performance Counter と TLB Evict+Reload の 4 つの新しいアーキテクチャサイドチャネルを導入している。
これらの脆弱性を突破し,大規模な言語モデル (LLM) と視覚言語モデル (VLM) でユーザプライバシを効果的に侵害する4つの攻撃を提案する。
MoEchoは、モダントランスフォーマーに共通する人気のあるMoE構造の、最初のランタイムレベルのセキュリティ分析であり、深刻なセキュリティとプライバシの脅威を強調し、大規模なAIサービスを開発するためにMoEベースのモデルを使用する際に、効果的でタイムリーな保護を要求する。
関連論文リスト
- A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [55.60375624503877]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - Entangled Threats: A Unified Kill Chain Model for Quantum Machine Learning Security [32.73124984242397]
量子機械学習(QML)システムは、古典的な機械学習の脆弱性を継承する。
本稿では,QML攻撃ベクトルの詳細な分類を,量子認識型キルチェーンフレームワークの対応する段階にマッピングする。
この研究は、量子機械学習の新たな分野において、より現実的な脅威モデリングと積極的なセキュリティ・イン・ディープス設計の基礎を提供する。
論文 参考訳(メタデータ) (2025-07-11T14:25:36Z) - Poison Once, Control Anywhere: Clean-Text Visual Backdoors in VLM-based Mobile Agents [34.286224884047385]
この研究は、VLMベースのモバイルエージェントをターゲットにした最初のクリーンテキストバックドアアタックであるVIBMAを紹介する。
この攻撃は、視覚的な入力だけを変更することによって、悪意ある振る舞いをモデルに注入する。
クリーンタスクの動作を保ちながら高い成功率を達成できることを示す。
論文 参考訳(メタデータ) (2025-06-16T08:09:32Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Architectural Backdoors for Within-Batch Data Stealing and Model Inference Manipulation [9.961238260113916]
建築用バックドアの最近の進歩を基盤とした,新しいバックドアのクラスを紹介する。
このような攻撃は実現可能であるだけでなく、危険なほど効果的であることを示す。
本稿では,この新たな攻撃ベクトルに対する正式な保証を提供する決定論的緩和戦略を提案する。
論文 参考訳(メタデータ) (2025-05-23T19:28:45Z) - Exploiting the Vulnerability of Large Language Models via Defense-Aware Architectural Backdoor [0.24335447922683692]
基盤となるモデルアーキテクチャ内に隠蔽する新しいタイプのバックドアアタックを導入します。
モデルアーキテクチャレイヤのアドオンモジュールは、入力トリガトークンの存在を検出し、レイヤの重みを変更することができる。
我々は,5つの大言語データセットの2つのモデルアーキテクチャ設定を用いて,攻撃方法を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-09-03T14:54:16Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。