論文の概要: "Energon": Unveiling Transformers from GPU Power and Thermal Side-Channels
- arxiv url: http://arxiv.org/abs/2508.01768v1
- Date: Sun, 03 Aug 2025 14:08:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 13:55:07.785551
- Title: "Energon": Unveiling Transformers from GPU Power and Thermal Side-Channels
- Title(参考訳): エルゴン」:GPUパワーとサーマルサイドシャネルからトランスフォーマーを発見
- Authors: Arunava Chaudhuri, Shubhi Shukla, Sarani Bhattacharya, Debdeep Mukhopadhyay,
- Abstract要約: 本稿では,物理的アクセスを伴わないアーキテクチャの詳細を明らかにするサイドチャネル攻撃のリスクについて検討する。
重要なアーキテクチャの詳細を明らかにするために、これらのサイドチャネルをユーザ権限でどのように活用するかを示します。
モデル家族識別において,攻撃モデルの精度は平均89%以上であることを示す。
- 参考スコア(独自算出の注目度): 9.420484475684797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformers have become the backbone of many Machine Learning (ML) applications, including language translation, summarization, and computer vision. As these models are increasingly deployed in shared Graphics Processing Unit (GPU) environments via Machine Learning as a Service (MLaaS), concerns around their security grow. In particular, the risk of side-channel attacks that reveal architectural details without physical access remains underexplored, despite the high value of the proprietary models they target. This work to the best of our knowledge is the first to investigate GPU power and thermal fluctuations as side-channels and further exploit them to extract information from pre-trained transformer models. The proposed analysis shows how these side channels can be exploited at user-privilege to reveal critical architectural details such as encoder/decoder layer and attention head for both language and vision transformers. We demonstrate the practical impact by evaluating multiple language and vision pre-trained transformers which are publicly available. Through extensive experimental evaluations, we demonstrate that the attack model achieves a high accuracy of over 89% on average for model family identification and 100% for hyperparameter classification, in both single-process as well as noisy multi-process scenarios. Moreover, by leveraging the extracted architectural information, we demonstrate highly effective black-box transfer adversarial attacks with an average success rate exceeding 93%, underscoring the security risks posed by GPU side-channel leakage in deployed transformer models.
- Abstract(参考訳): トランスフォーマーは、言語翻訳、要約、コンピュータビジョンなど、多くの機械学習(ML)アプリケーションのバックボーンとなっている。
これらのモデルが機械学習・アズ・ア・サービス(MLaaS)を介して共有グラフィックス処理ユニット(GPU)環境にますますデプロイされるにつれて、セキュリティに関する懸念が高まっている。
特に、物理的アクセスのないアーキテクチャの詳細を明らかにするサイドチャネル攻撃のリスクは、彼らがターゲットとするプロプライエタリモデルの価値が高いにもかかわらず、未調査のままである。
この研究は、サイドチャネルとしてのGPUパワーと熱ゆらぎを調査し、さらにそれらを活用して、事前訓練されたトランスフォーマーモデルから情報を抽出する。
提案した分析は、これらのサイドチャネルをどのように利用して、エンコーダ/デコーダ層やアテンションヘッドといった重要なアーキテクチャの詳細を明らかにするかを示している。
本稿では,複数の言語と視覚を事前学習したトランスフォーマーを公開して評価することで,実用的影響を実証する。
大規模な実験により,攻撃モデルはモデル家族識別において平均89%以上,ハイパーパラメータ分類では100%以上,ノイズの多いマルチプロセスシナリオにおいても高い精度を達成できることを示した。
さらに,抽出したアーキテクチャ情報を活用することで,デプロイされたトランスフォーマーモデルにおいて,GPU側チャネルリークによるセキュリティリスクを強調し,平均成功率93%を超えるブラックボックス転送敵攻撃を効果的に実証する。
関連論文リスト
- Breaking the Illusion of Security via Interpretation: Interpretable Vision Transformer Systems under Attack [23.690939122119723]
視覚変換器(ViT)モデルは、解釈モデルと組み合わせると、安全で欺くことが難しいと見なされる。
本研究では,解釈モデルと組み合わせても,逆攻撃に対するトランスフォーマーモデルの脆弱性について検討する。
本稿では,ある変圧器モデルとその結合解釈モデルの両方を誤解させることのできる逆例を生成する「AdViT」と呼ばれる攻撃を提案する。
論文 参考訳(メタデータ) (2025-07-18T05:11:11Z) - SEVERE++: Evaluating Benchmark Sensitivity in Generalization of Video Representation Learning [78.44705665291741]
本稿では,現代ビデオの自己教師型モデルの包括的評価について述べる。
ドメインシフト、サンプル効率、アクションの粒度、タスクの多様性の4つの重要な下流因子の一般化に焦点を当てる。
我々の分析は、アーキテクチャの進歩にもかかわらず、トランスフォーマーベースのモデルは下流の条件に敏感であることを示している。
論文 参考訳(メタデータ) (2025-04-08T06:00:28Z) - Dita: Scaling Diffusion Transformer for Generalist Vision-Language-Action Policy [56.424032454461695]
本稿では,Transformerアーキテクチャを活用した拡張性のあるフレームワークであるDitaについて紹介する。
Ditaはコンテキスト内コンディショニング(context conditioning)を採用しており、歴史的観察から生の視覚トークンと識別されたアクションをきめ細やかなアライメントを可能にする。
Ditaは、さまざまなカメラパースペクティブ、観察シーン、タスク、アクションスペースの横断的なデータセットを効果的に統合する。
論文 参考訳(メタデータ) (2025-03-25T15:19:56Z) - Diffusion Transformer Policy [48.50988753948537]
本稿では,拡散変圧器ポリシー(Diffusion Transformer Policy)と呼ばれる多モード拡散変圧器を提案し,連続的なエンドエフェクタ動作をモデル化する。
トランスのスケーリング機能を活用することで、提案手法は、多種多様なロボットデータセットにわたる継続的エンドエフェクタアクションを効果的にモデル化することができる。
論文 参考訳(メタデータ) (2024-10-21T12:43:54Z) - Attention Deficit is Ordered! Fooling Deformable Vision Transformers
with Collaborative Adversarial Patches [3.4673556247932225]
変形可能な視覚変換器は、注意モデリングの複雑さを著しく低減する。
最近の研究は、従来の視覚変換器に対する敵攻撃を実証している。
我々は,対象のパッチに注意を向けるようにソースパッチが操作する新たなコラボレーティブアタックを開発する。
論文 参考訳(メタデータ) (2023-11-21T17:55:46Z) - LogShield: A Transformer-based APT Detection System Leveraging
Self-Attention [2.1256044139613772]
本稿では,変圧器における自己注意力を利用したAPT攻撃パターンの検出を目的としたフレームワークであるLogShieldを提案する。
カスタマイズした埋め込みレイヤを組み込んで、前兆グラフから派生したイベントシーケンスのコンテキストを効果的にキャプチャします。
LSTMモデルではF1スコアが96%,94%を上回っ,F1スコアが98%,95%であった。
論文 参考訳(メタデータ) (2023-11-09T20:43:15Z) - FactoFormer: Factorized Hyperspectral Transformers with Self-Supervised
Pretraining [36.44039681893334]
ハイパースペクトル画像(HSI)は、豊富なスペクトルと空間情報を含む。
現在の最先端ハイパースペクトル変換器は、入力されたHSIサンプルをスペクトル次元に沿ってトークン化するのみである。
本稿では、自己教師付き事前学習手順を取り入れた新しい分解スペクトル空間変換器を提案する。
論文 参考訳(メタデータ) (2023-09-18T02:05:52Z) - Spatio-Temporal Encoding of Brain Dynamics with Surface Masked Autoencoders [10.097983222759884]
表面仮面オートエンコーダ(sMAE)と表面仮面オートエンコーダ(MAE)
これらのモデルは、皮質発達と構造関数の強力な潜在表現を学習することにより、入力のマスクされたバージョンから皮質特徴写像を再構築するように訓練されている。
以上の結果から, (v)sMAE事前学習モデルでは, 複数のタスクにおける表現型予測性能が約26%向上し,スクラッチからトレーニングしたモデルに対してより高速な収束が得られた。
論文 参考訳(メタデータ) (2023-08-10T10:01:56Z) - DBIA: Data-free Backdoor Injection Attack against Transformer Networks [6.969019759456717]
CV指向トランスネットワークに対するデータフリーバックドア攻撃であるDBIAを提案する。
弊社のアプローチでは、バックドアを高い成功率で埋め込むことができ、被害者のトランスフォーマーの性能への影響も低い。
論文 参考訳(メタデータ) (2021-11-22T08:13:51Z) - Spatiotemporal Transformer for Video-based Person Re-identification [102.58619642363958]
我々は、強い学習能力にもかかわらず、バニラトランスフォーマーは過剰フィットのリスクの増加に苦しむことを示しています。
そこで本研究では,合成ビデオデータからモデルを事前学習し,下流領域に伝達する新しいパイプラインを提案する。
提案アルゴリズムは,3つの人気ビデオベース人物識別ベンチマークにおいて,精度向上を実現する。
論文 参考訳(メタデータ) (2021-03-30T16:19:27Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - Transformers in Vision: A Survey [101.07348618962111]
トランスフォーマーは、入力シーケンス要素間の長い依存関係をモデリングし、シーケンスの並列処理をサポートします。
変圧器は設計に最小限の誘導バイアスを必要とし、自然にセット関数として適しています。
本調査は,コンピュータビジョン分野におけるトランスフォーマーモデルの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2021-01-04T18:57:24Z) - Parameter Efficient Multimodal Transformers for Video Representation
Learning [108.8517364784009]
本研究は,映像表現学習におけるマルチモーダルトランスフォーマーのパラメータの削減に焦点をあてる。
このアプローチではパラメータを80$%まで削減し、モデルのエンドツーエンドをスクラッチからトレーニングできるようにしています。
本研究では,Kinetics-700から30秒のクリップをプレトレーニングし,それを音声視覚分類タスクに転送する。
論文 参考訳(メタデータ) (2020-12-08T00:16:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。