論文の概要: Improving Location-based Thermal Emission Side-Channel Analysis Using Iterative Transfer Learning
- arxiv url: http://arxiv.org/abs/2412.21030v1
- Date: Mon, 30 Dec 2024 15:56:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:01:08.602056
- Title: Improving Location-based Thermal Emission Side-Channel Analysis Using Iterative Transfer Learning
- Title(参考訳): 反復的伝達学習を用いた位置ベース熱放射側チャネル解析の改善
- Authors: Tun-Chieh Lou, Chung-Che Wang, Jyh-Shing Roger Jang, Henian Li, Lang Lin, Norman Chang,
- Abstract要約: 本稿では,サイドチャネル攻撃に対する深層学習モデルに適用した反復的伝達学習を提案する。
実験結果から, 熱・電力消費マップを入力として用いると, 平均性能が向上することがわかった。
- 参考スコア(独自算出の注目度): 3.5459927850418116
- License:
- Abstract: This paper proposes the use of iterative transfer learning applied to deep learning models for side-channel attacks. Currently, most of the side-channel attack methods train a model for each individual byte, without considering the correlation between bytes. However, since the models' parameters for attacking different bytes may be similar, we can leverage transfer learning, meaning that we first train the model for one of the key bytes, then use the trained model as a pretrained model for the remaining bytes. This technique can be applied iteratively, a process known as iterative transfer learning. Experimental results show that when using thermal or power consumption map images as input, and multilayer perceptron or convolutional neural network as the model, our method improves average performance, especially when the amount of data is insufficient.
- Abstract(参考訳): 本稿では,サイドチャネル攻撃に対する深層学習モデルに適用した反復的伝達学習を提案する。
現在、ほとんどのサイドチャネル攻撃法は、バイト間の相関を考慮せずに各バイトのモデルを訓練している。
しかし、異なるバイトを攻撃するためのモデルのパラメータは似ているため、転送学習を利用することができる。つまり、まずキーバイトの1つについてモデルをトレーニングし、次にトレーニングされたモデルを残りのバイトの事前訓練されたモデルとして使用する。
この手法は反復転写学習と呼ばれるプロセスで反復的に適用することができる。
実験結果から, 熱・電力消費マップイメージを入力とし, 多層パーセプトロンや畳み込みニューラルネットワークをモデルとした場合, 特にデータ量不足時の平均性能の向上が得られた。
関連論文リスト
- Transferable Post-training via Inverse Value Learning [83.75002867411263]
別個のニューラルネットワーク(すなわち値ネットワーク)を用いた後学習におけるロジットレベルのモデリング変更を提案する。
このネットワークをデモを使って小さなベースモデルでトレーニングした後、推論中に他のトレーニング済みモデルとシームレスに統合することができる。
得られた値ネットワークは、パラメータサイズの異なる事前学習されたモデル間で広い転送性を有することを示す。
論文 参考訳(メタデータ) (2024-10-28T13:48:43Z) - BEND: Bagging Deep Learning Training Based on Efficient Neural Network Diffusion [56.9358325168226]
BEND(Efficient Neural Network Diffusion)に基づくバッグング深層学習学習アルゴリズムを提案する。
我々のアプローチは単純だが効果的であり、まず複数のトレーニングされたモデルの重みとバイアスを入力として、オートエンコーダと潜伏拡散モデルを訓練する。
提案したBENDアルゴリズムは,元のトレーニングモデルと拡散モデルの両方の平均および中央値の精度を一貫して向上させることができる。
論文 参考訳(メタデータ) (2024-03-23T08:40:38Z) - TRAK: Attributing Model Behavior at Scale [79.56020040993947]
本稿では,大規模な微分モデルに対して有効かつ計算的に抽出可能なデータ属性法であるTRAK(Tracing with Randomly-trained After Kernel)を提案する。
論文 参考訳(メタデータ) (2023-03-24T17:56:22Z) - Manipulating Transfer Learning for Property Inference [12.832337149563088]
転送学習は、異なる下流タスクのために事前訓練された(上流)モデルをチューニングする一般的な方法である。
本研究では,トランスファー学習に使用される上流モデルを制御する敵が,被害者の調整した下流モデルに対して特性推論攻撃を行う方法について検討する。
論文 参考訳(メタデータ) (2023-03-21T07:32:32Z) - Latent Iterative Refinement for Modular Source Separation [44.78689915209527]
従来のソース分離アプローチは、すべてのデータを一度に利用できるように、ディープニューラルネットワークモデルをエンドツーエンドにトレーニングする。
我々は、トレーニングと推論の段階において、リソース効率を著しく向上させることができると論じる。
論文 参考訳(メタデータ) (2022-11-22T00:02:57Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - Merging Models with Fisher-Weighted Averaging [24.698591753644077]
我々は、複数のモデルを1つに“マージ”するモデル間で知識を伝達する、根本的に異なる方法を紹介します。
提案手法は,モデルのパラメータの重み付け平均を効果的に計算する。
マージ手順により、これまで探索されていなかった方法でモデルを組み合わせることが可能であることを示す。
論文 参考訳(メタデータ) (2021-11-18T17:59:35Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - ViViT: A Video Vision Transformer [75.74690759089529]
ビデオ分類にpure-transformerベースのモデルを提案する。
本モデルでは,入力ビデオから時間トークンを抽出し,一連のトランスフォーマー層で符号化する。
トレーニング中にモデルを効果的に正規化し、トレーニング済みの画像モデルを利用して比較的小さなデータセットでトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-03-29T15:27:17Z) - Generalized Zero and Few-Shot Transfer for Facial Forgery Detection [3.8073142980733]
フォージェリ検出の文脈でゼロおよび少数ショット転送の問題に対処する新しいトランスファー学習手法を提案する。
従来の分類や最先端のドメイン適応/ファウショット学習手法と比較して,この学習戦略は驚くほど効果的である。
論文 参考訳(メタデータ) (2020-06-21T18:10:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。