論文の概要: Playing with blocks: Toward re-usable deep learning models for
side-channel profiled attacks
- arxiv url: http://arxiv.org/abs/2203.08448v1
- Date: Wed, 16 Mar 2022 07:53:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 00:56:30.271750
- Title: Playing with blocks: Toward re-usable deep learning models for
side-channel profiled attacks
- Title(参考訳): ブロックで遊ぶ: サイドチャネルプロファイル攻撃のためのディープラーニングモデルの再使用に向けて
- Authors: Servio Paguada, Lejla Batina, Ileana Buhan, Igor Armendariz
- Abstract要約: 本稿では,サイドチャネル解析のためのディープラーニングモジュールネットワークを提案する。
我々のディープラーニングアプローチは、その部分(モジュール)を他のネットワークと交換する機能を備えている。
- 参考スコア(独自算出の注目度): 3.7990513493725975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a deep learning modular network for side-channel
analysis. Our deep learning approach features the capability to exchange part
of it (modules) with others networks. We aim to introduce reusable trained
modules into side-channel analysis instead of building architectures for each
evaluation, reducing the body of work when conducting those. Our experiments
demonstrate that our architecture feasibly assesses a side-channel evaluation
suggesting that learning transferability is possible with the network we
propose in this paper.
- Abstract(参考訳): 本稿では,サイドチャネル解析のためのディープラーニングモジュールネットワークを提案する。
我々のディープラーニングアプローチは、その部分(モジュール)を他のネットワークと交換する機能を備えている。
評価毎にアーキテクチャを構築するのではなく、サイドチャネル分析に再利用可能なトレーニングされたモジュールを導入することを目的としています。
本実験は,本論文で提案するネットワークにおいて,学習の伝達性が可能であることを示す側チャネル評価が可能であることを示す。
関連論文リスト
- Block-Operations: Using Modular Routing to Improve Compositional Generalization [17.525220958618988]
フィードフォワードニューラルネットワーク(FNN)を強化した新しいアーキテクチャコンポーネントであるMultiplexerを紹介する。
我々は,Multiplexersが強い構成一般化を示すことを実験的に確認した。
論文 参考訳(メタデータ) (2024-08-01T12:28:22Z) - Modular Deep Learning [120.36599591042908]
トランスファーラーニングは近年、機械学習の主要なパラダイムとなっている。
負の干渉を伴わずに複数のタスクを専門とするモデルを開発する方法はまだ不明である。
これらの課題に対する有望な解決策として、モジュール型ディープラーニングが登場した。
論文 参考訳(メタデータ) (2023-02-22T18:11:25Z) - The Neural Race Reduction: Dynamics of Abstraction in Gated Networks [12.130628846129973]
本稿では,情報フローの経路が学習力学に与える影響をスキーマ化するGated Deep Linear Networkフレームワークを紹介する。
正確な還元と、特定の場合において、学習のダイナミクスに対する正確な解が導出されます。
我々の研究は、ニューラルネットワークと学習に関する一般的な仮説を生み出し、より複雑なアーキテクチャの設計を理解するための数学的アプローチを提供する。
論文 参考訳(メタデータ) (2022-07-21T12:01:03Z) - X-Distill: Improving Self-Supervised Monocular Depth via Cross-Task
Distillation [69.9604394044652]
そこで本研究では,クロスタスク知識蒸留による単眼深度の自己指導的訓練を改善する手法を提案する。
トレーニングでは,事前訓練されたセマンティックセグメンテーション教師ネットワークを使用し,そのセマンティック知識を深度ネットワークに転送する。
提案手法の有効性をKITTIベンチマークで評価し,最新技術と比較した。
論文 参考訳(メタデータ) (2021-10-24T19:47:14Z) - Sparsity-Probe: Analysis tool for Deep Learning Models [0.5330240017302619]
ディープラーニングアーキテクチャとトレーニングセットが与えられたことにより、sparsityプローブは中間層のパフォーマンスを分析することができる。
我々は、sparsityプローブが所定のアーキテクチャに深さを追加することの貢献を計測し、補助的なテストデータセットを使わずにパフォーマンスの低い層等を検出する方法を示す。
論文 参考訳(メタデータ) (2021-05-14T14:24:20Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Learning to Segment Human Body Parts with Synthetically Trained Deep
Convolutional Networks [58.0240970093372]
本稿では,合成データのみを用いて学習した深部畳み込みニューラルネットワークに基づく人体部分分割のための新しい枠組みを提案する。
提案手法は,人体部品の実際の注釈付きデータを用いてモデルを訓練することなく,最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-02-02T12:26:50Z) - Model-Based Machine Learning for Communications [110.47840878388453]
モデルベースのアルゴリズムと機械学習をハイレベルな視点で組み合わせるための既存の戦略を見直します。
通信受信機の基本的なタスクの一つであるシンボル検出に注目する。
論文 参考訳(メタデータ) (2021-01-12T19:55:34Z) - Embedding Differentiable Sparsity into Deep Neural Network [2.28438857884398]
深層ニューラルネットワークの構造に空間空間を埋め込む手法を提案する。
ネットワークの構造と重みを同時に学習することができる。
論文 参考訳(メタデータ) (2020-06-23T01:42:47Z) - Obtaining Faithful Interpretations from Compositional Neural Networks [72.41100663462191]
NLVR2およびDROPデータセット上でNMNの中間出力を評価する。
中間出力は期待出力と異なり,ネットワーク構造がモデル動作の忠実な説明を提供していないことを示す。
論文 参考訳(メタデータ) (2020-05-02T06:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。