論文の概要: Automated Side Channel Analysis of Media Software with Manifold Learning
- arxiv url: http://arxiv.org/abs/2112.04947v2
- Date: Fri, 10 Dec 2021 05:03:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 11:49:57.611726
- Title: Automated Side Channel Analysis of Media Software with Manifold Learning
- Title(参考訳): マニフォールド学習によるメディアソフトウェアのサイドチャネル自動解析
- Authors: Yuanyuan Yuan, Qi Pang, Shuai Wang
- Abstract要約: 本稿では,メディアソフトウェアに対するサイドチャネル解析(SCA)を起動し,機密メディアのインプットを再構築する敵の能力について検討する。
近年の表現学習と知覚学習の進歩は、メディア入力をサイドチャネルトレースから再構築することをモダリティ間の多様体学習タスクとして検討するきっかけとなった。
本稿では,認知マスクを用いてメディア入力を摂動させ,多様体学習に基づくSCAを緩和する,視覚ブラインド方式という,新規で効果的な防御手法を提案する。
- 参考スコア(独自算出の注目度): 8.221850343231065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The prosperous development of cloud computing and machine learning as a
service has led to the widespread use of media software to process confidential
media data. This paper explores an adversary's ability to launch side channel
analyses (SCA) against media software to reconstruct confidential media inputs.
Recent advances in representation learning and perceptual learning inspired us
to consider the reconstruction of media inputs from side channel traces as a
cross-modality manifold learning task that can be addressed in a unified manner
with an autoencoder framework trained to learn the mapping between media inputs
and side channel observations. We further enhance the autoencoder with
attention to localize the program points that make the primary contribution to
SCA, thus automatically pinpointing information-leakage points in media
software. We also propose a novel and highly effective defensive technique
called perception blinding that can perturb media inputs with perception masks
and mitigate manifold learning-based SCA.
Our evaluation exploits three popular media software to reconstruct inputs in
image, audio, and text formats. We analyze three common side channels - cache
bank, cache line, and page tables - and userspace-only cache set accesses
logged by standard Prime+Probe. Our framework successfully reconstructs
high-quality confidential inputs from the assessed media software and
automatically pinpoint their vulnerable program points, many of which are
unknown to the public. We further show that perception blinding can mitigate
manifold learning-based SCA with negligible extra cost.
- Abstract(参考訳): クラウドコンピューティングと機械学習のサービスとしての発展は、機密メディアデータを処理するためのメディアソフトウェアの普及につながった。
本稿では,メディアソフトウェアに対するサイドチャネル解析(SCA)を起動し,機密メディアのインプットを再構築する敵の能力について検討する。
近年の表現学習と知覚学習の進歩により,メディアインプットとサイドチャネル観察のマッピングを学習するオートエンコーダフレームワークを用いて,メディアインプットからメディアインプットの再構築を,一貫した方法で処理可能なクロスモーダルな多様体学習タスクとして考えることができた。
我々はさらに、SCAに主要な貢献をするプログラムポイントのローカライズに注意を払ってオートエンコーダを強化し、メディアソフトウェアにおける情報参照ポイントを自動的に特定する。
また,認知マスクを用いてメディア入力を摂動させ,多様体学習に基づくSCAを緩和する,視覚ブラインド方式という,新規で効果的な防御手法を提案する。
評価では,画像,音声,テキスト形式の入力を3つのメディアソフトウェアを用いて再構成する。
キャッシュバンク、キャッシュライン、ページテーブルの3つの一般的なサイドチャネルと、標準のPrime+Probeでログされたユーザスペースのみのキャッシュセットアクセスを分析します。
本フレームワークは,評価されたメディアソフトウェアから高品質な機密情報を復元し,脆弱なプログラムポイントを自動的に特定することに成功した。
さらに、知覚盲目は、余分なコストで多様体学習に基づくscaを緩和できることを示した。
関連論文リスト
- Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - Robustar: Interactive Toolbox Supporting Precise Data Annotation for
Robust Vision Learning [53.900911121695536]
ソフトウェアRobustarの初期リリースを紹介します。
それは、データ駆動の観点から視覚分類機械学習モデルの堅牢性を改善することを目的としている。
論文 参考訳(メタデータ) (2022-07-18T21:12:28Z) - DIMBA: Discretely Masked Black-Box Attack in Single Object Tracking [5.672132510411465]
敵攻撃は、CNNベースのモデルに、人間の知覚できない入力を巧みに操作することで、誤った出力を強制することができる。
ブラックボックス設定下での単一物体追跡のためのノイズを発生させる新しい逆攻撃法を提案する。
我々の手法は、競争力や攻撃性能を改善するために、ビデオのフレーム上でのクエリを少なくする。
論文 参考訳(メタデータ) (2022-07-17T00:17:40Z) - Self-Supervised Point Cloud Representation Learning with Occlusion
Auto-Encoder [63.77257588569852]
本稿では,3D Occlusion Auto-Encoder(3D-OAE)を提案する。
私たちのキーとなるアイデアは、入力ポイントクラウドのローカルパッチをランダムに排除し、隠されたパッチを復元することで監督を確立することです。
従来の手法とは対照的に、我々の3D-OAEは大量のパッチを除去し、少数の可視パッチでしか予測できない。
論文 参考訳(メタデータ) (2022-03-26T14:06:29Z) - Improving Compositionality of Neural Networks by Decoding
Representations to Inputs [83.97012077202882]
我々は、ニューラルネットワークのアクティベーションを制約し、入力に"デコード"するように生成モデルを共同で訓練することで、従来のディープラーニングプログラムの利点を橋渡しする。
本稿では,デオード可能な表現の分布外検出,逆例,校正,公平性への応用を実証する。
論文 参考訳(メタデータ) (2021-06-01T20:07:16Z) - Learning from Weakly-labeled Web Videos via Exploring Sub-Concepts [89.06560404218028]
検索ウェブビデオを用いたビデオ行動認識モデルの事前学習手法を提案する。
フィルタアウトする代わりに、これらのクエリービデオの潜在的なノイズを有用な監視信号に変換することを提案します。
SPLは擬似ラベルを用いた既存の事前学習戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-01-11T05:50:16Z) - Rotate to Attend: Convolutional Triplet Attention Module [21.228370317693244]
3分岐構造を用いた新しい注意重み計算法である三重項注意法を提案する。
本手法は単純かつ効率的であり,アドオンモジュールとして従来のバックボーンネットワークに簡単に接続できる。
ImageNet-1k上の画像分類や,MSCOCOおよびPASCAL VOCデータセット上でのオブジェクト検出など,様々な課題に対する本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-10-06T21:31:00Z) - Federated Self-Supervised Learning of Multi-Sensor Representations for
Embedded Intelligence [8.110949636804772]
スマートフォン、ウェアラブル、IoT(Internet of Things)デバイスは、教師付きモデルを学習するための集中リポジトリに蓄積できない豊富なデータを生成する。
本稿では,ウェーブレット変換に基づくテキストカルグラム・信号対応学習という自己教師付きアプローチを提案し,ラベルなしセンサ入力から有用な表現を学習する。
さまざまなパブリックデータセットのマルチビュー戦略を用いて,学習機能の品質を広範囲に評価し,すべての領域で高いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-07-25T21:59:17Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z) - See More, Know More: Unsupervised Video Object Segmentation with
Co-Attention Siamese Networks [184.4379622593225]
教師なしビデオオブジェクトセグメンテーションタスクに対処するため,CO-attention Siamese Network (COSNet) と呼ばれる新しいネットワークを導入する。
我々は,ビデオフレーム間の固有相関の重要性を強調し,グローバルなコアテンション機構を取り入れた。
本稿では、ビデオ内のリッチなコンテキストをマイニングするために、異なるコアテンションの変種を導出する、統一的でエンドツーエンドのトレーニング可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-19T11:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。