論文の概要: Reliable Detection of Compressed and Encrypted Data
- arxiv url: http://arxiv.org/abs/2103.17059v1
- Date: Wed, 31 Mar 2021 13:27:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 23:07:10.446776
- Title: Reliable Detection of Compressed and Encrypted Data
- Title(参考訳): 圧縮・暗号化データの信頼性検出
- Authors: Fabio De Gaspari, Dorjan Hitaj, Giulio Pagnotta, Lorenzo De Carli,
Luigi V. Mancini
- Abstract要約: ランサムウェア検出、法医学、データ分析は、暗号化されたデータの断片を確実に識別する手法を必要とする。
現在のアプローチでは、エントロピー推定などのバイトレベルの分布から得られた統計を使用して、暗号化された断片を識別する。
現代のコンテンツタイプでは、データ分散を均一な分布に近づける圧縮技術を使用している。
本稿では、大規模で標準化されたデータセット上での既存の統計的テストを比較し、現在のアプローチが暗号化データと圧縮データを一貫して区別できないことを示す。
- 参考スコア(独自算出の注目度): 1.3439502310822147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several cybersecurity domains, such as ransomware detection, forensics and
data analysis, require methods to reliably identify encrypted data fragments.
Typically, current approaches employ statistics derived from byte-level
distribution, such as entropy estimation, to identify encrypted fragments.
However, modern content types use compression techniques which alter data
distribution pushing it closer to the uniform distribution. The result is that
current approaches exhibit unreliable encryption detection performance when
compressed data appears in the dataset. Furthermore, proposed approaches are
typically evaluated over few data types and fragment sizes, making it hard to
assess their practical applicability. This paper compares existing statistical
tests on a large, standardized dataset and shows that current approaches
consistently fail to distinguish encrypted and compressed data on both small
and large fragment sizes. We address these shortcomings and design EnCoD, a
learning-based classifier which can reliably distinguish compressed and
encrypted data. We evaluate EnCoD on a dataset of 16 different file types and
fragment sizes ranging from 512B to 8KB. Our results highlight that EnCoD
outperforms current approaches by a wide margin, with accuracy ranging from ~82
for 512B fragments up to ~92 for 8KB data fragments. Moreover, EnCoD can
pinpoint the exact format of a given data fragment, rather than performing only
binary classification like previous approaches.
- Abstract(参考訳): ランサムウェア検出、法医学、データ分析などのいくつかのサイバーセキュリティドメインは、暗号化されたデータの断片を確実に識別する手法を必要とする。
一般に、現在のアプローチでは、暗号化された断片を識別するために、エントロピー推定のようなバイトレベルの分布に由来する統計を用いる。
しかし、現代のコンテンツタイプでは、データ分布を均一な分布に近づける圧縮技術を用いている。
その結果、データセットに圧縮データが現れると、現在のアプローチでは信頼性の低い暗号化検出性能が得られる。
さらに,提案手法は通常,少数のデータ型とフラグメントサイズで評価されるため,実用性の評価が困難である。
本稿では, 大規模で標準化されたデータセットにおける既存の統計的テストを比較し, 大規模および大規模の断片サイズにおいて, 暗号化されたデータと圧縮されたデータを常に区別できないことを示す。
これらの欠点に対処し、圧縮および暗号化されたデータを確実に識別できる学習ベースの分類器であるEnCoDを設計する。
我々は512Bから8KBまでの16種類のファイルタイプとフラグメントサイズのデータセット上でEnCoDを評価する。
以上の結果から,EnCoD は 512B フラグメントの 82 から 8KB のデータフラグメントの 92 までの精度で,現在のアプローチよりも高い性能を示した。
さらに、EnCoDは、以前のアプローチのようにバイナリ分類のみを実行するのではなく、与えられたデータフラグメントの正確なフォーマットを特定できる。
関連論文リスト
- Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Anti-Compression Contrastive Facial Forgery Detection [38.69677442287986]
圧縮レベルが異なるデータ内の密接な関係を保ち、圧縮防止のための偽造検出フレームワークを提案する。
実験結果から,提案アルゴリズムはクリーンデータ検出時の精度を向上しつつ,強い圧縮データの性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-02-13T08:34:28Z) - Dataset Condensation with Latent Space Knowledge Factorization and
Sharing [73.31614936678571]
与えられたデータセットの規則性を利用してデータセットの凝縮問題を解決する新しい手法を提案する。
データセットを元の入力空間に直接凝縮するのではなく、学習可能な一連のコードでデータセットの生成プロセスを仮定する。
提案手法は,様々なベンチマークデータセットに対して,有意なマージンで新しい最先端記録を達成できることを実験的に示す。
論文 参考訳(メタデータ) (2022-08-21T18:14:08Z) - Rethinking Reconstruction Autoencoder-Based Out-of-Distribution
Detection [0.0]
リコンストラクションオートエンコーダに基づく手法は、入力再構成誤差を新規性対正規性の計量として用いることでこの問題に対処する。
本稿では, 意味的再構成, データの確実性分解, 正規化L2距離を導入し, 元の手法を大幅に改善する。
提案手法は,追加データや実装の困難さ,時間を要するパイプライン,さらには既知のクラスの分類精度を損なうことなく機能する。
論文 参考訳(メタデータ) (2022-03-04T09:04:55Z) - Using Convolutional Neural Networks to Detect Compression Algorithms [0.0]
ベースデータセットを使用し、さまざまなアルゴリズムですべてのファイルを圧縮し、それに基づいてモデルを設計します。
使用されるモデルは、圧縮、lzip、bzip2を使用して圧縮されたファイルを正確に識別することができた。
論文 参考訳(メタデータ) (2021-11-17T11:03:16Z) - MD-CSDNetwork: Multi-Domain Cross Stitched Network for Deepfake
Detection [80.83725644958633]
現在のディープフェイク生成法では、偽画像やビデオの周波数スペクトルに識別的アーティファクトが残されている。
MD-CSDNetwork(MD-CSDNetwork)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T14:11:53Z) - Malware Traffic Classification: Evaluation of Algorithms and an
Automated Ground-truth Generation Pipeline [8.779666771357029]
地中構造データを生成するための自動パケットデータラベリングパイプラインを提案する。
この観測可能なメタデータから抽出された、ユニークで多様な機能のセットを利用する、さまざまな種類のクラスタリングアプローチを探索し、テストする。
論文 参考訳(メタデータ) (2020-10-22T11:48:51Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - EnCoD: Distinguishing Compressed and Encrypted File Fragments [0.9239657838690228]
現在の手法では,大規模な断片サイズであっても,暗号化と圧縮を確実に区別することはできない。
圧縮されたデータと暗号化されたデータを確実に区別できる学習ベースの分類器であるEnCoDを,フラグメントから512バイトまで小さく設計する。
異なるデータ型の大規模なデータセットに対する現在のアプローチに対するEnCoDの評価を行い、最も検討されたフラグメントサイズやデータタイプに対して、現在の最先端よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-15T13:55:55Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。