論文の概要: Reliable Detection of Compressed and Encrypted Data
- arxiv url: http://arxiv.org/abs/2103.17059v1
- Date: Wed, 31 Mar 2021 13:27:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 23:07:10.446776
- Title: Reliable Detection of Compressed and Encrypted Data
- Title(参考訳): 圧縮・暗号化データの信頼性検出
- Authors: Fabio De Gaspari, Dorjan Hitaj, Giulio Pagnotta, Lorenzo De Carli,
Luigi V. Mancini
- Abstract要約: ランサムウェア検出、法医学、データ分析は、暗号化されたデータの断片を確実に識別する手法を必要とする。
現在のアプローチでは、エントロピー推定などのバイトレベルの分布から得られた統計を使用して、暗号化された断片を識別する。
現代のコンテンツタイプでは、データ分散を均一な分布に近づける圧縮技術を使用している。
本稿では、大規模で標準化されたデータセット上での既存の統計的テストを比較し、現在のアプローチが暗号化データと圧縮データを一貫して区別できないことを示す。
- 参考スコア(独自算出の注目度): 1.3439502310822147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several cybersecurity domains, such as ransomware detection, forensics and
data analysis, require methods to reliably identify encrypted data fragments.
Typically, current approaches employ statistics derived from byte-level
distribution, such as entropy estimation, to identify encrypted fragments.
However, modern content types use compression techniques which alter data
distribution pushing it closer to the uniform distribution. The result is that
current approaches exhibit unreliable encryption detection performance when
compressed data appears in the dataset. Furthermore, proposed approaches are
typically evaluated over few data types and fragment sizes, making it hard to
assess their practical applicability. This paper compares existing statistical
tests on a large, standardized dataset and shows that current approaches
consistently fail to distinguish encrypted and compressed data on both small
and large fragment sizes. We address these shortcomings and design EnCoD, a
learning-based classifier which can reliably distinguish compressed and
encrypted data. We evaluate EnCoD on a dataset of 16 different file types and
fragment sizes ranging from 512B to 8KB. Our results highlight that EnCoD
outperforms current approaches by a wide margin, with accuracy ranging from ~82
for 512B fragments up to ~92 for 8KB data fragments. Moreover, EnCoD can
pinpoint the exact format of a given data fragment, rather than performing only
binary classification like previous approaches.
- Abstract(参考訳): ランサムウェア検出、法医学、データ分析などのいくつかのサイバーセキュリティドメインは、暗号化されたデータの断片を確実に識別する手法を必要とする。
一般に、現在のアプローチでは、暗号化された断片を識別するために、エントロピー推定のようなバイトレベルの分布に由来する統計を用いる。
しかし、現代のコンテンツタイプでは、データ分布を均一な分布に近づける圧縮技術を用いている。
その結果、データセットに圧縮データが現れると、現在のアプローチでは信頼性の低い暗号化検出性能が得られる。
さらに,提案手法は通常,少数のデータ型とフラグメントサイズで評価されるため,実用性の評価が困難である。
本稿では, 大規模で標準化されたデータセットにおける既存の統計的テストを比較し, 大規模および大規模の断片サイズにおいて, 暗号化されたデータと圧縮されたデータを常に区別できないことを示す。
これらの欠点に対処し、圧縮および暗号化されたデータを確実に識別できる学習ベースの分類器であるEnCoDを設計する。
我々は512Bから8KBまでの16種類のファイルタイプとフラグメントサイズのデータセット上でEnCoDを評価する。
以上の結果から,EnCoD は 512B フラグメントの 82 から 8KB のデータフラグメントの 92 までの精度で,現在のアプローチよりも高い性能を示した。
さらに、EnCoDは、以前のアプローチのようにバイナリ分類のみを実行するのではなく、与えられたデータフラグメントの正確なフォーマットを特定できる。
関連論文リスト
- ODDN: Addressing Unpaired Data Challenges in Open-World Deepfake Detection on Online Social Networks [51.03118447290247]
オープンワールドデータアグリゲーション(ODA)と圧縮・ディスカード勾配補正(CGC)を組み合わせたオープンワールドディープフェイク検出ネットワーク(ODDN)を提案する。
細粒度分析と粗粒度分析の両方により,ODAは圧縮試料と原試料の相関関係を効果的に集約する。
CGCは、オンラインソーシャルネットワーク(OSN)における多種多様な圧縮方法のパフォーマンス向上のために、圧縮・ディスカード勾配補正を組み込んだ。
論文 参考訳(メタデータ) (2024-10-24T12:32:22Z) - DREW : Towards Robust Data Provenance by Leveraging Error-Controlled Watermarking [58.37644304554906]
誤り訂正符号と透かしを用いたデータ検索法(DREW)を提案する。
DREWはランダムに参照データセットをクラスタ化し、各クラスタに独自のエラー制御された透かしキーを注入する。
関連するクラスタを特定した後、最も正確な一致を見つけるために、クラスタ内に埋め込みベクトル類似性検索を行う。
論文 参考訳(メタデータ) (2024-06-05T01:19:44Z) - Fact Checking Beyond Training Set [64.88575826304024]
本稿では,レトリバーリーダが,あるドメインのラベル付きデータに基づいてトレーニングし,別のドメインで使用する場合,性能劣化に悩まされることを示す。
本稿では,レトリバー成分を分散シフトに対して頑健にするための逆アルゴリズムを提案する。
次に、これらのデータセットから8つの事実チェックシナリオを構築し、モデルと強力なベースラインモデルのセットを比較します。
論文 参考訳(メタデータ) (2024-03-27T15:15:14Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Anti-Compression Contrastive Facial Forgery Detection [38.69677442287986]
圧縮レベルが異なるデータ内の密接な関係を保ち、圧縮防止のための偽造検出フレームワークを提案する。
実験結果から,提案アルゴリズムはクリーンデータ検出時の精度を向上しつつ,強い圧縮データの性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-02-13T08:34:28Z) - Dataset Condensation with Latent Space Knowledge Factorization and
Sharing [73.31614936678571]
与えられたデータセットの規則性を利用してデータセットの凝縮問題を解決する新しい手法を提案する。
データセットを元の入力空間に直接凝縮するのではなく、学習可能な一連のコードでデータセットの生成プロセスを仮定する。
提案手法は,様々なベンチマークデータセットに対して,有意なマージンで新しい最先端記録を達成できることを実験的に示す。
論文 参考訳(メタデータ) (2022-08-21T18:14:08Z) - Using Convolutional Neural Networks to Detect Compression Algorithms [0.0]
ベースデータセットを使用し、さまざまなアルゴリズムですべてのファイルを圧縮し、それに基づいてモデルを設計します。
使用されるモデルは、圧縮、lzip、bzip2を使用して圧縮されたファイルを正確に識別することができた。
論文 参考訳(メタデータ) (2021-11-17T11:03:16Z) - MD-CSDNetwork: Multi-Domain Cross Stitched Network for Deepfake
Detection [80.83725644958633]
現在のディープフェイク生成法では、偽画像やビデオの周波数スペクトルに識別的アーティファクトが残されている。
MD-CSDNetwork(MD-CSDNetwork)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T14:11:53Z) - Malware Traffic Classification: Evaluation of Algorithms and an
Automated Ground-truth Generation Pipeline [8.779666771357029]
地中構造データを生成するための自動パケットデータラベリングパイプラインを提案する。
この観測可能なメタデータから抽出された、ユニークで多様な機能のセットを利用する、さまざまな種類のクラスタリングアプローチを探索し、テストする。
論文 参考訳(メタデータ) (2020-10-22T11:48:51Z) - EnCoD: Distinguishing Compressed and Encrypted File Fragments [0.9239657838690228]
現在の手法では,大規模な断片サイズであっても,暗号化と圧縮を確実に区別することはできない。
圧縮されたデータと暗号化されたデータを確実に区別できる学習ベースの分類器であるEnCoDを,フラグメントから512バイトまで小さく設計する。
異なるデータ型の大規模なデータセットに対する現在のアプローチに対するEnCoDの評価を行い、最も検討されたフラグメントサイズやデータタイプに対して、現在の最先端よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-15T13:55:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。