論文の概要: Using Convolutional Neural Networks to Detect Compression Algorithms
- arxiv url: http://arxiv.org/abs/2111.09034v1
- Date: Wed, 17 Nov 2021 11:03:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 15:07:35.908387
- Title: Using Convolutional Neural Networks to Detect Compression Algorithms
- Title(参考訳): 畳み込みニューラルネットワークを用いた圧縮アルゴリズムの検出
- Authors: Shubham Bharadwaj
- Abstract要約: ベースデータセットを使用し、さまざまなアルゴリズムですべてのファイルを圧縮し、それに基づいてモデルを設計します。
使用されるモデルは、圧縮、lzip、bzip2を使用して圧縮されたファイルを正確に識別することができた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is penetrating various domains virtually, thereby
proliferating excellent results. It has also found an outlet in digital
forensics, wherein it is becoming the prime driver of computational efficiency.
A prominent feature that exhibits the effectiveness of ML algorithms is feature
extraction that can be instrumental in the applications for digital forensics.
Convolutional Neural Networks are further used to identify parts of the file.
To this end, we observed that the literature does not include sufficient
information about the identification of the algorithms used to compress file
fragments. With this research, we attempt to address this gap as compression
algorithms are beneficial in generating higher entropy comparatively as they
make the data more compact. We used a base dataset, compressed every file with
various algorithms, and designed a model based on that. The used model was
accurately able to identify files compressed using compress, lzip and bzip2.
- Abstract(参考訳): 機械学習は、さまざまなドメインを仮想的に浸透させ、優れた結果を生み出す。
また、デジタル法医学のアウトレットも発見されており、計算効率の原動力となっている。
MLアルゴリズムの有効性を示す顕著な特徴は、デジタル法医学への応用において有用な特徴抽出である。
畳み込みニューラルネットワークはファイルの一部を特定するためにさらに使用される。
この目的のために,ファイルフラグメント圧縮に使用されるアルゴリズムの同定に関する十分な情報が文献に含まれないことを観察した。
本研究では,圧縮アルゴリズムがデータをよりコンパクトにするため,高いエントロピーを生成するのに有用であるとして,このギャップに対処する。
ベースデータセットを使用して、さまざまなアルゴリズムですべてのファイルを圧縮し、それに基づいてモデルを設計しました。
使用するモデルは、圧縮されたファイルを圧縮、lzip、bzip2を使って正確に識別することができた。
関連論文リスト
- AlphaZip: Neural Network-Enhanced Lossless Text Compression [0.0]
本稿では,Large Language Model (LLM) を用いたロスレステキスト圧縮手法を提案する。
第一に、トランスフォーマーブロックのような高密度ニューラルネットワークアーキテクチャを使用した予測、第二に、予測ランクをAdaptive Huffman、LZ77、Gzipといった標準的な圧縮アルゴリズムで圧縮する。
論文 参考訳(メタデータ) (2024-09-23T14:21:06Z) - Generalized compression and compressive search of large datasets [0.0]
panCAKESは圧縮検索の新しいアプローチであり、圧縮されたデータに対して$k$-NNと$rho$-NN検索を実行する方法である。
PanCAKESは多様体仮説を仮定し、データの低次元構造を利用して効率よく圧縮・探索する。
ゲノミクス、プロテオミクス、データセットなど、さまざまなデータセットでpanCAKESをベンチマークします。
論文 参考訳(メタデータ) (2024-09-18T17:25:31Z) - UniCompress: Enhancing Multi-Data Medical Image Compression with Knowledge Distillation [59.3877309501938]
Inlicit Neural Representation (INR) ネットワークは、その柔軟な圧縮比のため、顕著な汎用性を示している。
周波数領域情報を含むコードブックをINRネットワークへの事前入力として導入する。
これにより、INRの表現力が向上し、異なる画像ブロックに対して特異な条件付けが提供される。
論文 参考訳(メタデータ) (2024-05-27T05:52:13Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - ZippyPoint: Fast Interest Point Detection, Description, and Matching
through Mixed Precision Discretization [71.91942002659795]
我々は,ネットワーク量子化技術を用いて推論を高速化し,計算限定プラットフォームでの利用を可能にする。
バイナリディスクリプタを用いた効率的な量子化ネットワークZippyPointは,ネットワーク実行速度,ディスクリプタマッチング速度,3Dモデルサイズを改善する。
これらの改善は、ホモグラフィー推定、視覚的ローカライゼーション、マップフリーな視覚的再ローカライゼーションのタスクで評価されるように、小さなパフォーマンス劣化をもたらす。
論文 参考訳(メタデータ) (2022-03-07T18:59:03Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Supervised Compression for Resource-constrained Edge Computing Systems [26.676557573171618]
フルスケールのディープニューラルネットワークは、エネルギーとストレージの面でリソース集約的すぎることが多い。
本稿では、知識蒸留とニューラルイメージ圧縮のアイデアを採用し、中間特徴表現をより効率的に圧縮する。
教師付きレート歪み性能を向上するとともに、エンドツーエンドのレイテンシも小さくする。
論文 参考訳(メタデータ) (2021-08-21T11:10:29Z) - Permute, Quantize, and Fine-tune: Efficient Compression of Neural
Networks [70.0243910593064]
ベクトル量子化の成功の鍵は、どのパラメータ群を一緒に圧縮するかを決定することである。
本稿では,隣り合う2つの層の重みを同じ関数を表現しながら不変にすることができることを観察する。
次に、レート歪み理論への接続を確立し、圧縮し易いネットワークとなる置換を探索する。
論文 参考訳(メタデータ) (2020-10-29T15:47:26Z) - EnCoD: Distinguishing Compressed and Encrypted File Fragments [0.9239657838690228]
現在の手法では,大規模な断片サイズであっても,暗号化と圧縮を確実に区別することはできない。
圧縮されたデータと暗号化されたデータを確実に区別できる学習ベースの分類器であるEnCoDを,フラグメントから512バイトまで小さく設計する。
異なるデータ型の大規模なデータセットに対する現在のアプローチに対するEnCoDの評価を行い、最も検討されたフラグメントサイズやデータタイプに対して、現在の最先端よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-15T13:55:55Z) - PowerGossip: Practical Low-Rank Communication Compression in
Decentralized Deep Learning [62.440827696638664]
本稿では,近隣労働者間のモデル差を直接圧縮する簡単なアルゴリズムを提案する。
中央集権的なディープラーニングのためにPowerSGDにインスパイアされたこのアルゴリズムは、パワーステップを使用して、1ビットあたりの転送情報を最大化する。
論文 参考訳(メタデータ) (2020-08-04T09:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。