論文の概要: Steganographic Capacity of Deep Learning Models
- arxiv url: http://arxiv.org/abs/2306.17189v1
- Date: Sun, 25 Jun 2023 13:43:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-09 14:10:25.918005
- Title: Steganographic Capacity of Deep Learning Models
- Title(参考訳): 深層学習モデルのステガノグラフィー能力
- Authors: Lei Zhang and Dong Li and Olha Jure\v{c}kov\'a and Mark Stamp
- Abstract要約: いくつかの学習モデルのステガノグラフィー能力について考察する。
我々は,難解なマルウェア分類問題に対して,多層パーセプトロン(MLP),畳み込みニューラルネットワーク(CNN),トランスフォーマーモデルを訓練する。
テストした学習モデルのステガノグラフィー能力は驚くほど高く,いずれの場合も,モデル性能が急速に低下する明確なしきい値が存在することがわかった。
- 参考スコア(独自算出の注目度): 12.974139332068491
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning and deep learning models become ubiquitous, it is
inevitable that there will be attempts to exploit such models in various attack
scenarios. For example, in a steganographic-based attack, information could be
hidden in a learning model, which might then be used to distribute malware, or
for other malicious purposes. In this research, we consider the steganographic
capacity of several learning models. Specifically, we train a Multilayer
Perceptron (MLP), Convolutional Neural Network (CNN), and Transformer model on
a challenging malware classification problem. For each of the resulting models,
we determine the number of low-order bits of the trained parameters that can be
altered without significantly affecting the performance of the model. We find
that the steganographic capacity of the learning models tested is surprisingly
high, and that in each case, there is a clear threshold after which model
performance rapidly degrades.
- Abstract(参考訳): 機械学習とディープラーニングモデルがユビキタスになるにつれて、さまざまな攻撃シナリオでそのようなモデルを活用しようとする試みは避けられない。
例えば、ステガノグラフィーベースの攻撃では、情報は学習モデルに隠され、マルウェアの配布や他の悪意のある目的のために使用される可能性がある。
本研究では,いくつかの学習モデルのステガノグラフィー能力について考察する。
具体的には,多層パーセプトロン(MLP),畳み込みニューラルネットワーク(CNN),トランスフォーマーモデルを,難解なマルウェア分類問題に基づいて訓練する。
得られた各モデルに対して、モデルの性能に大きな影響を与えずに変更できる訓練されたパラメータの低次ビット数を決定する。
テストした学習モデルのステガノグラフィー能力は驚くほど高く,いずれの場合も,モデル性能が急速に低下する明確なしきい値が存在することがわかった。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Identifying and Mitigating Model Failures through Few-shot CLIP-aided
Diffusion Generation [65.268245109828]
本稿では,突発的相関に付随する障害モードのテキスト記述を生成するためのエンドツーエンドフレームワークを提案する。
これらの記述は拡散モデルのような生成モデルを用いて合成データを生成するのに使うことができる。
本実験では, ハードサブポピュレーションの精度(sim textbf21%$)が著しく向上した。
論文 参考訳(メタデータ) (2023-12-09T04:43:49Z) - On the Steganographic Capacity of Selected Learning Models [1.0640226829362012]
本稿では,学習モデルの聴取能力について考察する。
幅広いモデルに対して、上書き可能な低次ビットの数を決定する。
テスト対象モデルのうち, LR実験では7.04KB, InceptionV3では44.74MBであった。
論文 参考訳(メタデータ) (2023-08-29T10:41:34Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - An Empirical Study of Deep Learning Models for Vulnerability Detection [4.243592852049963]
我々は、広く使われている2つの脆弱性検出データセット上で、最先端の9つのディープラーニングモデルを調査し、再現した。
モデル能力,トレーニングデータ,モデル解釈について検討した。
我々の研究結果は、モデル結果の理解を深め、トレーニングデータ作成のガイダンスを提供し、モデルの堅牢性を向上させるのに役立つ。
論文 参考訳(メタデータ) (2022-12-15T19:49:34Z) - A Distillation Learning Model of Adaptive Structural Deep Belief Network
for AffectNet: Facial Expression Image Database [0.0]
我々は,Deep Belief Network (DBN) の適応型構造学習法を開発した。
本稿では,表情画像データセットであるAffectNetに適用する。
分類精度は78.4%から91.3%に向上した。
論文 参考訳(メタデータ) (2021-10-25T08:01:36Z) - ViViT: A Video Vision Transformer [75.74690759089529]
ビデオ分類にpure-transformerベースのモデルを提案する。
本モデルでは,入力ビデオから時間トークンを抽出し,一連のトランスフォーマー層で符号化する。
トレーニング中にモデルを効果的に正規化し、トレーニング済みの画像モデルを利用して比較的小さなデータセットでトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-03-29T15:27:17Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Editable Neural Networks [25.939872732737022]
多くのアプリケーションにおいて、単一のモデルエラーは、経済的、評判、さらには生命を脅かす結果をもたらす可能性がある。
本稿では,学習モデルの高速な編集を支援するモデルに依存しない訓練手法であるEditable Trainingを提案する。
大規模画像分類と機械翻訳における本手法の有効性を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-01T11:26:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。