論文の概要: Defending against Stegomalware in Deep Neural Networks with Permutation Symmetry
- arxiv url: http://arxiv.org/abs/2509.20399v1
- Date: Tue, 23 Sep 2025 17:15:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.505919
- Title: Defending against Stegomalware in Deep Neural Networks with Permutation Symmetry
- Title(参考訳): 置換対称性を持つディープニューラルネットワークにおけるステゴマルウェアの防御
- Authors: Birk Torpmann-Hagen, Michael A. Riegler, Pål Halvorsen, Dag Johansen,
- Abstract要約: 最先端のニューラルネットワークステゴマルウェアは、重みおよび偏り行列の列順をシャッフルすることで効率よく効果的に中和することができる。
これにより、ニューラルネットワークステガノグラフィーにおける最先端の手法に埋め込まれたペイロードを、ネットワークの精度を犠牲にすることなく、効果的に破壊することを示す。
- 参考スコア(独自算出の注目度): 3.9341402479278216
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks are being utilized in a growing number of applications, both in production systems and for personal use. Network checkpoints are as a consequence often shared and distributed on various platforms to ease the development process. This work considers the threat of neural network stegomalware, where malware is embedded in neural network checkpoints at a negligible cost to network accuracy. This constitutes a significant security concern, but is nevertheless largely neglected by the deep learning practitioners and security specialists alike. We propose the first effective countermeasure to these attacks. In particular, we show that state-of-the-art neural network stegomalware can be efficiently and effectively neutralized through shuffling the column order of the weight- and bias-matrices, or equivalently the channel-order of convolutional layers. We show that this effectively corrupts payloads that have been embedded by state-of-the-art methods in neural network steganography at no cost to network accuracy, outperforming competing methods by a significant margin. We then discuss possible means by which to bypass this defense, additional defense methods, and advocate for continued research into the security of machine learning systems.
- Abstract(参考訳): ディープニューラルネットワークは、プロダクションシステムと個人使用の両方で、ますます多くのアプリケーションで利用されています。
結果としてネットワークチェックポイントは、開発プロセスを簡単にするために、しばしば共有され、様々なプラットフォームに分散されます。
この研究は、ニューラルネットワークのステゴマルウェアの脅威について考察する。
これは重要なセキュリティ上の懸念を構成するが、しかしながら、ディープラーニングの実践者やセキュリティの専門家たちからも、ほとんど無視されている。
これらの攻撃に対する最初の効果的な対策を提案する。
特に,現状のニューラルネットワークステゴマルウェアは,重みおよび偏り行列の列順をシャッフルすることにより,効率よく,効果的に中和できることを示す。
これにより、ニューラルネットワークステガノグラフィーにおける最先端の手法に埋め込まれたペイロードを、ネットワークの精度を犠牲にすることなく、効果的に破壊し、競合する手法よりもかなりのマージンで優れていることを示す。
次に、この防衛を回避し、防御方法を追加し、機械学習システムのセキュリティに関する継続的な研究を提唱する可能な手段について議論する。
関連論文リスト
- Set-Based Training for Neural Network Verification [8.97708612393722]
小さな入力摂動はニューラルネットワークの出力に大きな影響を与える。
安全クリティカルな環境でのニューラルネットワークの安全性を確保するためには、ニューラルネットワークの堅牢性を検証する必要がある。
本稿では,可能な出力の集合を計算するための,新しいセットベーストレーニング手順を提案する。
論文 参考訳(メタデータ) (2024-01-26T15:52:41Z) - Graph Neural Networks for Decentralized Multi-Agent Perimeter Defense [111.9039128130633]
我々は,防御者の地域認識とコミュニケーショングラフから行動へのマッピングを学習する模倣学習フレームワークを開発した。
学習ネットワークの性能を実証するために、異なるチームサイズと構成のシナリオで周辺防衛ゲームを実行します。
論文 参考訳(メタデータ) (2023-01-23T19:35:59Z) - Provable Regret Bounds for Deep Online Learning and Control [77.77295247296041]
我々は、損失関数がニューラルネットワークのパラメータを最適化するために適応できることを示し、後から最も優れたネットと競合することを示す。
オンライン設定におけるこれらの結果の適用として、オンライン制御コントローラの証明可能なバウンダリを得る。
論文 参考訳(メタデータ) (2021-10-15T02:13:48Z) - Building Compact and Robust Deep Neural Networks with Toeplitz Matrices [93.05076144491146]
この論文は、コンパクトで、訓練が容易で、信頼性があり、敵の例に対して堅牢なニューラルネットワークを訓練する問題に焦点を当てている。
Toeplitzファミリーの構造化行列の特性を利用して、コンパクトでセキュアなニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2021-09-02T13:58:12Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Towards Repairing Neural Networks Correctly [6.600380575920419]
本稿では,ニューラルネットワークの正確性を保証するための実行時検証手法を提案する。
実験結果から,本手法は特性を満たすことが保証されたニューラルネットワークを効果的に生成することが示された。
論文 参考訳(メタデータ) (2020-12-03T12:31:07Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - NeuroAttack: Undermining Spiking Neural Networks Security through
Externally Triggered Bit-Flips [11.872768663147776]
Spiking Neural Networks(SNN)は、機械学習システムにおける正確性、リソース利用、エネルギー効率の課題に対する、有望な解決策として登場した。
これらのシステムは主流になってきていますが、本質的にセキュリティと信頼性の問題があります。
我々は低レベルの信頼性問題を利用してSNNの整合性を脅かすクロスレイヤー攻撃であるNeuroAttackを提案する。
論文 参考訳(メタデータ) (2020-05-16T16:54:00Z) - Protecting the integrity of the training procedure of neural networks [0.0]
ニューラルネットワークは、継続的に増加する多くのアプリケーションに使われます。
ニューラルネットワークの不透明さによって増加するITセキュリティの最も顕著な問題の1つは、トレーニング期間中に攻撃を害する可能性があることである。
本稿では,標準暗号機構を用いてトレーニング手順の整合性を確実に検証する手法を提案する。
論文 参考訳(メタデータ) (2020-05-14T12:57:23Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。