論文の概要: Towards Deep Network Steganography: From Networks to Networks
- arxiv url: http://arxiv.org/abs/2307.03444v1
- Date: Fri, 7 Jul 2023 08:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 12:58:24.184774
- Title: Towards Deep Network Steganography: From Networks to Networks
- Title(参考訳): ディープネットワークステガノグラフィーに向けて:ネットワークからネットワークへ
- Authors: Guobiao Li, Sheng Li, Meiling Li, Zhenxing Qian, Xinpeng Zhang
- Abstract要約: DNNモデルの秘密通信のためのディープネットワークステガノグラフィーを提案する。
我々の手法は、秘密のDNNモデルの学習タスクを他の通常の学習タスクに偽装する、タスク指向の学習である。
タスク内ステガノグラフィーとタスク間ステガノグラフィーの両方について実験を行った。
- 参考スコア(独自算出の注目度): 23.853644434004135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the widespread applications of the deep neural network (DNN), how to
covertly transmit the DNN models in public channels brings us the attention,
especially for those trained for secret-learning tasks. In this paper, we
propose deep network steganography for the covert communication of DNN models.
Unlike the existing steganography schemes which focus on the subtle
modification of the cover data to accommodate the secrets, our scheme is
learning task oriented, where the learning task of the secret DNN model (termed
as secret-learning task) is disguised into another ordinary learning task
conducted in a stego DNN model (termed as stego-learning task). To this end, we
propose a gradient-based filter insertion scheme to insert interference filters
into the important positions in the secret DNN model to form a stego DNN model.
These positions are then embedded into the stego DNN model using a key by side
information hiding. Finally, we activate the interference filters by a partial
optimization strategy, such that the generated stego DNN model works on the
stego-learning task. We conduct the experiments on both the intra-task
steganography and inter-task steganography (i.e., the secret and stego-learning
tasks belong to the same and different categories), both of which demonstrate
the effectiveness of our proposed method for covert communication of DNN
models.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の広範な応用により、公開チャネルでDNNモデルを隠蔽的に送信する方法は、特にシークレットラーニングタスクでトレーニングされた人たちに注目を集める。
本稿では,DNNモデルの秘密通信のためのディープネットワークステガノグラフィを提案する。
シークレットDNNモデル(シークレット学習タスク)の学習タスクをステゴDNNモデル(ステゴ学習タスク)で行う他の通常の学習タスクに偽装して、シークレットDNNモデル(シークレット学習タスク)の微妙な修正に焦点をあてた既存のステガノグラフィー手法とは異なり、本手法は学習指向の学習課題である。
そこで本研究では,秘密DNNモデルの重要位置に干渉フィルタを挿入し,ステゴDNNモデルを形成するための勾配型フィルタ挿入方式を提案する。
これらの位置は、キーバイサイド情報隠蔽を使用してステゴDNNモデルに埋め込まれる。
最後に、生成されたstego dnnモデルがstego学習タスクで動作するように、部分最適化戦略により干渉フィルタを活性化する。
本研究では,タスク内ステガノグラフィとタスク間ステガノグラフィ(秘密タスクとステゴ学習タスクは同一および異なるカテゴリに属する)の両方について実験を行い,dnnモデルの隠密通信における提案手法の有効性を実証した。
関連論文リスト
- Self-Distillation Learning Based on Temporal-Spatial Consistency for Spiking Neural Networks [3.7748662901422807]
スパイキングニューラルネットワーク(SNN)は、その事象駆動性、低消費電力特性、高い生物学的解釈性によって大きな注目を集めている。
近年,教員モデルによるSNNモデルの性能向上が報告されている。
本稿では,これらの問題を回避するために,コスト効率の高いSNNの自己蒸留学習について検討する。
論文 参考訳(メタデータ) (2024-06-12T04:30:40Z) - Constructing Deep Spiking Neural Networks from Artificial Neural
Networks with Knowledge Distillation [20.487853773309563]
スパイキングニューラルネットワーク(SNN)は、高い計算効率を持つ脳にインスパイアされたモデルとしてよく知られている。
知識蒸留(KD)を用いた深部SNNモデル構築手法を提案する。
論文 参考訳(メタデータ) (2023-04-12T05:57:21Z) - Joint ANN-SNN Co-training for Object Localization and Image Segmentation [0.0]
深層ニューラルネットワーク(ANN)の代替としてスパイキングニューラルネットワーク(SNN)が登場している
変換されたSNNの性能を向上させるために,新しいハイブリッドANN-SNN協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:45:02Z) - Steganography of Steganographic Networks [23.85364443400414]
ステガノグラフィー(英: Steganography)は、2つの当事者間の秘密の通信技術である。
本稿では,ステガノグラフィーネットワークの新たなステガノグラフィー手法を提案する。
論文 参考訳(メタデータ) (2023-02-28T12:27:34Z) - What Do Deep Nets Learn? Class-wise Patterns Revealed in the Input Space [88.37185513453758]
本研究では,深層ニューラルネットワーク(DNN)が学習するクラスワイズな知識を,異なる環境下で可視化し,理解する手法を提案する。
本手法は,各クラスのモデルが学習した知識を表現するために,画素空間内の1つの予測パターンを探索する。
逆境環境では、逆境に訓練されたモデルはより単純化された形状パターンを学ぶ傾向がある。
論文 参考訳(メタデータ) (2021-01-18T06:38:41Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Distilling Spikes: Knowledge Distillation in Spiking Neural Networks [22.331135708302586]
Spiking Neural Networks (SNN) は、情報処理のためにスパイクを交換するエネルギー効率の高いコンピューティングアーキテクチャである。
画像分類のためのスパイクニューラルネットワークにおける知識蒸留手法を提案する。
我々のアプローチは、リソース制約のあるハードウェアプラットフォーム上で、高性能な大規模SNNモデルをデプロイするための新たな道を開くことが期待されている。
論文 参考訳(メタデータ) (2020-05-01T09:36:32Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。