論文の概要: Null Space Properties of Neural Networks with Applications to Image
Steganography
- arxiv url: http://arxiv.org/abs/2401.10262v1
- Date: Mon, 1 Jan 2024 03:32:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-28 16:29:56.460934
- Title: Null Space Properties of Neural Networks with Applications to Image
Steganography
- Title(参考訳): ニューラルネットワークのヌル空間特性と画像ステガノグラフィへの応用
- Authors: Xiang Li, Kevin M. Short
- Abstract要約: 与えられたニューラルネットワークのヌル空間は、最終的な予測に寄与しない入力データの一部を教えてくれます。
ここで説明する1つの応用は、画像ステガノグラフィーの方法につながる。
- 参考スコア(独自算出の注目度): 6.063583864878311
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the null space properties of neural networks. We extend
the null space definition from linear to nonlinear maps and discuss the
presence of a null space in neural networks. The null space of a given neural
network can tell us the part of the input data that makes no contribution to
the final prediction so that we can use it to trick the neural network. This
reveals an inherent weakness in neural networks that can be exploited. One
application described here leads to a method of image steganography. Through
experiments on image datasets such as MNIST, we show that we can use null space
components to force the neural network to choose a selected hidden image class,
even though the overall image can be made to look like a completely different
image. We conclude by showing comparisons between what a human viewer would
see, and the part of the image that the neural network is actually using to
make predictions and, hence, show that what the neural network ``sees'' is
completely different than what we would expect.
- Abstract(参考訳): 本稿ではニューラルネットワークのヌル空間特性について考察する。
線形写像から非線形写像へのヌル空間の定義を拡張し、ニューラルネットワークにおけるヌル空間の存在について議論する。
与えられたニューラルネットワークのヌルスペースは、最終的な予測に寄与しない入力データの部分を教えてくれるので、ニューラルネットワークを騙すことができます。
これは、ニューラルネットワークが悪用できる固有の弱点を明らかにする。
ここで述べる応用の一つは、画像ステガノグラフィーの方法である。
MNISTのような画像データセットの実験を通して、ニューラルネットワークが選択した隠れ画像クラスを選択することを強制するために、ヌル空間コンポーネントを使用することが可能であることを示した。
結論は、人間のビューアが見るものと、ニューラルネットワークが実際に予測するために使っている画像の一部を比較することで、ニューラルネットワークの‘sees’が私たちが期待するものとは全く異なることを示す。
関連論文リスト
- Extreme Compression of Adaptive Neural Images [6.646501936980895]
Implicit Neural Representation(INR)とNeural Fieldsは、画像やオーディオから3Dシーン、ビデオまで、信号表現のための新しいパラダイムである。
本稿では、画像に焦点をあてて、ニューラルネットワークの圧縮に関する新しい分析法を提案する。
また、異なる推論や伝送要求への適応を可能にする効率的なニューラルネットワーク表現であるAdaptive Neural Images (ANI)を導入する。
論文 参考訳(メタデータ) (2024-05-27T03:54:09Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Closed-Form Interpretation of Neural Network Classifiers with Symbolic Gradients [0.7832189413179361]
人工ニューラルネットワークにおいて、任意の単一ニューロンのクローズドフォーム解釈を見つけるための統一的なフレームワークを紹介します。
ニューラルネットワーク分類器を解釈して、決定境界に符号化された概念のクローズドフォーム表現を明らかにする。
論文 参考訳(メタデータ) (2024-01-10T07:47:42Z) - Why do CNNs excel at feature extraction? A mathematical explanation [53.807657273043446]
実世界のデータセットに似た画像を生成するのに使用できる特徴抽出に基づく画像分類の新しいモデルを提案する。
本研究では,特徴の存在を検知する一方向線形関数を構築し,畳み込みネットワークで実現可能であることを示す。
論文 参考訳(メタデータ) (2023-07-03T10:41:34Z) - An Analytical Approach to Compute the Exact Preimage of Feed-Forward
Neural Networks [0.0]
本研究では,任意のフィードフォワードニューラルネットワークにおいて,隠蔽層に対して線形あるいは一方向に線形に活性化する関数を正確に計算する手法を提案する。
他のメソッドとは対照的に、このメソッドはユニークな出力に対してユニークなソリューションを返すのではなく、解析的に全体と正確な事前イメージを返す。
論文 参考訳(メタデータ) (2022-02-28T18:12:04Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - Neural Photofit: Gaze-based Mental Image Reconstruction [25.67771238116104]
我々は、人間の固定を利用して、人が考えている画像を視覚的にフォトフィット(顔複合体)にデコードする新しい方法を提案する。
提案手法は,3つのニューラルネットワーク – エンコーダ,スコアリングネットワーク,デコーダ – を組み合わせる。
本手法は平均ベースライン予測器を著しく上回り,視覚的に可視であり,観察者の心像に近いフォトフィットを復号できることを示す。
論文 参考訳(メタデータ) (2021-08-17T09:11:32Z) - The Representation Theory of Neural Networks [7.724617675868718]
ニューラルネットワークは、量子表現の数学的理論によって表現できることを示す。
ネットワーククイバーが共通のニューラルネットワークの概念に優しく適応していることを示します。
また、ニューラルネットワークがデータから表現を生成する方法を理解するためのクイバー表現モデルも提供します。
論文 参考訳(メタデータ) (2020-07-23T19:02:14Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。