論文の概要: Shallow Encoder Deep Decoder (SEDD) Networks for Image Encryption and
Decryption
- arxiv url: http://arxiv.org/abs/2001.03017v2
- Date: Sun, 17 May 2020 09:59:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 04:39:46.558810
- Title: Shallow Encoder Deep Decoder (SEDD) Networks for Image Encryption and
Decryption
- Title(参考訳): 画像暗号化と復号のためのShallow Encoder Deep Decoder (SEDD) Networks
- Authors: Chirag Gupta
- Abstract要約: 本稿では、暗号化のための浅いエンコーダニューラルネットワークEと復号のための複雑なディープデコーダニューラルネットワークDを用いて、損失の多い画像暗号化と復号化のための新しいフレームワークを探索する。
エンコーディングは低消費電力でポータブルなデバイス上で行うことができ、原理的にはエンコードされたベクトルを出力する非線形関数である。
D は、E から得られたベクトル対を符号化し、E から独立して発生する画像のデータセットを用いて符号化を復号する訓練を行う。
- 参考スコア(独自算出の注目度): 6.243995448840211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores a new framework for lossy image encryption and decryption
using a simple shallow encoder neural network E for encryption, and a complex
deep decoder neural network D for decryption. E is kept simple so that encoding
can be done on low power and portable devices and can in principle be any
nonlinear function which outputs an encoded vector. D is trained to decode the
encodings using the dataset of image - encoded vector pairs obtained from E and
happens independently of E. As the encodings come from E which while being a
simple neural network, still has thousands of random parameters and therefore
the encodings would be practically impossible to crack without D. This approach
differs from autoencoders as D is trained completely independently of E,
although the structure may seem similar. Therefore, this paper also explores
empirically if a deep neural network can learn to reconstruct the original data
in any useful form given the output of a neural network or any other nonlinear
function, which can have very useful applications in Cryptanalysis. Experiments
demonstrate the potential of the framework through qualitative and quantitative
evaluation of the decoded images from D along with some limitations.
- Abstract(参考訳): 本稿では、暗号化のための浅いエンコーダニューラルネットワークEと復号のための複雑なディープデコーダニューラルネットワークDを用いて、損失の多い画像暗号化と復号化のための新しいフレームワークを探索する。
エンコーディングは低消費電力でポータブルなデバイス上で行うことができ、原理的にはエンコードされたベクトルを出力する非線形関数である。
Dは画像のデータセットを使って符号化を復号するために訓練されている - Eから得られたベクトル対を符号化し、Eから独立して発生する。 符号化はEから来ているが、単純なニューラルネットワークであるにもかかわらず、数千のランダムパラメータを持つため、Dなしでは解読は事実上不可能である。この方法は、DがEから完全に独立して訓練されているため、オートエンコーダとは異なる。
そこで本研究では,ニューラルネットワークの出力や,クリプトアナリシスにおいて非常に有用な非線形関数によって,ニューラルネットワークが元のデータを何らかの有用な形で再構築できることを実証的に検討する。
実験では、Dからデコードされた画像の定性的かつ定量的な評価を通じて、いくつかの制限とともにフレームワークの可能性を示す。
関連論文リスト
- The END: An Equivariant Neural Decoder for Quantum Error Correction [73.4384623973809]
データ効率のよいニューラルデコーダを導入し、この問題の対称性を活用する。
本稿では,従来のニューラルデコーダに比べて精度の高い新しい同変アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-14T19:46:39Z) - Optimizing Serially Concatenated Neural Codes with Classical Decoders [8.692972779213932]
従来の復号アルゴリズムが非自明な実数値ニューラルコードに適用されていることを示す。
BCJRアルゴリズムは完全に微分可能であるので、エンドツーエンドでニューラルエンコーダのトレーニングや微調整が可能である。
論文 参考訳(メタデータ) (2022-12-20T15:40:08Z) - A Scalable Graph Neural Network Decoder for Short Block Codes [49.25571364253986]
エッジ重み付きグラフニューラルネットワーク(EW-GNN)に基づく短絡符号の復号化アルゴリズムを提案する。
EW-GNNデコーダは、繰り返しメッセージパッシング構造を持つタナーグラフで動作する。
EW-GNNデコーダは,復号誤り率の観点から,BP法および深層学習に基づくBP法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T17:13:12Z) - HYPERLOCK: In-Memory Hyperdimensional Encryption in Memristor Crossbar
Array [0.32771631221674324]
本稿では,memristorクロスバーアレイ,バイナリハイパーベクタ,ニューラルネットワークに基づく新しい暗号アーキテクチャを提案する。
本研究は,暗号のエンコーダユニットとしてmemristor Crossbarsを使用することの可能性と実現可能性を示す。
論文 参考訳(メタデータ) (2022-01-27T07:47:06Z) - Small Lesion Segmentation in Brain MRIs with Subpixel Embedding [105.1223735549524]
ヒト脳のMRIスキャンを虚血性脳梗塞と正常組織に分割する方法を提案する。
本稿では,空間展開埋め込みネットワークによって予測を導出する標準エンコーダデコーダの形式でニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-18T00:21:17Z) - A manifold learning perspective on representation learning: Learning
decoder and representations without an encoder [0.0]
オートエンコーダは表現学習で一般的に使用される。
多様体学習にインスパイアされて、トレーニングサンプルの表現を学習することで、デコーダを単独で訓練できることが示される。
デコーダのみを訓練する我々のアプローチは、小さなデータセットでも表現学習を容易にする。
論文 参考訳(メタデータ) (2021-08-31T15:08:50Z) - Self-supervised Neural Networks for Spectral Snapshot Compressive
Imaging [15.616674529295366]
我々は、訓練されていないニューラルネットワークを用いて、スナップショット圧縮画像(SCI)の再構成問題を解決することを検討する。
本稿では,DIP(Deep Image Priors)やディープデコーダ(Deep Decoder)といった未学習のニューラルネットワークにヒントを得て,DIPをプラグアンドプレイシステムに統合して,スペクトルSCI再構成のための自己教師型ネットワークを構築する。
論文 参考訳(メタデータ) (2021-08-28T14:17:38Z) - Dynamic Neural Representational Decoders for High-Resolution Semantic
Segmentation [98.05643473345474]
動的ニューラル表現デコーダ(NRD)と呼ばれる新しいデコーダを提案する。
エンコーダの出力上の各位置がセマンティックラベルの局所的なパッチに対応するので、この研究では、これらの局所的なパッチをコンパクトなニューラルネットワークで表現する。
このニューラル表現により、意味ラベル空間に先行する滑らかさを活用することができ、デコーダをより効率的にすることができる。
論文 参考訳(メタデータ) (2021-07-30T04:50:56Z) - ICodeNet -- A Hierarchical Neural Network Approach for Source Code
Author Identification [0.0]
ICodeNetは階層型ニューラルネットワークで、ソースコードファイルレベルのタスクに使用できる。
ICodeNetはソースコードをイメージ形式で処理し、ファイルの作者の識別ごとに使用される。
また、画像に基づく階層型ニューラルネットワークモデルと、単純な画像ベースのCNNアーキテクチャと、テキストベースのCNNおよびLSTMモデルを比較して、その新規性と効率性を強調した。
論文 参考訳(メタデータ) (2021-01-30T14:05:22Z) - D-Unet: A Dual-encoder U-Net for Image Splicing Forgery Detection and
Localization [108.8592577019391]
画像スプライシング偽造検出は、画像指紋によって改ざんされた領域と非改ざんされた領域を区別するグローバルバイナリ分類タスクである。
画像スプライシングフォージェリ検出のためのデュアルエンコーダU-Net(D-Unet)という,固定されていないエンコーダと固定エンコーダを用いた新しいネットワークを提案する。
D-Unetと最先端技術の比較実験において、D-Unetは画像レベルおよび画素レベルの検出において他の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-03T10:54:02Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。