論文の概要: Transformers -- Messages in Disguise
- arxiv url: http://arxiv.org/abs/2411.10287v1
- Date: Fri, 15 Nov 2024 15:42:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:36:50.964201
- Title: Transformers -- Messages in Disguise
- Title(参考訳): Transformer -- 曖昧なメッセージ
- Authors: Joshua H. Tyler, Mohamed K. M. Fadul, Donald R. Reising,
- Abstract要約: NNベースの暗号は、ランダムな暗号スキームを学習し実装する能力のために研究されている。
Rは、(i)投影層、(ii)逆投影層、(iii)ドット生成層という3つの新しいNN層から構成される。
その結果、(i) が計算効率が高く、(ii) 暗号化されたメッセージが一意であること、(iii) が通信オーバーヘッドを誘発しないことが保証される。
- 参考スコア(独自算出の注目度): 3.74142789780782
- License:
- Abstract: Modern cryptography, such as Rivest Shamir Adleman (RSA) and Secure Hash Algorithm (SHA), has been designed by humans based on our understanding of cryptographic methods. Neural Network (NN) based cryptography is being investigated due to its ability to learn and implement random cryptographic schemes that may be harder to decipher than human-designed algorithms. NN based cryptography may create a new cryptographic scheme that is NN specific and that changes every time the NN is (re)trained. This is attractive since it would require an adversary to restart its process(es) to learn or break the cryptographic scheme every time the NN is (re)trained. Current challenges facing NN-based encryption include additional communication overhead due to encoding to correct bit errors, quantizing the continuous-valued output of the NN, and enabling One-Time-Pad encryption. With this in mind, the Random Adversarial Data Obfuscation Model (RANDOM) Adversarial Neural Cryptography (ANC) network is introduced. RANDOM is comprised of three new NN layers: the (i) projection layer, (ii) inverse projection layer, and (iii) dot-product layer. This results in an ANC network that (i) is computationally efficient, (ii) ensures the encrypted message is unique to the encryption key, and (iii) does not induce any communication overhead. RANDOM only requires around 100 KB to store and can provide up to 2.5 megabytes per second of end-to-end encrypted communication.
- Abstract(参考訳): Rivest Shamir Adleman (RSA) や Secure Hash Algorithm (SHA) といった現代の暗号は、暗号手法の理解に基づいて人間によって設計されている。
ニューラルネットワーク(NN)ベースの暗号は、人間が設計したアルゴリズムよりも解読が難しいランダム暗号スキームを学習し、実装する能力のために研究されている。
NNベースの暗号は、NN固有の新しい暗号スキームを作成し、NNが(再)トレーニングされるたびに変更する。
NNが(再)トレーニングされる度に暗号化スキームを学習したり、壊したりするプロセスを再起動する必要があるため、これは魅力的です。
NNベースの暗号化に直面する現在の課題には、ビットエラーの訂正による通信オーバーヘッドの追加、NNの連続的な値出力の定量化、One-Time-Pad暗号化の実現などがある。
このことを念頭において,RANDOM (Random Adversarial Data Obfuscation Model) とANC (Adversarial Neural Cryptography) ネットワークを導入する。
RANDOMは3つの新しいNN層で構成されている。
(i)投影層
(ii)逆射影層、及び
(iii)ドット生成層。
その結果、ANCネットワークが生まれます。
i) 計算効率が良い。
(ii)暗号化されたメッセージが暗号化キーに固有のことを保証し、
(iii)通信オーバーヘッドは生じない。
RANDOMは保存するのに100KB程度しか必要とせず、エンドツーエンドの暗号化通信で最大2.5メガバイトまで処理できる。
関連論文リスト
- Bi-CryptoNets: Leveraging Different-Level Privacy for Encrypted
Inference [4.754973569457509]
入力データを重要度とプライバシーに応じてセンシティブで非センシティブなセグメントに分解する。
センシティブなセグメントは、人間の顔のような重要でプライベートな情報を含んでいる。
セキュリティを維持するために、強い同型暗号化を採用していますが、不感な暗号化には背景がいくつか含まれており、摂動が追加されています。
論文 参考訳(メタデータ) (2024-02-02T10:35:05Z) - Generating Interpretable Networks using Hypernetworks [16.876961991785507]
我々は、ハイパーネットワークを用いて、基盤となるアルゴリズムがまだ分かっていない解釈可能なネットワークを生成する可能性を探る。
L1ノルムを計算するタスクでは、ハイパーネットワークスは3つのアルゴリズムを見つける: (a) 両面アルゴリズム、 (b) 凸性アルゴリズム、 (c) プリンアルゴリズム。
訓練されたハイパーネットワークは、トレーニングで見えない入力次元のモデルを正しく構築でき、体系的な一般化を実証できることを示す。
論文 参考訳(メタデータ) (2023-12-05T18:55:32Z) - Revocable Cryptography from Learning with Errors [61.470151825577034]
我々は、量子力学の非閉鎖原理に基づいて、キー呼び出し機能を備えた暗号スキームを設計する。
我々は、シークレットキーが量子状態として表現されるスキームを、シークレットキーが一度ユーザから取り消されたら、それらが以前と同じ機能を実行する能力を持たないことを保証して検討する。
論文 参考訳(メタデータ) (2023-02-28T18:58:11Z) - Deep Neural Networks for Encrypted Inference with TFHE [0.0]
完全同型暗号(英: Fully homomorphic encryption, FHE)は、復号化せずに暗号化されたデータ上で計算を行うことができる暗号法である。
TFHEは、健康データ、バイオメトリックス、クレジットスコア、その他の個人情報などの機密データを扱うオンラインサービスのユーザのプライバシを保存する。
本稿では、任意の深度計算回路を実現するFHEスキームであるTFHEの制約に適合するディープニューラルネットワーク(DNN)を構築する方法について述べる。
論文 参考訳(メタデータ) (2023-02-13T09:53:31Z) - Hiding Images in Deep Probabilistic Models [58.23127414572098]
我々は、画像の深い確率モデルに隠蔽するための異なる計算フレームワークについて述べる。
具体的には、DNNを用いて、カバー画像の確率密度をモデル化し、学習した分布の特定の場所に秘密画像を隠す。
我々は,抽出精度とモデルセキュリティの観点から,SinGANアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2022-10-05T13:33:25Z) - Enhancing Networking Cipher Algorithms with Natural Language [0.0]
自然言語処理は、ネットワーク暗号化モデルにおける最も弱いリンクと考えられている。
本稿では、脆弱なストリームの暗号化を支援する手段として、言語を対称暗号化に統合する方法を要約する。
論文 参考訳(メタデータ) (2022-06-22T09:05:52Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - FFConv: Fast Factorized Neural Network Inference on Encrypted Data [9.868787266501036]
本稿では、畳み込みと暗号文のパッキングを統一するFFConvと呼ばれる低ランク分解法を提案する。
先行技術であるLoLaとFalconと比較して,提案手法は,それぞれ最大87%,12%の遅延を減少させる。
論文 参考訳(メタデータ) (2021-02-06T03:10:13Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。